AI 13

1.2 컨테이너 기술과 도커

목차학습 목표가상 머신, 컨테이너의 차이점에 대해서 학습한다.  1.2 컨테이너 기술과 도커1.2.1 가상 머신과 컨테이너가상화란?서버, 네트워크, 스토리지 등의 컴퓨터 자원을 (1) 추상화하여 (2) 하나의 물리 자원을 여러 개로 쪼개어 쓰거나 (3) 여러 물리 자원을 하나로 쓰는 방법이다. 자세한 내용은 (링크)를 참고 바란다.  가상화는 하이퍼 바이저를 이용한 가상 머신(VM, Virtual Machine)와 컨테이너 방식이 많이 쓰이고 있다.  (1) 가상 머신 (VM, Virtual Machine)과 하이퍼바이져"가상 머신(VM)은 물리 하드웨어 자원을 기반으로, 자체 CPU, 메모리, 네트워크 인터페이스 및 저장소를 갖추고 작동하는 독립적인 컴퓨팅 환경이다."A virtual machine (..

AI/MLOps 2025.03.11

도커 컨테이너 빌드업 - 1.1 클라우드 컴퓨팅 개요

목차 학습 목표클라우드 컴퓨팅의 도입 배경, 특징, 구조에 대해서 학습한다. 클라우드 서비스 종류(IaaS, PaaS, SaaS)에 대해서 학습한다.   용어클러스터, 가상화, 하이퍼바이져, 분할, 프로비져닝, 자율 컴퓨팅, 그리드 컴퓨팅 더보기가상화(Virtualization) 가상화가 뭔가요? 하나의 컴퓨팅 자원을 마치 여러 개인 것처럼 쪼개서 사용하거나, 여러 컴퓨팅 자원을 하나의 자원인 것처럼 생각하고 사용하는 것이다. 여기서 컴퓨팅 자원이란, CPU, 메모리, 스토리지, 네트워크 등을 의미한다. -> 즉 실재하는 컴퓨팅 자원의 개수와 상관 없이, 내가 사용하고 싶은대로 개념화하기에 자원을 '추상화' 한다고 한다.   장점이 뭔가요? 가상화를 통해서 내가 가진 자원을 효율적으로 쓸 수 있다.   ..

AI/MLOps 2025.03.10

[논문] RAG

배경- 사전학습모델(Pre-trained Model)은 외부 지식에 확장이 쉽지 않음. - 기존에도 검색 증강 기법들은 있었지만 ?? 한 한계가 있었다. - 아이디어: sequence-to-sequence 구조(-> text-to-text)를 채택하여 기존 한계를 극복한다.  RAG - 기본 구조: encoder-decoder,  Dense Passage Retriever주요 구성 요소 1. Retriever: Pretrained BERT(encoder)BERT 기반의 DPR(Dense Passage Retriever) 사용입력 쿼리를 받아서 관련된 문서들을 검색쿼리와 문서를 벡터로 인코딩하여 유사도 계산Top-k개의 가장 관련성 높은 문서들을 선택 DPRDPR은 질문-답변(QA) 시스템을 위한 효율적인..

AI/NLP 2024.12.05

[랭체인 기본 문법]

목차학습 목표랭체인의 기본 원리에 대해서 학습한다. 랭체인의 기본 구성 1. 모델 IO: - 프롬프트, 언어모델, 출력파서 2. 데이터 연결 - 문서 읽기, 문서 변환, 문서 임베딩, 벡터 DB, 검색기3. 체인4. 메모리5. 에이전트 + 툴  1. 모델 IO : 프롬프트, 언어모델, 출력파서로 구성 - 프롬프트: LLM 모델에 전달될 프롬프트 생성   - 언어모델: 답변을 받기 위한 LLM API 호출 - 출력 파서(Output parser): 답변을 출력할 형식을 모델에게 전달한다.  PromptTemplate()와 PromptTemplate.from_template() 차이는 무엇인가?  프롬프트 생성 언어 모델: OPEN AI, 허깅 페이스 등 활용할 수 있음. 출력 파서 출력 형식 지정 체인프롬..

AI/NLP 2024.11.15

[논문 리뷰] Parameter-Efficient Transfer Learning for NLP

목차요약Adaptive module을 활용한 transfer learning 기법을 제안  INTRO기존: Transfer from Pretained models has showed strong performance on many downstram tasks of NLPdownstream task란 자연어 처리의 번역, 문맥 파악, 다음 문장 예측, Q&A 등의 과제들을 의미예를 들어, BERT는 다양한 자연어 태스크에 대해서 pretrained 모델로 효과적Figure1. 정확도(Accuracy)와 파라미터/태스크 개수의 trade-off를 보여주는 그림. y축은 Full-fine tuning 성능으로 normalized 된 accuracy이다. Fine-tuning의 경우 학습 파라미터/태스크 개수가..

AI/NLP 2024.11.08