[LLM 컨셉] RAG 기초: 모델에게 검색 능력을 부여하다
**RAG (Retrieval-Augmented Generation, 검색 증강 생성)**는 모델이 답변을 생성하기 전에 신뢰할 수 있는 외부 지식 베이스에서 관련 정보를 **검색(Retrieval)**하고, 그 내용을 참고하여 답변을 **생성(Generation)**하는 기술입니다.
비유하자면, 모든 지식을 암기해서 시험을 치는 것이 아니라, 옆에 **백과사전을 두고 모르는 문제를 찾아가며 푸는 '오픈북 테스트'**와 같습니다.
1. 왜 RAG가 필요한가? (LLM의 3대 한계 극복)
사전 학습(Pre-training)만 마친 모델은 아무리 거대해도 다음과 같은 치명적인 약점이 있습니다.
- 환각 현상 (Hallucination): 모르는 질문에도 그럴듯한 거짓말을 확신에 차서 답변함.
- 지식의 컷오프 (Knowledge Cutoff): 학습 데이터가 수집된 시점 이후의 최신 정보(예: 오늘 뉴스, 어제 주가)를 알지 못함.
- 폐쇄적 데이터 접근: 기업 내부 문서나 개인적인 파일 등 공개되지 않은 데이터는 학습할 수 없음.
RAG는 이 세 가지 문제를 모델 재학습 없이 단번에 해결합니다.
2. RAG의 핵심 동작 프로세스 (5단계)
RAG가 작동하는 과정은 마치 도서관에서 책을 찾아 요약하는 과정과 비슷합니다.
- 질문(Query) 입력: 사용자가 질문을 던집니다.
- 검색(Retrieval): 질문과 가장 관련이 깊은 문서 조각을 외부 데이터베이스(Vector DB)에서 찾아냅니다.
- 증강(Augmentation): 찾아낸 지식 조각과 원래의 질문을 합쳐서 새로운 프롬프트를 만듭니다.
- (예: "다음 참고 자료를 바탕으로 질문에 답해줘: [검색된 내용] + [사용자 질문]")
- 생성(Generation): 모델이 제공된 참고 자료를 읽고 정답을 생성합니다.
- 출처 제시: 답변과 함께 참고한 문서의 위치를 알려주어 신뢰도를 높입니다.
3. RAG vs Fine-tuning 비교
지식을 주입하는 두 가지 방법을 비교해 보면 RAG의 강점이 명확해집니다.
| 구분 | Fine-tuning (미세 조정) | RAG (검색 증강 생성) |
| 지식 업데이트 | 재학습 필요 (느림, 비용 발생) | 실시간 업데이트 가능 (빠름, 저렴) |
| 출처 제시 | 불가능 (모델 내부에 녹아있음) | 가능 (어떤 문서를 참고했는지 표시) |
| 환각 억제 | 다소 개선되나 근본 해결 안 됨 | 매우 효과적 (근거 기반 답변) |
| 적합한 용도 | 말투, 형식, 특정 도메인 용어 학습 | 최신 정보, 방대한 문서 기반 지식 추출 |
4. RAG의 성능을 결정하는 요소
RAG가 제대로 작동하려면 다음 두 파트가 모두 뛰어나야 합니다.
- 검색 엔진의 성능: 질문에 딱 맞는 문서를 얼마나 잘 찾아오는가? (나중에 배울 Embedding과 Vector DB의 영역)
- 독해 및 생성 능력: 가져온 정보를 모델이 얼마나 잘 읽고 요약하는가? (LLM의 추론 능력 및 Context Window 크기)
5. [선생님의 심화 보충] Grounding (근거 창출)
RAG에서 가장 중요한 개념은 **Grounding(그라운딩)**입니다. 이는 모델의 답변을 '현실의 검증된 사실'에 단단히 결합시키는 과정을 말합니다. RAG를 통해 모델이 "내 생각에는..."이 아니라 "제공된 문서에 따르면..."이라고 말하기 시작할 때, 비로소 기업용 서비스로 활용 가능한 수준의 신뢰성을 갖게 됩니다.
✍️ 공부를 마치며
RAG는 LLM을 실무에 적용하기 위한 가장 현실적이고 강력한 방법론입니다. 이제 우리는 "무엇을 참고할 것인가"를 배웠습니다.
'AI > LLM' 카테고리의 다른 글
| [Semantic Search] 의미 기반 검색 (4) | 2025.08.04 |
|---|---|
| [Vector DB] 지식의 저장소 (3) | 2025.08.01 |
| [PEFT 2] 양자화 튜닝 QLoRA (3) | 2025.07.30 |
| [PEFT 1] 효율적 튜닝 LoRA (0) | 2025.07.29 |
| [RLHF] 인간의 가치 정렬 (0) | 2025.07.25 |