AI/LLM

[RAG 기초] 환각 현상의 구세주

jumemory 2025. 7. 31. 10:49

[LLM 컨셉] RAG 기초: 모델에게 검색 능력을 부여하다

**RAG (Retrieval-Augmented Generation, 검색 증강 생성)**는 모델이 답변을 생성하기 전에 신뢰할 수 있는 외부 지식 베이스에서 관련 정보를 **검색(Retrieval)**하고, 그 내용을 참고하여 답변을 **생성(Generation)**하는 기술입니다.

비유하자면, 모든 지식을 암기해서 시험을 치는 것이 아니라, 옆에 **백과사전을 두고 모르는 문제를 찾아가며 푸는 '오픈북 테스트'**와 같습니다.


1. 왜 RAG가 필요한가? (LLM의 3대 한계 극복)

사전 학습(Pre-training)만 마친 모델은 아무리 거대해도 다음과 같은 치명적인 약점이 있습니다.

  1. 환각 현상 (Hallucination): 모르는 질문에도 그럴듯한 거짓말을 확신에 차서 답변함.
  2. 지식의 컷오프 (Knowledge Cutoff): 학습 데이터가 수집된 시점 이후의 최신 정보(예: 오늘 뉴스, 어제 주가)를 알지 못함.
  3. 폐쇄적 데이터 접근: 기업 내부 문서나 개인적인 파일 등 공개되지 않은 데이터는 학습할 수 없음.

RAG는 이 세 가지 문제를 모델 재학습 없이 단번에 해결합니다.


2. RAG의 핵심 동작 프로세스 (5단계)

RAG가 작동하는 과정은 마치 도서관에서 책을 찾아 요약하는 과정과 비슷합니다.

  1. 질문(Query) 입력: 사용자가 질문을 던집니다.
  2. 검색(Retrieval): 질문과 가장 관련이 깊은 문서 조각을 외부 데이터베이스(Vector DB)에서 찾아냅니다.
  3. 증강(Augmentation): 찾아낸 지식 조각과 원래의 질문을 합쳐서 새로운 프롬프트를 만듭니다.
    • (예: "다음 참고 자료를 바탕으로 질문에 답해줘: [검색된 내용] + [사용자 질문]")
  4. 생성(Generation): 모델이 제공된 참고 자료를 읽고 정답을 생성합니다.
  5. 출처 제시: 답변과 함께 참고한 문서의 위치를 알려주어 신뢰도를 높입니다.

3. RAG vs Fine-tuning 비교

지식을 주입하는 두 가지 방법을 비교해 보면 RAG의 강점이 명확해집니다.

구분 Fine-tuning (미세 조정) RAG (검색 증강 생성)
지식 업데이트 재학습 필요 (느림, 비용 발생) 실시간 업데이트 가능 (빠름, 저렴)
출처 제시 불가능 (모델 내부에 녹아있음) 가능 (어떤 문서를 참고했는지 표시)
환각 억제 다소 개선되나 근본 해결 안 됨 매우 효과적 (근거 기반 답변)
적합한 용도 말투, 형식, 특정 도메인 용어 학습 최신 정보, 방대한 문서 기반 지식 추출

4. RAG의 성능을 결정하는 요소

RAG가 제대로 작동하려면 다음 두 파트가 모두 뛰어나야 합니다.

  • 검색 엔진의 성능: 질문에 딱 맞는 문서를 얼마나 잘 찾아오는가? (나중에 배울 EmbeddingVector DB의 영역)
  • 독해 및 생성 능력: 가져온 정보를 모델이 얼마나 잘 읽고 요약하는가? (LLM의 추론 능력 및 Context Window 크기)

5. [선생님의 심화 보충] Grounding (근거 창출)

RAG에서 가장 중요한 개념은 **Grounding(그라운딩)**입니다. 이는 모델의 답변을 '현실의 검증된 사실'에 단단히 결합시키는 과정을 말합니다. RAG를 통해 모델이 "내 생각에는..."이 아니라 "제공된 문서에 따르면..."이라고 말하기 시작할 때, 비로소 기업용 서비스로 활용 가능한 수준의 신뢰성을 갖게 됩니다.


✍️ 공부를 마치며

RAG는 LLM을 실무에 적용하기 위한 가장 현실적이고 강력한 방법론입니다. 이제 우리는 "무엇을 참고할 것인가"를 배웠습니다.

'AI > LLM' 카테고리의 다른 글

[Semantic Search] 의미 기반 검색  (4) 2025.08.04
[Vector DB] 지식의 저장소  (3) 2025.08.01
[PEFT 2] 양자화 튜닝 QLoRA  (3) 2025.07.30
[PEFT 1] 효율적 튜닝 LoRA  (0) 2025.07.29
[RLHF] 인간의 가치 정렬  (0) 2025.07.25