본문 바로가기
미래기술/Artificial Intelligence

[개념] RAG(Retrieval Augmented Generation)

by DeungZan 2024. 12. 12.

생성형(Generative) AI의 전성시대입니다.
생성형 AI을 'GPT(Generative Pre-Trained Transformer)-AI' 하고 합니다. 쉽게 말해
     ① 미리 학습된(훈련된) 데이터를 기반으로
     ② Transformer 모델을 통해
         (※ 문장의 의미를 파악하여 다음 단어를 추천해 주는 일종의 Foundation 모델)
     ③ 텍스트, 이미지, 영상, 음원 등으로 Generation 해 주는 게 
 
생성형 AI 즉 GPT-AI의 기본 정의라고 할 수 있습니다.
 
여기 '① 미리 학습된(훈련된) 데이터'는 크게 '학습 데이터와 매개변수' 두가지로 나눌 수 있는데, 두 가지 모두 언어모델을 기반으로 대용량을 학습시킨다 하여 LLM(Large Language Model)이라고 합니다.
이는 범용적인 대용량 데이터를 학습시킨다는 의미이고, 특정한 또는 매우 niche 하나 전문적인 데이터.. 또 혹은, 특정 집단이나 조직이 갖고 있는 소규모 데이터를 학습시킨다는 의미에서는 SLM(Small Language Model)이라 부르기도 하는데, 중요한 건 Language Model의 경우 Pre-Trained, 즉 사전에 학습된 데이터를 기반으로 Generative 한다는 점에서 학습되지 않은 현재의 데이터나 정보를 사용자에게 제공할 수 없었기 때문에 이를 보완하기 위해서 실시간 정보 검색을 통해 Pre-Trained LLM을 보완하는 것이 RAG(Retrieval Augmented Generation)이라고 보면 됩니다.
 
아래는 RAG 개념과 LLM과의 협업 방식에 대해 GPT-4o와 Perplexity의 답변을 Modify 하여 작성한 내용입니다.
개인적으로는 이런류의 개념 정리는 Perplexity의 제공 결과가 더 낫다는 생각이 듭니다.
 

RAG의 핵심 개념

RAG는 다음과 같은 주요 특징을 가지고 있습니다:

  1. 검색과 생성의 결합: 사용자의 질문에 대해 먼저 관련 정보를 데이터베이스에서 검색한 후, 이를 바탕으로 답변 생성
  2. 실시간 정보 활용: 기존에 학습된 데이터뿐만 아니라 최신 정보를 실시간으로 반영
  3. 정확성 향상: 외부 지식원을 활용함으로써 LLM의 사실적 오류와 잘못된 정보 생성(hallucination) 문제를 줄임

RAG의 작동 방식

RAG 시스템은 크게 두 단계로 작동합니다:

  1. 정보 검색 단계:
    •    사용자의 질문을 분석하고 관련 정보를 검색
    •    검색된 정보는 관련성에 따라 평가되고 선택
  2. 생성 단계:
    •    선택된 정보와 원래 질문을 결합하여 최종 답변 생성

LLM과의 협업 방법

RAG와 LLM의 효과적인 협업을 위해 다음과 같은 방법을 고려할 수 있습니다:

  1. 모듈화된 RAG 구현: 검색, 메모리, 융합 등 다양한 기능 모듈을 통합하여 LLM의 성능 개선
  2. 검색 후처리 최적화: LLM을 변경하지 않고 검색 결과의 품질을 향상시키는 데 중점을 둡니다. 정보 압축이나 결과 재순위화 등의 기법을 활용
  3. LLM 파인 튜닝: RAG 시스템에 맞춰 LLM을 최적화하여 검색된 문서를 더 효과적으로 활용하고 자연스러운 텍스트를 생성하도록 조정
  4. 지속적인 업데이트: RAG 시스템의 검색 데이터베이스를 주기적으로 업데이트하여 LLM이 항상 최신 정보에 접근할 수 있도록 함

RAG와 LLM의 협업 장점

RAG와 LLM의 협업은 AI 시스템의 성능을 크게 향상시키며 다음과 같은 주요 장점을 제공합니다:

  1. 정확성 향상: RAG는 외부 데이터베이스에서 관련 정보를 검색하여 LLM에 제공함으로써, 모델의 환각 문제를 줄이고 더 정확한 답변을 생성할 수 있게함
  2. 최신 정보 활용: LLM의 학습 데이터에 포함되지 않은 최신 정보나 특정 도메인의 데이터를 RAG를 통해 실시간으로 활용할 수 있음
  3. 비용 효율성: 모든 정보를 LLM에 직접 학습시키는 대신, RAG를 사용하여 필요한 정보만 검색하고 활용함으로써 학습 및 운영 비용을 절감할 수 있음
  4. 특정 도메인 지식 강화: 기업 내부 문서나 특정 분야의 전문 데이터를 RAG 시스템에 통합하여, LLM의 일반적인 지식을 특정 도메인에 맞게 보완할 수 있음
  5. 유연성 및 확장성: RAG 시스템을 통해 LLM은 다양한 외부 데이터 소스와 연결될 수 있어, 모델의 적용 범위와 기능을 유연하게 확장할 수 있음
  6. 신뢰성 향상: 신뢰할 수 있는 외부 데이터 소스를 활용함으로써, LLM의 출력 결과에 대한 신뢰성을 높일 수 있음

최근에 생성형 AI를 다루는 여러 서적이나 뉴스 기사에서 LLM 기반의 생성형 AI의 한계를 많이 지적합니다.
아마도, 새로운 학습 모델이나 방법이 제시되지 않는 한,
거의 유일하게 RAG가 현재의 LLM의 제약 사항을 극복하여 좀 더 가치있고 신뢰도 높은 정보를 제공하는데 역할을 하지 않을까 생각해 봅니다.
 

GPT-4o로 그린 RAG와 LLM의 협업

 
- DeungZan ('24년 12월 12일) - 
 
※ '24년 12월 14일, 대한민국이 다시 제자리로 돌아가길 희망합니다!!!