RAG+ 소개: 지식과 적용 사례를 결합하여 LLM의 추론 능력 향상

🤖 AI 추천

LLM의 추론 성능 향상에 관심 있는 AI/ML 엔지니어, 데이터 과학자, 그리고 RAG 기술을 실제 애플리케이션에 적용하려는 개발자들에게 추천합니다. 특히 수학, 법률, 의학과 같이 개념적 이해와 함께 실제 적용 사례가 중요한 분야의 개발자에게 유익합니다.

🔖 주요 키워드

RAG+ 소개: 지식과 적용 사례를 결합하여 LLM의 추론 능력 향상

핵심 기술

RAG+는 기존 RAG(Retrieval-Augmented Generation)의 한계점인 '정보 검색'은 뛰어나지만 '추론' 능력은 부족한 부분을 해결하기 위해 개발된 기술입니다. RAG+는 단순히 지식 덩어리(conceptual knowledge)를 제공하는 것을 넘어, 해당 지식을 어떻게 활용하는지에 대한 실제 적용 사례(procedural knowledge)를 함께 제공하여 LLM의 추론 능력을 향상시킵니다.

기술적 세부사항

  • 두 개의 코퍼스 구축: RAG+는 "Knowledge base" (교과서, 문서 등 사실 정보)와 "Application base" (수학 공식 활용법, 법률 조항 적용 예시 등 실제 적용 사례)라는 두 개의 코퍼스를 구축합니다.
  • 개념적(Conceptual) 및 절차적(Procedural) 지식 결합: 모델은 "평균, 중앙값, 최빈값의 공식"과 같은 개념적 지식뿐만 아니라, "이 공식을 사용하여 문제를 해결하는 단계별 가이드"와 같은 절차적 지식을 함께 제공받습니다.
  • 애플리케이션 매칭: 지식과 예제를 주제/도메인별로 분류하고, LLM을 사용하여 개념과 예제 간의 다대다 연결을 생성합니다. 일치하는 예제가 없을 경우, 실시간으로 새로운 지식 조각을 생성하여 격차를 메웁니다.
  • 모듈성: 기존 RAG 파이프라인을 재구축할 필요 없이 애플리케이션 코퍼스를 추가하고 인덱싱 작업을 수행하여 쉽게 통합할 수 있습니다.
  • 다양한 RAG 변형과의 비교: 표준 RAG, GraphRAG, Re-rank RAG, AFRAG 등 여러 RAG 변형과 비교 테스트를 진행했습니다.
  • 성능 테스트: 수학, 법률, 의학 도메인에서 다양한 모델 크기(7B~70B)로 테스트되었으며, 특히 법률 분야에서 RAG+ 적용 시 상당한 성능 향상(예: 3% 성능 향상)을 보였습니다.

개발 임팩트

  • LLM의 추론 능력을 향상시켜 복잡한 문제 해결에 더 효과적으로 사용할 수 있습니다.
  • 작은 모델에서도 Re-rank RAG보다 우수한 성능을 보이거나 유사한 성능을 낼 수 있습니다 (특히 Re-rank RAG는 대형 모델에서 더 효과적).
  • 단순히 예제를 많이 제공하는 것보다, 개념과 적용 방법을 함께 제공하는 것이 중요함을 시사합니다.
  • 대형 모델일수록 애플리케이션 예제의 이점을 더 많이 활용하는 경향이 있습니다.
  • 대형 모델을 리랭킹에만 사용하고 소형 모델로 답변을 생성하는 방식은 비용 효율적인 성능 향상 전략이 될 수 있습니다.

커뮤니티 반응

콘텐츠에서는 RAG+가 기존 기술을 개선하는 방식이 명확하고 직관적이어서 왜 이전부터 시도되지 않았는지 의문이라는 반응을 언급하며, 쉽게 통합 가능하므로 시도해 볼 만한 가치가 있다고 평가하고 있습니다.

📚 관련 자료