인사이트

17 June 2025

RAG란? LLM을 보완하는 검색증강생성 기술의 뜻과 활용

RAG의 구축 방법, LLM과의 관계, 파인튜닝과의 차이, Reranking과 HyDE의 적용까지 알아보세요.

RAG란? LLM을 보완하는 검색증강생성 기술의 뜻과 활용

생성형 AI 활용이 확산되면서 RAG(Retrieval-Augmented Generation, 검색증강생성) 기술에 대한 관심이 빠르게 높아지고 있습니다. 특히 널리 사용되는 기존 대형 언어 모델(LLM)이 가진 정보 최신성, 정확성, 신뢰성의 한계를 효과적으로 보완할 수 있는 방법으로 주목받고 있기 때문입니다.

이 글에서는 RAG란 무엇인지(RAG 뜻)부터 RAG 모델의 구축 방법, LLM과의 관계와 이점, 파인튜닝과의 차이점, RAG 구현 사례, 그리고 RAG 아키텍처를 고도화하는 Reranking과 HyDE 기술까지 소개합니다. 또한 RAG 챗봇, 내부 지식 검색, 도메인 특화 LLM 구축 등 실무에 바로 적용할 수 있는 RAG 구축 인사이트를 제공합니다.

RAG 기술 아키텍처

RAG 뜻

RAG란, Retrieval-Augmented Generation, 즉 검색증강생성 기술을 의미합니다.

검색증강생성 기술은 외부 데이터 소스에서 실시간으로 정보를 검색한 답변 반영을 도와주는 AI 기술입니다. 이는 대형 언어 모델 (LLM)의 한계들을 보완하기 위하여 구축된 기술로, 기존 훈련 당시의 데이터만을 반영한 정적 워크플로우(static workflow)를 넘어 최신 정보와 특정 분야의 데이터를 활용하여 더 관련성 높고 정확한 답변을 제공합니다.

RAG 모델을 구축하는 방법

RAG의 작동 원리는 크게 5가지로 이루어져 있습니다:

1) 지식 기반 생성 (Knowledge Base Creation)

외부 데이터를 임베딩(벡터화) 하여 의미 기반 검색이 가능하도록 벡터 데이터베이스에 저장합니다.

2) 색인화 (Indexing / Query Encoding)

사용자의 질문을 벡터화 합니다.

3) 검색 (Retrieval)

벡터화된 질문을 기반으로 데이터베이스에서 연관성이 높은 정보를 검색합니다.

4) 증강 (Augmentation)

검색된 정보를 통하여 LLM에 컨텍스트를 제공해 줍니다.

5) 생성 (Generation)

내부 지식과 검색된 정보를 종합하여 정확성과 최신성을 올린 답변을 제공합니다.

LLM의 단점과 RAG 구현을 통한 보완

RAG 기술의 필요성은 LLM의 다음과 같은 주요 단점들을 보완합니다.

정적 지식만을 이용하는 LLM의 한계 극복

LLM은 학습 시점의 데이터의 정적 지식 (static knowledge)만 이용할 수 있다는 한계가 있었으나, 실시간 검색을 통해 동적 워크플로우 (dynamic workflow)를 이용한 RAG는 이 단점을 보완합니다.

환각(hallucination) 감소

존재하지 않는 정보를 생성하는 LLM의 환각 증세를 검색증강생성이 감소시킵니다.

RAG LLM 재학습 불필요

외부 데이터베이스만 업데이트하면 되는 RAG를 사용한 결과로 LLM의 빈번한 재학습을 피할 수 있어 운영 효율성과 비용 절감이 가능합니다.

정보의 신뢰성 향상

RAG는 실시간 검색과 출처 추적으로 LLM의 치명적인 단점인 환각증세오 출처 투명성을 줄이고 신뢰성을 올려줍니다.

결과적으로, RAG 기술은 동적인 지식을 활용하여 뉴스, 리서치, 또는 RAG 챗봇을 통한 고객지원 등 정보가 자주 변하는 분야에 적합하며, 도메인 특화, 정보 정확성 향상, 환각 억제 등 다양한 이점을 제공합니다.

대표적인 RAG 구축 사례들

RAG 챗봇과 내부 정보 관리

기업들은 RAG LLM을 통합한 AI 챗봇을 문서, FAQ, 그리고 정책 등 다양한 내부 데이터베이스의 정보를 실시간으로 검색하여 적용하는 RAG 기술을 활용하고 있습니다. 특히 기존 LLM의 한계인 지식 최신성, 전문성, 또 출처 투명성을 이겨내어 실제로 고객 문의 대응을 하는 RAG 챗봇, 내부 지식 검색, 업무 자동화 등에 활용되고 있습니다.

제조업 RAG 아키텍처 지원

RAG 기반 시스템을 통해 설비 매뉴얼, 실시간 센서 데이터, 장애 이력 등을 정리하여 많은 자료에서 신속한 문제 해결 정보를 추출 및 활용합니다.

의료·법률·금융 등 전문 분야

전문성이 중요한 분야에서 RAG 모델로 논문, 판례, 규정 등 신뢰할 수 있는 정보를 받아 환각현상을 줄인 후 전문가와 고객에게 제공할 수 있습니다.

데이터 분석 및 리서치 자동화

규모가 큰 데이터에서 필요한 정보를 검색 및 요약하여 보고서, 시장 분석, 트렌드 분석 등을 빠르고 정확하게 자동화 할 수 있습니다.

RAG 파인튜닝 차이? 어느 것이 더 적합할까?

대형 언어 모델 (LLM)을 목적에 맞게 활용하려 할 때, 가장 대표적인 두가지 방식이 검색증강생성과 파인튜닝(미세조정) 입니다. 둘 다 LLM의 성능을 높이는 역할을 하지만 접근 방식, 용도, 비용 효율성에서 차이를 보입니다.

파인튜닝 (Fine-tuning)

파인튜닝의 정의

기존 LLM에 새로운 데이터를 학습시켜 모델의 가중치를 미세 조정하는 기술

파인튜닝의 특징

  • 모델을 직접 수정하여 정확히 조정된 응답을 만들 수 있음
  • 학습 데이터 재정비와 모델의 재학습으로 많은 시간과 비용이 소요
  • 최신 정보를 반영하려면 주기적인 재학습 필요

검색증강생성 (RAG LLM)

검색증강생성의 정의

외부 데이터베이스에서 실시간으로 정보를 검색하여 컨텍스트를 제공하는 기술

검색증강생성의 특징

  • 기존 LLM의 모델 자체는 변경하지 않음
  • 외부 데이터를 업데이트 하는 것만으로 최신 정보 반영 가능
  • 검색된 출처를 밝혀 투명성과 신뢰성이 높음
  • 전문 지식 반영 비용이 낮고 빠름

이처럼 파인튜닝과 검색증강생성 기술은 둘 다 LLM의 사용을 보완하려는 목적으로 사용되지만 최신 정보 반영의 간단함, 비용과 시간 절약, 출처의 신뢰성, 유연한 도메인 확장으로 빠르게 바뀌는 정보와 비용 제한, 투명성 확보가 중요한 기업 환경에서는 RAG가 훨씬 실용적입니다.

RAG 기술의 한계점

여느 머신 러닝 시스템처럼 검색증강생성 기술에도 한계점들이 있습니다:

  1. 벡터 검색, 하이브리드 검색, 그리고 여러 모델을 번갈아 사용하는 기술을 결합하면서 시스템이 복잡해지고 관리나 비용 부담이 커질 수 있습니다.
  2. 데이터 출처가 다양해지면서 관리가 복잡해질 수 있습니다
  3. 여러 형태와 출처의 정보를 일관성 있게 벡터화하여 데이터베이스에 적재하는 과정이 복잡합니다.
  4. 비정형 데이터가 제대로 정제되지 않으면, RAG 모델의 환각 현상이 심해질 수 있습니다.

RAG 아키텍처의 변화

베슬에이아이는 위 한계를 극복하기 위해 RAG 아키텍처를 보완하는 HyDE (Hypothetical Document Embeddings, 가상 문서 임베딩) Reranking (재정렬) 기법을 적용하고 있습니다.

HyDE의 적용

HyDE RAG 적용 예시

HyDE는 RAG 아키텍처의 일부, 초기 검색에서 질문을 바로 검색 쿼리로 사용하는 대신 LLM이 질문에 대한 가상의 답변을 쿼리로 변환해 벡터 데이터베이스에 검색합니다.

Reranking의 적용

Reranking은 1차 검색에서 여러 문서를 추출한 후에 다른 LLM이 재평가하여 답변의 정확성을 검토하도록 하여 최적의 정보를 선별합니다. 이는 벡터 임베딩 과정에서 발생할 수 있는 정보 손실을 방지하고 불필요한 정보가 노출되는 사례를 줄입니다.

빠르게 변화하고 진화하는 AI 시장에서 특히 RAG 기술은 챗봇과 데이터 분석 등 분야에 영향력을 확장시키고 있습니다. 베슬에이아이는 고도화된 RAG 아키텍처, Reranking, HyDE 기법을 적용해 더 정확하고 신뢰할 수 있는 RAG LLM 솔루션을 제공합니다.

RAG 챗봇, 내부 지식 검색, 도메인 특화 RAG 구축까지, 기업 환경에 꼭 맞는 검색증강생성을 찾고 계시다면 문의해 주세요!

참고자료:

https://aws.amazon.com/ko/blogs/tech/korean-reranker-rag/

https://www.databricks.com/kr/glossary/retrieval-augmented-generation-rag

https://aws.amazon.com/ko/what-is/retrieval-augmented-generation/

https://blog.vessl.ai/en/posts/private-llm-rag

https://www.analyticsvidhya.com/blog/2024/04/enhancing-rag-with-hypothetical-document-embedding/

https://medium.com/data-science/how-to-use-hyde-for-better-llm-rag-retrieval-a0aa5d0e23e8

Alice Lee

Alice Lee

Growth Intern

제품 도입 문의하기

Try VESSL today

Build, train, and deploy models faster at scale with fully managed infrastructure, tools, and workflows.

Get Started

MLOps for high-performance ML teams

© 2025 VESSL AI, Inc. All rights reserved.