로컬에서 실행하는 깊은 연구 에이전트 구축 가이드

카테고리

프로그래밍/소프트웨어 개발

서브카테고리

인공지능

대상자

  • AI 및 LLM 개발자, 프로젝트 구현에 관심 있는 기술자들
  • 중급~고급 수준: Python, LLM, LangGraph 기초 지식 필요

핵심 요약

  • Qwen3 모델을 Ollama 및 LangGraph와 결합하여 로컬 연구 에이전트 구축
  • LangGraph를 통해 SummaryStateQuery Writer Prompt 등 핵심 상태 정의
  • qwen3:8b-q4_K_M 모델 사용 시 GPU 사용량 최소화**

섹션별 세부 요약

1. 워크스페이스 설정

  • .env, pyproject.toml, src 폴더 구조 생성
  • 가상 환경(.venv) 활성화 및 의존성 설치 (pip install -e .)
  • requirements.txt 대신 pyproject.toml 사용 권장

2. 주요 코드 구현

  • 필요 라이브러리 임포트: langchain_ollama, langgraph, dataclasses
  • 로컬 LLM 설정:

```python

local_llm = "qwen3:8b-q4_K_M"

llm = ChatOllama(model=local_llm, temperature=0)

```

  • SummaryState 정의: 연구 주제, 검색 결과, 최종 요약을 포함한 상태 관리

3. 프롬프트 정의

  • Query Writer Prompt:

```python

{"query": "string", "aspect": "string", "rationale": "string"}

```

  • Summarize Prompt: 기존 요약 확장 시 중복 방지, 새로운 정보 추가
  • Reflection Prompt: 요약 분석 후 다음 검색 질문 생성

결론

  • LangGraph를 활용한 상태 기반 워크플로우 설계가 핵심
  • qwen3:8b-q4_K_M 모델은 GPU 자원 절약에 유리
  • 프롬프트 명확성과 상태 관리가 성능에 직접적인 영향