로컬에서 실행하는 깊은 연구 에이전트 구축 가이드
카테고리
프로그래밍/소프트웨어 개발
서브카테고리
인공지능
대상자
- AI 및 LLM 개발자, 프로젝트 구현에 관심 있는 기술자들
- 중급~고급 수준: Python, LLM, LangGraph 기초 지식 필요
핵심 요약
- Qwen3 모델을 Ollama 및 LangGraph와 결합하여 로컬 연구 에이전트 구축
- LangGraph를 통해
SummaryState
및Query Writer Prompt
등 핵심 상태 정의 qwen3:8b-q4_K_M
모델 사용 시 GPU 사용량 최소화**
섹션별 세부 요약
1. 워크스페이스 설정
.env
,pyproject.toml
,src
폴더 구조 생성- 가상 환경(
.venv
) 활성화 및 의존성 설치 (pip install -e .
) requirements.txt
대신pyproject.toml
사용 권장
2. 주요 코드 구현
- 필요 라이브러리 임포트:
langchain_ollama
,langgraph
,dataclasses
등 - 로컬 LLM 설정:
```python
local_llm = "qwen3:8b-q4_K_M"
llm = ChatOllama(model=local_llm, temperature=0)
```
SummaryState
정의: 연구 주제, 검색 결과, 최종 요약을 포함한 상태 관리
3. 프롬프트 정의
- Query Writer Prompt:
```python
{"query": "string", "aspect": "string", "rationale": "string"}
```
- Summarize Prompt: 기존 요약 확장 시 중복 방지, 새로운 정보 추가
- Reflection Prompt: 요약 분석 후 다음 검색 질문 생성
결론
- LangGraph를 활용한 상태 기반 워크플로우 설계가 핵심
qwen3:8b-q4_K_M
모델은 GPU 자원 절약에 유리- 프롬프트 명확성과 상태 관리가 성능에 직접적인 영향