AWS MCP 서버를 Docker 컨테이너로 실행하고 DeepSeek LLM 활용하기
카테고리
프로그래밍/소프트웨어 개발
서브카테고리
DevOps
대상자
AI 모델 통합 및 Docker 기반 개발자
- 난이도: 중급 (Docker와 LLM API 구성 경험 필요)
핵심 요약
- MCP (Model Context Protocol)는 AI 모델과 외부 시스템 통합에 유리한 표준화된 프로토콜로, AWS MCP 서버를 Docker 컨테이너로 실행 가능
- DeepSeek LLM을 활용하여 MCP 서버에 명령어(prompt)를 전달하여 AWS 다이어그램 생성 등 작업 자동화 가능
- Cline 확장 프로그램을 통해 LLM API 구성 및 MCP 서버 연동 가능
섹션별 세부 요약
1. AWS MCP Git Repo 클론
git clone
명령어로 AWS MCP 저장소를 로컬에 클론aws-diagram-mcp-server
디렉토리 이동하여 AWS 다이어그램 생성 예제 실행
2. Docker 이미지 빌드
docker build -t awslabs/aws-diagram-mcp-server .
명령어로 Docker 이미지 생성- 생성된 이미지를 기반으로 MCP 서버 컨테이너 실행
3. VSCode에서 LLM API 구성
- Cline 확장 프로그램 설치 후 DeepSeek LLM API 구성
- API 키 입력 및 LLM 제공자 변경 (기본값: Anthropic Claude)
- 구성 완료 후 LLM 서버와의 연결 테스트 (예:
Hello
명령어 전송)
4. Cline에 MCP 서버 추가
cline_mcp_settings.json
파일에서 MCP 서버 설정- Docker 커맨드를 포함한 설정 예시:
```json
"awslabs.aws-diagram-mcp-server": {
"command": "docker",
"args": ["run", "--rm", "--interactive", "--env", "FASTMCP_LOG_LEVEL=ERROR", "awslabs/aws-diagram-mcp-server"]
}
```
- 설정 저장 후 Docker 컨테이너에서 MCP 서버 실행
5. MCP 서버 실행 및 테스트
- LLM에
generate an AWS diagram
등 명령어 입력하여 작업 실행 - 비용 추적 (예: 토큰 소모량, Cache 사용량) 가능
- 생성된 파일은 Docker 컨테이너 내
/tmp/generated-diagrams/
경로에 저장 후docker cp
명령어로 로컬 복사
결론
- Docker 기반 MCP 서버 실행 시,
awslabs/aws-diagram-mcp-server
이미지명을 정확히 사용해야 함 - LLM API 구성 후 Cline 확장 프로그램을 통해 MCP 서버와의 연동을 간편하게 처리 가능
- 생성된 파일은 컨테이너 내 경로를 확인한 후
docker cp
명령어로 로컬 시스템으로 복사하여 확인해야 함