AI Store에서 AI코딩으로 만들어진 앱을 만나보세요!
지금 바로 방문하기

AWS MCP 서버를 Docker 컨테이너로 실행하고 DeepSeek LLM 활용하기

카테고리

프로그래밍/소프트웨어 개발

서브카테고리

DevOps

대상자

AI 모델 통합 및 Docker 기반 개발자

- 난이도: 중급 (Docker와 LLM API 구성 경험 필요)

핵심 요약

  • MCP (Model Context Protocol)는 AI 모델과 외부 시스템 통합에 유리한 표준화된 프로토콜로, AWS MCP 서버Docker 컨테이너로 실행 가능
  • DeepSeek LLM을 활용하여 MCP 서버에 명령어(prompt)를 전달하여 AWS 다이어그램 생성 등 작업 자동화 가능
  • Cline 확장 프로그램을 통해 LLM API 구성MCP 서버 연동 가능

섹션별 세부 요약

1. AWS MCP Git Repo 클론

  • git clone 명령어로 AWS MCP 저장소를 로컬에 클론
  • aws-diagram-mcp-server 디렉토리 이동하여 AWS 다이어그램 생성 예제 실행

2. Docker 이미지 빌드

  • docker build -t awslabs/aws-diagram-mcp-server . 명령어로 Docker 이미지 생성
  • 생성된 이미지를 기반으로 MCP 서버 컨테이너 실행

3. VSCode에서 LLM API 구성

  • Cline 확장 프로그램 설치 후 DeepSeek LLM API 구성
  • API 키 입력LLM 제공자 변경 (기본값: Anthropic Claude)
  • 구성 완료 후 LLM 서버와의 연결 테스트 (예: Hello 명령어 전송)

4. Cline에 MCP 서버 추가

  • cline_mcp_settings.json 파일에서 MCP 서버 설정
  • Docker 커맨드를 포함한 설정 예시:

```json

"awslabs.aws-diagram-mcp-server": {

"command": "docker",

"args": ["run", "--rm", "--interactive", "--env", "FASTMCP_LOG_LEVEL=ERROR", "awslabs/aws-diagram-mcp-server"]

}

```

  • 설정 저장 후 Docker 컨테이너에서 MCP 서버 실행

5. MCP 서버 실행 및 테스트

  • LLM에 generate an AWS diagram 등 명령어 입력하여 작업 실행
  • 비용 추적 (예: 토큰 소모량, Cache 사용량) 가능
  • 생성된 파일은 Docker 컨테이너 내 /tmp/generated-diagrams/ 경로에 저장 후 docker cp 명령어로 로컬 복사

결론

  • Docker 기반 MCP 서버 실행 시, awslabs/aws-diagram-mcp-server 이미지명을 정확히 사용해야 함
  • LLM API 구성Cline 확장 프로그램을 통해 MCP 서버와의 연동을 간편하게 처리 가능
  • 생성된 파일은 컨테이너 내 경로를 확인한 후 docker cp 명령어로 로컬 시스템으로 복사하여 확인해야 함