Devstral - High-Performance Agentic LLM with 46.8% SWE-Bench
AI Store에서 AI코딩으로 만들어진 앱을 만나보세요!
지금 바로 방문하기

Devstral - Mistral의 에이전틱 LLM

카테고리

프로그래밍/소프트웨어 개발

서브카테고리

AI

대상자

소프트웨어 엔지니어, 개발 팀, DevOps 엔지니어

핵심 요약

  • SWE-Bench Verified 벤치마크에서 46.8% 성능 달성 (오픈소스 모델 대비 6% 우수)
  • Apache 2.0 라이선스로 무료 배포 및 커스터마이즈 가능
  • RTX 4090, 32GB RAM Mac 등 로컬 환경에서 실행 가능 (엔터프라이즈 및 코파일럿 지원)

섹션별 세부 요약

1. 소개 및 개발 배경

  • Devstral은 Mistral AIAll Hands AI가 협업해 개발한 에이전틱 LLM(Agentic Large Language Model)
  • GitHub 이슈 해결을 위한 실제 데이터로 훈련됨 (OpenHands, SWE-Agent 기반)
  • SWE-Bench Verified 벤치마크에서 46.8% 점수 기록 (오픈소스 최고 성능 모델 대비 6% 우위)

2. 성능 및 비교 분석

  • 경쟁 모델 (Deepseek-V3, Qwen3, GPT-4.1-mini 등) 대비 우수한 성능

- GPT-4.1-mini 대비 20% 이상 정확성 향상

- 671B 파라미터 Deepseek-V3-0324, 232B Qwen3-A22B 등 대규모 모델도 능가

  • 커스텀 테스트 환경에서 클로즈드소스 모델 대체 가능성

3. 기술적 사양 및 사용 환경

  • 로컬 실행 지원: RTX 4090, 32GB RAM Mac, OpenHands 플랫폼 연동 가능
  • 엔터프라이즈 환경 적합: 프라이버시 보호가 필요한 코드 저장소 지원
  • 플랫폼 지원: HuggingFace, Ollama, Kaggle, LM Studio 등 다운로드 가능
  • Mistral 공식 API에서 devstral-small-2505 모델로 제공 (Mistral Small 3.1 요금 정책 동일)

4. 라이선스 및 확장성

  • Apache 2.0 라이선스 적용: 무료 사용, 커스터마이즈, 재배포 가능
  • 프라이빗 코드베이스 파인튜닝 지원: 엔터프라이즈 환경에서 요청 가능
  • 리서치 프리뷰 단계: 향후 더 큰 규모의 에이전틱 코딩 모델 출시 예정

5. 사용자 피드백 및 제한 사항

  • M2 Mac에서 14GB 모델 실행 시 RAM 20GB 이하 추천 (앱 병행 실행 고려)
  • LLamaIndex 도구 사용 시 "도구 없음" 오류 발생 (ToolSpec 강제 필요)
  • 저사양 기기 (8GB MacBook) 사용 시 비추천 (Gemma 3 4B 추천)

결론

  • 로컬 환경에서 Devstral 사용 시 RAM 32GB 이상을 확보하고, HuggingFace, Ollama, LM Studio 등 플랫폼에서 모델 다운로드
  • 엔터프라이즈 환경에서는 프라이빗 코드베이스 파인튜닝 요청Apache 2.0 라이선스 활용
  • SWE-Bench 성능 기준으로는 46.8% 점수를 기록하며, 대규모 모델 대비 효율성 우수한 모델로 주목 받음