몬드리안에이아이, 'B200' 클라우드 공급 개시…AI 학습 성능 '30배↑'
카테고리
프로그래밍/소프트웨어 개발
서브카테고리
인공지능, 머신러닝
대상자
AI 인프라 구축 필요 기업·기관(중소기업, 연구소), AI 개발자, 클라우드 서비스 제공자
핵심 요약
- 엔비디아 B200 GPU는 2800억개 트랜지스터와 HBM3e 192GB 메모리로 LLM/생성형 AI 학습 성능 30배↑
- 런유어AI 플랫폼은 NVLink 5세대로 GPU 간 1.8TB/s 대역폭 연동 지원
- 국내 최초 중개형 클라우드 플랫폼으로 4배 이상 성능 향상 및 중소 기업 접근성 확대
섹션별 세부 요약
- B200 GPU 도입 배경
- 엔비디아 블랙웰 아키텍처 기반으로 고성능 AI 인프라 수요 대응
- 사전 예약 고객 대상 특별가 및 국내 최단 리드타임 제공
- B200 기술 사양
- 듀얼 다이 구조와 FP8 연산성능 20PetaFLOPS 지원
- HBM3e 192GB 메모리 + NVLink 5세대로 멀티 GPU 분산 연산 최적화
- 런유어AI 플랫폼 기능
- GPU 수요자-소유자 연결 중개형 플랫폼
- 온디맨드/장기계약 유연한 제공 방식
- 시장 영향 및 전망
- 학습·추론 성능 30배 향상 예상
- 중소기업·기관 접근성 확대 및 AI 인프라 수요 증가 대응
결론
- *NVLink 5세대와 HBM3e 메모리 활용으로 AI 모델 학습/추론 효율성 극대화하며, 런유어AI 플랫폼을 통해 중소기업도 고성능 GPU 활용 가능. B200 도입으로 국내 AI 개발 생태계 확장 기대**.