성능보다 신뢰"…AI 안전성 평가 기준, 민간서 시작
카테고리
데이터 과학/AI
서브카테고리
인공지능, 머신러닝
대상자
AI 개발자, 안전성 평가 담당자, 정책 입안자
핵심 요약
- 민간 주도의 AI 신뢰성 인증 체계
AI-MASTER
도입 - 유럽연합 '신뢰할 수 있는 AI' 7대 요구사항 기반으로 63개 항목 평가
- 셀렉트스타의 '다투모 이밸' 자동화 평가 도구로 4대 항목 정량화
섹션별 세부 요약
1. AI 신뢰성 인증 체계 도입
- 한국인공지능산업협회(AIIA)가
AI-MASTER
인증 체계 론칭 - 첫 인증 대상: 생성형 AI 스타트업 포티투마루의 'LLM42'
- 셀렉트스타, 슈어소프트테크와 시험기관 협력
2. 평가 기준 및 방법
- 유럽연합 '신뢰할 수 있는 AI' 7대 요구사항 + 국제표준 9종 적용
- 63개 항목 평가 중 60% 이상 자동화 도구로 검증
- 셀렉트스타 '다투모 이밸' 도입: 인간 감독, 기술 안정성, 투명성, 사회적 책임 4대 항목 정량화
3. LLM42 모델 특징
- RAG42 기술로 환각 문제 줄이고 산업별 특화된 프라이빗 모드 구현
- 비용 효율성 강화된 모델 학습 및 서빙 과정 평가 요소
- 금융권 등 고신뢰 산업 활용 사례 포함
4. 향후 목표 및 확장 계획
- 정부 R&D, 공공조달, 고영향 AI 지정 등 정책 연계 목표
- 글로벌 상호인정 확장 추진
- 삼성생명 등 금융 특화 AI 데이터 검증 프로젝트 진행 중
결론
- AI-MASTER 인증은 민간 주도의 첫 정량 검증 시도로, 향후 정책 연계 및 글로벌 인증 확장에 기여할 것으로 기대
- 셀렉트스타의 '다투모 이밸' 도입으로 AI 모델의 응답 품질 정량 분석 가능, 고신뢰 산업 적용 확대 필요