국제 AI 윤리 표준 개발을 위한 제트인스펙션 컨퍼런스 개최
카테고리
트렌드
서브카테고리
인공지능
대상자
인공지능 개발자, 정책 입안자, 윤리 전문가
난이도: 중간 (AI 윤리 프레임워크 및 자율 검증 모델 이해 필요)
핵심 요약
- 국제 AI 윤리 표준 마련을 위한 '제트인스펙션(Z-Inspection)' 컨퍼런스 개최
- EU AI 윤리 프레임워크를 기반으로 한 다학제적 위험 점검 프로세스 도입
- 자율적 거버넌스 모델과 'AI기본법' 제정으로 국내 윤리적 AI 개발 촉진
- 머크의 '디지털 윤리 행동강령'과 '위험 원칙 평가도구' 적용 사례 공유
섹션별 세부 요약
1. 컨퍼런스 개요 및 주요 의제
- 서울대학교가 2023년 10월 20일 '제3회 제트인스펙션' 국제 컨퍼런스 개최
- 서울대, 머크, 제트인스펙션 이니셔티브가 공동 주최
- 윤리·의료·기술·법 전문가 약 50명 참여
- 글로벌 AI 윤리 연대 및 한국 내 자율 거버넌스 모델 구축 논의
2. 제트인스펙션 프로그램 설명
- AI 시스템의 사회적 적용 시 발생하는 위험을 다학제적 방식으로 점검하는 프로그램
- EU AI 윤리 프레임워크 기반으로 의료, 공공, 금융 등 사례 검토
- 윤리적 충돌 지점 사전 탐색과 리스크 관리 강조
3. 국내 AI 윤리 제도 개발 동향
- 2023년 3월 'AI기본법' 세계 두 번째 입법 완료
- 윤리적 AI 기술에 대한 제도적·자율적 평가 수요 증가
- 제트인스펙션 프로그램의 국내 적용 가능성 논의
4. 머크의 윤리 프레임워크 공개
- AI 윤리가 기업 사업 전략 중심에 있어야 함 강조
- 자율성, 투명성, 비편향성, 공정성, 혜택 극대화 5대 원칙 기반의 디지털 윤리 행동강령 운영
- '위험 원칙 평가도구'를 활용한 프로젝트별 윤리 민감도 수치화 및 대응 단계 결정
- 환자 데이터 분석, 인사 알고리즘, 생성형 AI 등 실제 사례 적용
결론
- AI 윤리 프레임워크와 자율 검증 모델은 기술 개발과 사회적 신뢰 확보를 동시에 달성할 수 있는 핵심 전략
- EU AI법 기반의 고위험군 분류 체계 도입 및 맞춤형 체크리스트 운영 필요
- 내부 직원 신뢰 확보는 조직 내 AI 실험 성공의 필수 조건으로 인식되어야 함