전기안전공사, '사람 중심' AI 윤리원칙 첫 제정
카테고리
트렌드
서브카테고리
인공지능
대상자
- 인공지능 윤리 및 기술 정책 수립을 담당하는 기관 및 기업
- AI 기술 도입을 고려하는 공공 및 민간 조직
- 윤리적 AI 사용과 관련된 학계 및 정책 연구자
핵심 요약
- AI 윤리원칙은 10대 핵심가치를 기반으로 인간 존엄성, 투명성, 데이터 관리, 개인정보 보호 등을 강조
- 유네스코(UNESCO) 및 OECD 등 국제 기준과 연계하여 수립됨
- AI 사원 '이바름(e-바름)' 프로그램을 통해 감사업무 등 업무 효율성 향상에 기여
섹션별 세부 요약
1. AI 윤리원칙 제정 배경
- 생성형 AI 기술의 급속한 확산으로 인해 윤리적 위험과 신뢰성 확보가 중요해짐
- 공공기관 및 산업 전반에서 AI 기술 활용에 대한 사회적 이슈가 대두됨
2. AI 윤리원칙의 핵심 내용
- 10대 핵심가치 포함: 인간 존엄성, 공공성, 다양성 존중, 투명성, 데이터 관리, 신뢰성, 개인정보 보호, 인간의 감독, 안전성, 윤리적 활용, 협력 및 연대성
- 유네스코와 OECD의 주요 기준을 참고해 수립됨
3. AI 윤리원칙의 활용 방향
- 전기안전공사의 경영 이념인 ‘사람존중 열린경영’ 실현의 기준으로 활용
- 디지털 체계 구축의 지침으로 활용될 예정
4. AI 기술 활용 사례
- AI 사원 '이바름(e-바름)' 프로그램 개발
- 감사업무, 예산·노무·인사 관리 등 분야에서 업무 효율성 향상에 기여
결론
- AI 윤리원칙은 국제 기준에 부합하며, 사람 중심의 디지털 전환을 위한 첫걸음으로, 공공 및 민간 기관이 AI 기술을 윤리적으로 활용하는 데 도움을 줄 수 있음