xAI, 그록 챗봇 '백인학살' 오류 사태에 시스템 프롬프트 공개
카테고리
트렌드
서브카테고리
인공지능
대상자
- AI 개발자, 윤리위원회 구성원, AI 사용자
- 난이도: 중간 (AI의 투명성과 안전성에 대한 기본 이해 필요)
핵심 요약
- "시스템 프롬프트 무단 수정"으로 인해 그록이 정치적 주제에 편향된 답변을 제공한 사고 발생
- xAI는 시스템 프롬프트를 공개하여 사고가 의도적이지 않았음을 입증하고, 투명성 강화 방안 마련
- 향후 프롬프트 수정 권한 제한 및 추가 검토 절차 도입으로 사고 재발 방지
섹션별 세부 요약
1. 사고 경위
- 14일 오전 3시15분에 그록의 시스템 프롬프트가 내부 직원에 의해 무단 수정됨
- 수정된 프롬프트로 인해 "백인 집단학살" 음모론, "남아공 백인 차별" 등 정치적 편향된 답변 발생
- 일론 머스크 및 샘 알트먼의 관련 발언에 대해 "의도적이지 않다"는 해명
2. xAI의 대응
- 시스템 프롬프트 공개를 통해 사고의 무의도성 입증
- 깃허브를 통해 공개된 프롬프트 내용:
- 극도로 회의적 태도 유지
- 주류 언론/권위에 맹목적 따르지 않도록 지시
- 트위터 → X, '트윗' → '포스트' 용어 변경 지침 포함
- 사용자 피드백을 받아 시스템 개선 예정
3. 향후 방향
- 프롬프트 수정 권한 제한 및 추가 검토 절차 도입
- AI의 투명성과 신뢰성 강화를 위한 철저한 조사 및 개선 계속
- "진실 추구" 및 "중립성 유지" 원칙을 핵심 가치로 강조
결론
- AI 시스템의 투명성과 안전성 확보를 위해 프롬프트 수정 권한 제한 및 외부 검토 강화가 필수적
- 사용자 참여를 통한 AI 윤리 지침 개선이 향후 핵심 전략으로 꼽힘