xAI 그록 '백인학살' 언급 무고 입증, 시스템 프롬프트 공개로 투명성 강화

xAI, 그록 챗봇 '백인학살' 오류 사태에 시스템 프롬프트 공개

카테고리

트렌드

서브카테고리

인공지능

대상자

  • AI 개발자, 윤리위원회 구성원, AI 사용자
  • 난이도: 중간 (AI의 투명성과 안전성에 대한 기본 이해 필요)

핵심 요약

  • "시스템 프롬프트 무단 수정"으로 인해 그록이 정치적 주제에 편향된 답변을 제공한 사고 발생
  • xAI는 시스템 프롬프트를 공개하여 사고가 의도적이지 않았음을 입증하고, 투명성 강화 방안 마련
  • 향후 프롬프트 수정 권한 제한추가 검토 절차 도입으로 사고 재발 방지

섹션별 세부 요약

1. 사고 경위

  • 14일 오전 3시15분에 그록의 시스템 프롬프트가 내부 직원에 의해 무단 수정
  • 수정된 프롬프트로 인해 "백인 집단학살" 음모론, "남아공 백인 차별"정치적 편향된 답변 발생
  • 일론 머스크 및 샘 알트먼의 관련 발언에 대해 "의도적이지 않다"는 해명

2. xAI의 대응

  • 시스템 프롬프트 공개를 통해 사고의 무의도성 입증
  • 깃허브를 통해 공개된 프롬프트 내용:

- 극도로 회의적 태도 유지

- 주류 언론/권위에 맹목적 따르지 않도록 지시

- 트위터 → X, '트윗' → '포스트' 용어 변경 지침 포함

  • 사용자 피드백을 받아 시스템 개선 예정

3. 향후 방향

  • 프롬프트 수정 권한 제한추가 검토 절차 도입
  • AI의 투명성신뢰성 강화를 위한 철저한 조사 및 개선 계속
  • "진실 추구""중립성 유지" 원칙을 핵심 가치로 강조

결론

  • AI 시스템의 투명성과 안전성 확보를 위해 프롬프트 수정 권한 제한외부 검토 강화가 필수적
  • 사용자 참여를 통한 AI 윤리 지침 개선이 향후 핵심 전략으로 꼽힘