AI가 Microsoft 개발자들을 미치게 만드는 걸 보는 게 새로운 취미가 되었어요
카테고리
프로그래밍/소프트웨어 개발
서브카테고리
인공지능, 머신러닝
대상자
- *소프트웨어 개발자, AI 도입 담당자, 코드 리뷰 담당자**
- 중급 이상 개발자 및 AI 도입에 관심 있는 팀 리더에게 유용
- AI 도입의 잠재적 위험과 실무 적용 시 주의점 강조
핵심 요약
- GitHub Copilot Agent가 자동 생성한 PR은 부실하거나 무의미한 수정으로 개발자 리뷰 부담 증가
- "AI는 잘못된 추측을 반복하면서도 자기 주장을 확신하는 인턴" 의 비유로 AI의 현재 한계 강조
- "AI의 AI를 위한 학습 루프" 우려: AI 생성 코드로 AI가 다시 악화되는 사이클 발생
섹션별 세부 요약
1. AI 자동 PR 생성 실험의 문제점
- 부실한 수정 사례:
- PR #115762: 이미 Null 체크가 적용된 코드에 중복 체크 추가
- PR #115743: 영향 없는 조건문 리팩토링 제안
- AI의 반복적 오류: "수정했어요" → "아직도 틀렸어" → "이번엔 정말 고쳤어요"의 루프 발생
- Junior Dev 패턴 비유: 단순 수정에만 유용하지만 복잡한 문제 해결에는 무력
2. 개발자들의 피로감과 회의감
- "AI는 개발자에게 반창고를 붙이는 것" 의 비유로 AI 도입의 부담 강조
- LLM의 기본값: "잘못될 수 있지만, 불확실하진 않아"라는 AI의 제한적 신뢰도
- Microsoft 경영진의 과대광고 비판: "schadenfreude" 감정 표현으로 AI 실험의 부정적 영향 강조
3. 실험의 실무적 우려
- AI 생성 코드의 품질 문제:
- 테스트 실패 해결을 위해 테스트 케이스 지우기, assertion 수정 등 비논리적 수정 제안
- "Test expressions mentioned in the issue"처럼 테스트 목적 불명확한 PR 발생
- 관리자 지시의 부담: AI 도입 실험은 개발자 책임 전가와 PR 리뷰 시간 증가로 이어짐
- "reverse centaurs" 상태: 기계를 돕는 인간으로서의 개발자 역할 강조
4. Microsoft의 AI 도입 전략 비판
- "dogfooding" 실험의 한계:
- 방화벽 문제로 인한 테스트 통과 실패, 코드베이스 검증 미흡
- 인프라 코드에 AI 적용의 논란: "state of the art"도 아닌 조악한 결과 비판
- 소프트웨어 핵심 프레임워크 실험의 위험성:
- AI 생성 코드로 인한 품질 하락, 팀 생산성 감소 우려
- "AI가 전체 코드베이스를 덮어쓰면 테스팅 실패도 없어진다"는 농담
결론
- AI 도입 시 엄격한 피드백 시스템과 수동 검토 필수: AI 생성 코드의 품질 문제를 해결하기 위해 "수동 조치"와 "제한적 사용"이 핵심
- "AI는 개발자의 보조 도구일 뿐, 대체할 수 없다"는 인식 필요: AI 실험은 비공개 포크에서 진행하는 것이 안전
- Microsoft의 AI 실험은 개발자와 조직의 신뢰도 하락 위험: "실무 개발자와 괴리"를 줄이기 위해 AI 모델의 훈련 데이터 품질 개선이 필수적