ACPC 예선 후기 요약
카테고리
프로그래밍/소프트웨어 개발
서브카테고리
개발 툴
대상자
- *대상자_정보**: 프로그래밍 경진대회 참가자, 알고리즘 경력자, 대학 코딩 경진대회 준비자
- *난이도_해석**: 중간 수준 (경험자에게 유용, 초보자에게는 일부 어려움)
핵심 요약
- Coeic 시스템은 AI 기반 난이도 조정 알고리즘을 통해 개인별 실력 측정
- 1차 시도 시 '제출 시 실행 불가' 버그로 9,10문제 시간초과 발생
- 2차 시도 후 829점 기록, 16레벨(골드 1티어 수준) 문제 해결 가능성 확인
섹션별 세부 요약
1. 대회 개요
- ACPC: AWS & CodeTree 주최, 본선 100명 선발
- 예선 방식: Coeic 시스템을 통해 온라인 진행
- 점수 기준: 0~990점, 문제 난이도와 풀이 속도 기반 AI 분석
2. Coeic 시스템 특징
- 동적 난이도 제공: 초기 난이도 1 → 실력 분석 후 조정
- 단일 문제 제공: 스킵 가능, 이전문제 재접근 불가
- 점수 계산: 풀이 기록 기반 0~990점 부여
3. 1차 시도 문제 발생
- 버그 사항: 제출 시 실행 불가 → 디버깅 어려움
- 결과: 9,10문제 시간초과로 811점 기록
- 시스템 불안정: 대회 기간 내 서버 오류, 실행 실패 문의 다수
4. 2차 시도 및 결과
- 버그 수정 후 재도전: 2차 시도 829점 기록 (18점 상승)
- 난이도 영향: 16레벨(골드 1티어) 문제 해결로 점수 상승
- 최종 순위: 79등 (다이아 중~하티어 수준 참가자와 유사)
결론
- Coeic 시스템은 실력 측정에 유용하지만, 초기 불안정성 대응 필요
- 디버깅 환경 개선이 필수적 (제출 시 실행 결과 보기 기능 추가)
- AI 기반 난이도 조정은 참가자 맞춤형 평가 가능 → 향후 대회 확장성 기대