ACPC 예선 후기: 코익 시스템과 AI 기반 실력 측정 경험
AI Store에서 AI코딩으로 만들어진 앱을 만나보세요!
지금 바로 방문하기

ACPC 예선 후기 요약

카테고리

프로그래밍/소프트웨어 개발

서브카테고리

개발 툴

대상자

  • *대상자_정보**: 프로그래밍 경진대회 참가자, 알고리즘 경력자, 대학 코딩 경진대회 준비자
  • *난이도_해석**: 중간 수준 (경험자에게 유용, 초보자에게는 일부 어려움)

핵심 요약

  • Coeic 시스템은 AI 기반 난이도 조정 알고리즘을 통해 개인별 실력 측정
  • 1차 시도 시 '제출 시 실행 불가' 버그로 9,10문제 시간초과 발생
  • 2차 시도 후 829점 기록, 16레벨(골드 1티어 수준) 문제 해결 가능성 확인

섹션별 세부 요약

1. 대회 개요

  • ACPC: AWS & CodeTree 주최, 본선 100명 선발
  • 예선 방식: Coeic 시스템을 통해 온라인 진행
  • 점수 기준: 0~990점, 문제 난이도와 풀이 속도 기반 AI 분석

2. Coeic 시스템 특징

  • 동적 난이도 제공: 초기 난이도 1 → 실력 분석 후 조정
  • 단일 문제 제공: 스킵 가능, 이전문제 재접근 불가
  • 점수 계산: 풀이 기록 기반 0~990점 부여

3. 1차 시도 문제 발생

  • 버그 사항: 제출 시 실행 불가 → 디버깅 어려움
  • 결과: 9,10문제 시간초과로 811점 기록
  • 시스템 불안정: 대회 기간 내 서버 오류, 실행 실패 문의 다수

4. 2차 시도 및 결과

  • 버그 수정 후 재도전: 2차 시도 829점 기록 (18점 상승)
  • 난이도 영향: 16레벨(골드 1티어) 문제 해결로 점수 상승
  • 최종 순위: 79등 (다이아 중~하티어 수준 참가자와 유사)

결론

  • Coeic 시스템은 실력 측정에 유용하지만, 초기 불안정성 대응 필요
  • 디버깅 환경 개선이 필수적 (제출 시 실행 결과 보기 기능 추가)
  • AI 기반 난이도 조정은 참가자 맞춤형 평가 가능 → 향후 대회 확장성 기대