알리바바, 올인원 비디오 제작·편집 모델 '완2.1' 오픈 소스 출시
카테고리
데이터 과학/AI
서브카테고리
인공지능
대상자
- AI 개발자, 영상 생성 기술 연구자
- 난이도 관점: 중간 수준 이상, 모델 아키텍처와 기능 이해 필요
핵심 요약
- 완2.1-VACE 모델은 텍스트/이미지/영상 입력을 기반으로 영상 생성 및 편집 기능을 제공 (예: R2V, V2V, MV2V)
- 140억개 매개변수 (대규모 버전)와 13억개 매개변수 (경량 버전) 두 가지 버전 제공
- 허깅페이스, 깃허브, 모델스코프 등에서 무료 오픈소스 제공
섹션별 세부 요약
1. 모델 개요
- 완2.1-VACE는 다중 입력 형식(텍스트, 이미지, 영상)을 지원하는 올인원 비디오 생성·편집 AI 모델
- 140억개 매개변수 버전은 고성능 작업, 13억개 매개변수 버전은 경량화된 활용 가능
- R2V(참조 기반 영상 생성), V2V(영상 간 편집), MV2V(마스킹 기반 편집) 등 3가지 핵심 기능 제공
2. 기술적 개선 및 활용 가능성
- 사용자 맞춤형 조합 가능: R2V + V2V + MV2V 기능을 복합적으로 활용해 복잡한 영상 제작 가능
- AI 모델 10종 이상의 연속 공개로 중국 내 AI 기술 경쟁력 강화
- 미국의 소라(Sora) 모델과 경쟁하며 중국의 AI 비디오 분야 성장을 이끌고 있음
3. 오픈소스 배포 및 접근성
- 허깅페이스, 깃허브, 모델스코프 등 주요 플랫폼에서 무료 다운로드 가능
- 4월 중순에 완2.1 시리즈 업그레이드 진행한 후 14일에 2.1-VACE 공개
- 광란(frenzy)이라는 표현으로 AI 모델 빠른 출시 속도 강조
결론
- 완2.1-VACE 모델은 다양한 영상 생성/편집 작업에 활용 가능하며, 대규모 매개변수 버전을 사용하면 고성능 작업 가능
- 무료 오픈소스 공개로 AI 개발자 및 연구자에게 실질적 도움 제공
- 중국 내 AI 기술 경쟁력 확대를 위한 핵심 전략으로 기능 확장 및 모델 확대 지속 예상