Vercel Ship 2025: AI Gateway 및 Fluid Compute 주요 기능 요약
AI Store에서 AI코딩으로 만들어진 앱을 만나보세요!
지금 바로 방문하기

Vercel Ship 2025 요약

카테고리

프로그래밍/소프트웨어 개발

서브카테고리

인공지능, DevOps

대상자

  • *대상자**: AI 및 클라우드 인프라 개발자, DevOps 엔지니어, 전반적인 웹 앱 개발자
  • *난이도**: 중급~고급 (AI 인프라 및 DevOps 개념 이해 필요)

핵심 요약

  • AI Gateway를 통해 100개 이상의 LLM(OpenAI, Anthropic 등)을 중앙 집중적으로 관리 가능
  • Fluid Compute85% 비용 절감AI 추론/스트리밍 최적화
  • 보안 기능 강화: AI 생성 코드를 microVM에서 실행, BotID로 악성 봇 탐지

섹션별 세부 요약

1. AI Gateway

  • LLM 통합: 100개 이상의 LLM 제공, OpenAI, Anthropic, Google 등
  • 스마트 라우팅, observability, 모델별 분석 기능 지원
  • 비용 효율성 증대: 제공업체 관리 간소화, 개발자 유연성 확보

2. Fluid Compute

  • 지속적 함수 실행: 요청별 고립 실행 대신 인스턴스 유지
  • Active CPU 요금제: CPU 사용 시간만 청구, 메모리 비활성 시간 대폭 할인
  • AI 인프라 최적화: 추론/스트리밍 작업에 85% 비용 절감

3. 보안 및 마이크로프런트엔드 지원

  • Vercel Sandbox: Node.js, Python 지원, AI 에이전트/동적 콘텐츠 검증
  • 마이크로프런트엔드: 팀별 UI 독립 개발, Vercel 라우팅 관리
  • Rolling Releases: 실시간 모니터링롤백 기능으로 안전한 배포

4. 백그라운드 프로세스 및 보안 기능

  • Vercel Queue: 재시도 로직, 지속성 지원, 미디어 처리/디지털 AI 작업 최적화
  • BotID: 무보증 CAPTCHA, 민감 엔드포인트의 악성 봇 탐지

5. AI 기반 인프라 관리

  • AI 어시스턴트: 성능, 방화벽, 보안 메트릭 이상 감지 및 실시간 대응 제안
  • 자율 복구 인프라: AI로 구동된 자체 치유 시스템

6. Next.js Conf 2024 vs. Ship 2025

  • Conf 2024: 프론트엔드 성능, Next.js 14, Edge Config 중심
  • Ship 2025: AI 네이티브 앱, 인프라 비용 절감, 보안 컴퓨팅 강조

결론

  • *Vercel은 AI 네이티브 앱 개발과 인프라 최적화를 중심으로 플랫폼 전략을 재정비하며, AI Gateway, Fluid Compute, 보안 기능 등을 통해 스마트 웹 앱의 미래를 선도**하고 있다.