H1: DeepSeek-V4 프리뷰 출시: 1M 토큰 컨텍스트, 에이전트 성능 향상 및 오픈소스 웨이트 공개
오늘(4월 24일), DeepSeek은 자사의 새로운 모델 시리즈인 DeepSeek-V4의 프리뷰 버전을 공식 출시하고 오픈소스로 공개했습니다.
DeepSeek-V4는 최대 100만(1M) 토큰의 컨텍스트를 지원하며, 에이전트 역량, 세계 지식, 추론 능력 측면에서 국내 및 오픈소스 모델 중 최고의 성능을 자랑합니다. 이 시리즈는 두 가지 규모로 제공됩니다.
- DeepSeek-V4-Pro — 플래그십 모델로, 총 파라미터 1.6조 개에 달하는 대규모 MoE(Mixture of Experts) 모델이지만, 추론 시에는 49B(490억)개만 활성화되어 높은 효율성을 제공합니다.
- DeepSeek-V4-Flash — 더 빠르고 비용 효율적인 옵션입니다. 동일한 MoE 설계를 더 작은 규모(총 284B / 활성 13B)로 적용하여 더 빠르고 저렴한 추론을 가능하게 합니다.
- 두 모델 모두 동일한 1M 토큰 컨텍스트 윈도우를 공유하며, API 액세스를 포함하여 완전히 오픈소스로 제공됩니다.
| 모델 | 파라미터 | 활성 파라미터 | 사전 학습 데이터 | 컨텍스트 길이 | 오픈소스 | API 서비스 | 웹/앱 접속 모드 |
|---|---|---|---|---|---|---|---|
| deepseek-v4-pro | 1.6T | 49B | 33T | 1M | ✓ | ✓ | Expert 모드 |
| deepseek-v4-flash | 284B | 13B | 32T | 1M | ✓ | ✓ | Fast 모드 |
오늘부터 chat.deepseek.com 또는 공식 앱을 통해 DeepSeek-V4와 대화할 수 있습니다. API 역시 즉시 사용 가능하며,
1model_name1deepseek-v4-pro1deepseek-v4-flash앞서 예측 및 사전 분석 내용을 보도한 바 있으며(당사의 DeepSeek V4 기대 가이드 및 기술 심층 분석 참조), 이제 소스에서 직접 확인된 공식 세부 정보를 전달해 드립니다. 아래 내용은 실제 출시 내용, 새로운 기능, 그리고 현재 AI 모델을 구축하거나 평가 중인 분들에게 어떤 의미가 있는지 다룹니다.
DeepSeek-V4-Pro: 최고의 폐쇄형 모델들과의 경쟁
에이전트 역량 대폭 강화. 이전 버전과 비교하여 DeepSeek-V4-Pro는 에이전트 작업에서 비약적인 성능 향상을 보였습니다. 에이전트 코딩 벤치마크에서 V4-Pro는 현재 모든 오픈소스 모델 중 선두를 달리고 있습니다. DeepSeek은 내부적으로 V4-Pro를 코딩 에이전트로 활용하고 있으며, 직원들의 피드백에 따르면 Claude Sonnet 4.5를 능가하는 경험을 제공하고, 비사고(non-thinking) 모드에서는 Claude Opus 4.6에 근접하는 출력 품질을 보입니다(단, Opus 4.6의 사고 모드에는 미치지 못함).
풍부한 세계 지식. DeepSeek-V4-Pro는 세계 지식 벤치마크에서 다른 오픈소스 모델들을 크게 앞서며, 최고의 폐쇄형 모델인 Gemini Pro 3.1과 근소한 차이만을 보입니다.
세계적 수준의 추론 능력. 수학, STEM, 알고리즘 문제 풀이 평가에서 DeepSeek-V4-Pro는 기존의 모든 오픈소스 벤치마크 모델을 뛰어넘으며, 세계 최고의 폐쇄형 모델들과 대등한 성능을 보여줍니다.
DeepSeek-V4-Flash: 빠르고 합리적인 선택
V4-Pro와 비교할 때 DeepSeek-V4-Flash는 세계 지식 측면에서는 약간 부족하지만, 추론 성능은 대등합니다. 더 작은 파라미터 수와 낮은 활성화 비용 덕분에 V4-Flash는 더 빠른 응답 시간과 경제적인 API 가격을 제공합니다.
에이전트 벤치마크에서 V4-Flash는 단순 작업에서는 V4-Pro와 대등한 수준을 보이나, 복잡한 작업에서는 여전히 차이가 존재합니다.
아키텍처 혁신 및 극한의 컨텍스트 효율성

DeepSeek-V4는 토큰 차원에서 압축을 수행하는 새로운 어텐션 메커니즘을 도입했습니다. **DSA(DeepSeek Sparse Attention)**와 결합된 이 설계는 기존 방식 대비 계산 및 메모리 요구 사항을 크게 줄이면서 세계 최고 수준의 긴 컨텍스트 성능을 달성합니다.
향후 100만(1M) 토큰 컨텍스트는 모든 공식 DeepSeek 서비스의 표준이 될 것입니다.
에이전트 사용 사례를 위한 특화 최적화
DeepSeek-V4는 Claude Code, OpenClaw, OpenCode, CodeBuddy를 포함한 대중적인 에이전트 제품을 위해 미세 조정 및 최적화되었습니다. 코드 생성, 문서 작성 및 기타 에이전트 주도 작업 전반에서 성능 향상이 관찰되었습니다.
이러한 프레임워크별 튜닝은 실제 현장에서 매우 중요합니다. 단일 환경에서는 잘 작동하더라도 구조화된 에이전트 루프 내에서 일관되지 않게 작동하는 모델은 안정적으로 배포하기 어렵기 때문입니다. 주요 에이전트 프레임워크를 최우선 최적화 대상으로 삼은 결정은 프로덕션 AI 사용 방식이 어떻게 진화했는지를 반영합니다.
DeepSeek-V4 API 액세스
V4-Pro와 V4-Flash 모두 이제 DeepSeek API를 통해 제공됩니다. OpenAI ChatCompletions 인터페이스와 Anthropic 인터페이스를 모두 지원하므로 기존 통합 환경에서 최소한의 코드 변경만으로 V4 모델을 사용할 수 있습니다.
1base_url1model1deepseek-v4-pro1deepseek-v4-flash두 모델 모두 1M 토큰의 최대 컨텍스트 길이를 지원하며, 비사고(non-thinking) 모드와 사고(thinking) 모드를 모두 제공합니다. 사고 모드에서는
1reasoning_effort1high1max1max⚠️ 지원 종료 공지: 기존 모델 이름인
과text1deepseek-chat는 **3개월 후(2026년 7월 24일)**에 종료됩니다. 전환 기간 동안 해당 이름은 각각text1deepseek-reasoner의 비사고 모드와 사고 모드로 매핑됩니다. 운영 환경에서 두 모델 이름을 사용 중이라면 지금 마이그레이션을 계획하십시오.text1deepseek-v4-flash
오픈소스 웨이트 및 로컬 배포
- 모델 웨이트:Hugging Face | ModelScope
- 기술 리포트:DeepSeek-V4 PDF
로컬 또는 온프레미스 배포를 고려하는 팀의 경우, 이 정도 규모의 파라미터(특히 총 1.6T 파라미터의 V4-Pro)는 하드웨어 요구 사항이 상당하다는 점을 유의해야 합니다. 오픈소스 공개는 엔터프라이즈 규정 준수 및 커스터마이징 사례에 큰 이점을 제공하지만, 대부분의 팀에게는 클라우드 API 액세스가 더 실용적인 시작점이 될 것입니다.
DeepSeek-V4 출시의 의미
이번 출시에서 주목할 점은 세 가지입니다.
첫째, 1M 컨텍스트 제공은 단순히 프리미엄 등급이 아니라 모든 공식 서비스의 기본 사양입니다. 이는 오픈소스 AI가 나아가는 방향을 제시하며 다른 모든 제공업체들이 이를 따르도록 압박하는 신호탄입니다.
둘째, 에이전트 우선 최적화 작업입니다. V4를 Claude Code, OpenCode 등에 최적화한 것은 배포 방식에 대한 DeepSeek의 성숙한 고민을 보여줍니다. 벤치마크 성능은 기본일 뿐이며, 프로덕션 환경에서 중요한 것은 개발자가 사용하는 도구 내부에서의 동작입니다.
셋째, Claude Opus 4.6과 비교한 정직한 경쟁 포지셔닝입니다. 무조건적인 우위를 주장하기보다 Sonnet 4.5보다는 우수하고, 비사고 모드에서는 Opus 4.6에 근접하며, 사고 모드에서는 Opus 4.6 뒤에 있다는 구체적인 평가를 제공함으로써 주장의 신뢰도를 높였습니다.
에이전트 워크플로우, 긴 문서 처리, 복잡한 추론 작업을 위해 모델을 평가하는 개발자들에게 DeepSeek-V4-Pro는 이제 강력한 오픈소스 선택지입니다. 비용 최적화나 지연 시간에 민감한 파이프라인에는 V4-Flash가 훌륭한 대안이 될 것입니다.
Atlas Cloud에서 DeepSeek-V4 체험하기
Atlas Cloud는 인프라를 직접 관리하지 않고도 세계 최고의 AI 모델을 안정적이고 비용 효율적으로 사용하려는 개발자와 팀을 위한 프로덕션급 AI 플랫폼입니다. 통합 API, 투명한 가격 책정, 기업 수준의 규정 준수(SOC 2 대응, HIPAA 준비 완료)를 통해 인프라 운영이 아닌 서비스 구축에 집중할 수 있게 합니다.
Atlas Cloud의 DeepSeek. 현재 단일 API 엔드포인트를 통해 DeepSeek V3.2, V3.2 Fast, V3.2 Speciale 및 V3.2 Exp를 경쟁력 있는 가격으로 지원하고 있습니다. Atlas Cloud의 DeepSeek 모델은 긴 컨텍스트 워크로드와 에이전트 파이프라인에 최적화되어 있으며, 전체 컨텍스트 윈도우 지원 및 양자화 손실 없는 성능을 제공합니다. DeepSeek 외에도 Atlas Cloud는 LLM 생태계 전반의 300개 이상의 모델을 제공합니다.
DeepSeek-V4가 Atlas Cloud에 곧 출시됩니다. 현재 DeepSeek-V4-Pro와 V4-Flash 통합 작업을 활발히 진행 중입니다. 출시 소식을 기대해 주시고, 그동안 플랫폼에서 제공되는 다양한 기능을 먼저 살펴보시기 바랍니다.


