首页
探索
DeepSeek LLM Models
deepseek-ai/deepseek-v3.2-speciale
DeepSeek V3.2 Speciale
LLM

DeepSeek V3.2 Speciale API by DeepSeek

deepseek-ai/deepseek-v3.2-speciale
Deepseek-v3.2-speciale

Fastest, most cost-effective model from DeepSeek Ai.

参数

代码示例

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("ATLASCLOUD_API_KEY"),
    base_url="https://api.atlascloud.ai/v1"
)

response = client.chat.completions.create(
    model="deepseek-ai/deepseek-v3.2-speciale",
    messages=[
    {
        "role": "user",
        "content": "hello"
    }
],
    max_tokens=1024,
    temperature=0.7
)

print(response.choices[0].message.content)

安装

安装所需的依赖包。

bash
pip install requests

认证

所有 API 请求需要通过 API Key 进行认证。您可以在 Atlas Cloud 控制台获取 API Key。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

HTTP 请求头

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
保护好您的 API Key

切勿在客户端代码或公开仓库中暴露您的 API Key。请使用环境变量或后端代理。

提交请求

import requests

url = "https://api.atlascloud.ai/v1/chat/completions"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "messages": [{"role": "user", "content": "Hello"}],
    "max_tokens": 1024
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

Input Schema

以下参数在请求体中被接受。

总计: 9必填: 2可选: 7
modelstringrequired
The model ID to use for the completion.
Example: "deepseek-ai/deepseek-v3.2-speciale"
messagesarray[object]required
A list of messages comprising the conversation so far.
rolestringrequired
The role of the message author. One of "system", "user", or "assistant".
systemuserassistant
contentstringrequired
The content of the message.
max_tokensinteger
The maximum number of tokens to generate in the completion.
Default: 1024Min: 1
temperaturenumber
Sampling temperature between 0 and 2. Higher values make output more random, lower values more focused and deterministic.
Default: 0.7Min: 0Max: 2
top_pnumber
Nucleus sampling parameter. The model considers the tokens with top_p probability mass.
Default: 1Min: 0Max: 1
streamboolean
If set to true, partial message deltas will be sent as server-sent events.
Default: false
stoparray[string]
Up to 4 sequences where the API will stop generating further tokens.
frequency_penaltynumber
Penalizes new tokens based on their existing frequency in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2
presence_penaltynumber
Penalizes new tokens based on whether they appear in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2

请求体示例

json
{
  "model": "deepseek-ai/deepseek-v3.2-speciale",
  "messages": [
    {
      "role": "user",
      "content": "Hello"
    }
  ],
  "max_tokens": 1024,
  "temperature": 0.7,
  "stream": false
}

Output Schema

API 返回兼容 ChatCompletion 的响应格式。

idstringrequired
Unique identifier for the completion.
objectstringrequired
Object type, always "chat.completion".
Default: "chat.completion"
createdintegerrequired
Unix timestamp of when the completion was created.
modelstringrequired
The model used for the completion.
choicesarray[object]required
List of completion choices.
indexintegerrequired
Index of the choice.
messageobjectrequired
The generated message.
finish_reasonstringrequired
The reason generation stopped.
stoplengthcontent_filter
usageobjectrequired
Token usage statistics.
prompt_tokensintegerrequired
Number of tokens in the prompt.
completion_tokensintegerrequired
Number of tokens in the completion.
total_tokensintegerrequired
Total tokens used.

响应示例

json
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "model-name",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I assist you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 10,
    "completion_tokens": 20,
    "total_tokens": 30
  }
}

Atlas Cloud Skills

Atlas Cloud Skills 将 300+ AI 模型直接集成到您的 AI 编程助手中。一条命令安装,即可用自然语言生成图像、视频和与 LLM 对话。

支持的客户端

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ 支持的客户端

安装

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

设置 API Key

从 Atlas Cloud 控制台获取 API Key,并将其设置为环境变量。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

功能

安装后,您可以在 AI 助手中使用自然语言访问所有 Atlas Cloud 模型。

图像生成使用 Nano Banana 2、Z-Image 等模型生成图像。
视频创作使用 Kling、Vidu、Veo 等模型从文本或图像创建视频。
LLM 对话与 Qwen、DeepSeek 等大语言模型对话。
媒体上传上传本地文件用于图像编辑和图生视频工作流。

MCP Server

Atlas Cloud MCP Server 通过 Model Context Protocol 将您的 IDE 与 300+ AI 模型连接。支持任何兼容 MCP 的客户端。

支持的客户端

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ 支持的客户端

安装

bash
npx -y atlascloud-mcp

配置

将以下配置添加到您的 IDE 的 MCP 设置文件中。

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

可用工具

atlas_generate_image从文本提示生成图像。
atlas_generate_video从文本或图像创建视频。
atlas_chat与大语言模型对话。
atlas_list_models浏览 300+ 可用 AI 模型。
atlas_quick_generate一步式内容创建,自动选择最佳模型。
atlas_upload_media上传本地文件用于 API 工作流。

DeepSeek-V3.2

开源模型

开源前沿大语言模型

DeepSeek-V3.2 是一个拥有 685B 参数的尖端混合专家语言模型,通过创新的 DeepSeek 稀疏注意力技术,在保持高性价比推理的同时达到 GPT-5 级别的性能。

DeepSeek 稀疏注意力(DSA)
  • 在保持性能的同时降低 50-75% 的推理成本
  • 细粒度稀疏注意力实现高效长上下文处理
  • 支持 128K token 上下文长度
  • 创新的 lightning indexer 组件用于动态注意力路由
GPT-5 级别性能
  • 在多个推理基准测试中达到 GPT-5 水平
  • 在 IMO 2025 和 IOI 2025 中获得金牌表现
  • 先进的智能体能力,集成工具使用
  • 首个将思维直接集成到工具使用中的模型

竞赛金牌成就

DeepSeek-V3.2-Speciale 在多项国际顶级竞赛中获得金牌级别表现,展现了世界级的推理能力。

IMO 2025

国际数学奥林匹克竞赛

83.3%问题准确率

IOI 2025

国际信息学奥林匹克竞赛

金牌奖牌等级

AIME

美国数学邀请赛

96%得分成绩

技术架构亮点

混合专家架构

先进的 MoE 设计,具有高效的专家路由,每层包含 1 个共享专家和 256 个路由专家,实现性能与效率的最佳平衡。

685B总参数量
37B每 Token 激活

稀疏注意力创新

革命性的 DeepSeek 稀疏注意力机制,通过细粒度注意力模式实现高效的长上下文处理。

50-75%成本降低
128K上下文长度

先进训练流程

开创性地采用大规模 FP8 混合精度训练,配合复杂的后训练流程,包括监督微调和强化学习。

14.8T训练 Token 数
FP8混合精度

应用场景

高级推理
数学问题求解
竞赛编程
智能体 AI 应用
企业解决方案
研究与开发

技术规格

总参数量685B(671B 基础 + 14B 附加)
激活参数每 token 37B
架构类型带 DeepSeek 稀疏注意力的 Transformer MoE
上下文长度128K tokens
训练数据14.8 万亿高质量 tokens
精度格式FP8、BF16、F32、F8_E4M3
许可证MIT 许可证(开源)
发布日期2025年12月

模型变体对比

DeepSeek-V3.2 系列提供两个针对不同使用场景优化的变体,在速度和推理深度之间取得平衡。

标准版

DeepSeek-V3.2

DeepSeek AI

Best For: 需要速度和效率的生产部署
  • 在基准测试中达到 GPT-5 级别性能
  • 通过 DSA 优化推理速度
  • 完整的工具使用和智能体能力
  • 适合大规模部署的高性价比
高级版

DeepSeek-V3.2-Speciale

DeepSeek AI

Best For: 需要最大能力的深度推理任务
  • 超越 GPT-5,匹配 Gemini-3.0-Pro
  • 在 IMO 和 IOI 中获得金牌表现
  • 放宽长度限制以支持复杂推理
  • 针对研究和挑战性问题优化

Key Insight: 选择 DeepSeek-V3.2 获得生产效率,或选择 V3.2-Speciale 获得最大推理能力。两个模型都代表了开源 AI 的前沿水平。

为什么选择 Atlas Cloud 使用 DeepSeek-V3.2?

通过我们完全托管的 DeepSeek-V3.2 API 服务,体验企业级可靠性、安全性和成本效益。

极具竞争力的价格

按需付费,价格透明。无隐藏费用,无最低承诺。免费开始使用。

99.9% 正常运行时间 SLA

企业级基础设施,具有自动故障转移、负载均衡和全天候监控,确保最高可靠性。

SOC 2 Type II 认证

企业级安全性,具有 SOC 2 Type II 认证。您的数据在传输和存储过程中均已加密,符合行业领先的安全标准。

闪电般的响应速度

全球 CDN,在全球设有边缘节点。优化的推理基础设施可提供亚秒级响应时间。

专业技术支持

全天候专业技术支持团队。获得集成、优化和故障排除方面的帮助。

统一 API 平台

通过一个一致的 API 访问 300 多个 AI 模型(LLM、图像、视频、音频)。一次集成满足所有 AI 需求。

在 Atlas Cloud 上体验 DeepSeek-V3.2

通过企业级基础设施、透明定价和无缝扩展,部署世界级开源 AI。

即时 API 访问
按需付费定价
企业级支持

300+ 模型,即刻开启,

探索全部模型

Join our Discord community

Join the Discord community for the latest model updates, prompts, and support.