deepseek-ai/deepseek-v3.2-fast

DeepSeek V3.2 is a state-of-the-art large language model combining efficient sparse attention, strong reasoning, and integrated agent capabilities for robust long-context understanding and versatile AI applications.

LLMNEWHOT
首頁
探索
deepseek-ai/deepseek-v3.2-fast
DeepSeek V3.2 Fast
LLM

DeepSeek V3.2 is a state-of-the-art large language model combining efficient sparse attention, strong reasoning, and integrated agent capabilities for robust long-context understanding and versatile AI applications.

參數

程式碼範例

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("ATLASCLOUD_API_KEY"),
    base_url="https://api.atlascloud.ai/v1"
)

response = client.chat.completions.create(
    model="deepseek-ai/deepseek-v3.2-fast",
    messages=[
    {
        "role": "user",
        "content": "hello"
    }
],
    max_tokens=1024,
    temperature=0.7
)

print(response.choices[0].message.content)

安裝

為您的程式語言安裝所需的套件。

bash
pip install requests

驗證

所有 API 請求都需要透過 API 金鑰進行驗證。您可以從 Atlas Cloud 儀表板取得 API 金鑰。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

HTTP 標頭

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
請妥善保管您的 API 金鑰

切勿在客戶端程式碼或公開儲存庫中暴露您的 API 金鑰。請改用環境變數或後端代理。

提交請求

import requests

url = "https://api.atlascloud.ai/v1/chat/completions"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "messages": [{"role": "user", "content": "Hello"}],
    "max_tokens": 1024
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

輸入 Schema

以下參數可在請求主體中使用。

總計: 9必填: 2選填: 7
modelstringrequired
The model ID to use for the completion.
Example: "deepseek-ai/deepseek-v3.2-fast"
messagesarray[object]required
A list of messages comprising the conversation so far.
rolestringrequired
The role of the message author. One of "system", "user", or "assistant".
systemuserassistant
contentstringrequired
The content of the message.
max_tokensinteger
The maximum number of tokens to generate in the completion.
Default: 1024Min: 1
temperaturenumber
Sampling temperature between 0 and 2. Higher values make output more random, lower values more focused and deterministic.
Default: 0.7Min: 0Max: 2
top_pnumber
Nucleus sampling parameter. The model considers the tokens with top_p probability mass.
Default: 1Min: 0Max: 1
streamboolean
If set to true, partial message deltas will be sent as server-sent events.
Default: false
stoparray[string]
Up to 4 sequences where the API will stop generating further tokens.
frequency_penaltynumber
Penalizes new tokens based on their existing frequency in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2
presence_penaltynumber
Penalizes new tokens based on whether they appear in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2

範例請求主體

json
{
  "model": "deepseek-ai/deepseek-v3.2-fast",
  "messages": [
    {
      "role": "user",
      "content": "Hello"
    }
  ],
  "max_tokens": 1024,
  "temperature": 0.7,
  "stream": false
}

輸出 Schema

API 傳回與 ChatCompletion 相容的回應。

idstringrequired
Unique identifier for the completion.
objectstringrequired
Object type, always "chat.completion".
Default: "chat.completion"
createdintegerrequired
Unix timestamp of when the completion was created.
modelstringrequired
The model used for the completion.
choicesarray[object]required
List of completion choices.
indexintegerrequired
Index of the choice.
messageobjectrequired
The generated message.
finish_reasonstringrequired
The reason generation stopped.
stoplengthcontent_filter
usageobjectrequired
Token usage statistics.
prompt_tokensintegerrequired
Number of tokens in the prompt.
completion_tokensintegerrequired
Number of tokens in the completion.
total_tokensintegerrequired
Total tokens used.

範例回應

json
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "model-name",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I assist you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 10,
    "completion_tokens": 20,
    "total_tokens": 30
  }
}

Atlas Cloud Skills

Atlas Cloud Skills 將 300 多個 AI 模型直接整合至您的 AI 程式碼助手。一鍵安裝,即可使用自然語言生成圖片、影片,以及與 LLM 對話。

支援的客戶端

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ 支援的客戶端

安裝

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

設定 API 金鑰

從 Atlas Cloud 儀表板取得 API 金鑰,並設為環境變數。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

功能

安裝完成後,您可以在 AI 助手中使用自然語言存取所有 Atlas Cloud 模型。

圖片生成使用 Nano Banana 2、Z-Image 等模型生成圖片。
影片創作使用 Kling、Vidu、Veo 等從文字或圖片創建影片。
LLM 對話與 Qwen、DeepSeek 及其他大型語言模型對話。
媒體上傳上傳本機檔案,用於圖片編輯和圖片轉影片工作流程。

MCP Server

Atlas Cloud MCP Server 透過 Model Context Protocol 將您的 IDE 與 300 多個 AI 模型連接。支援任何 MCP 相容的客戶端。

支援的客戶端

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ 支援的客戶端

安裝

bash
npx -y atlascloud-mcp

設定

將以下設定新增至您 IDE 的 MCP 設定檔中。

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

可用工具

atlas_generate_image根據文字提示生成圖片。
atlas_generate_video從文字或圖片創建影片。
atlas_chat與大型語言模型對話。
atlas_list_models瀏覽 300 多個可用的 AI 模型。
atlas_quick_generate一步完成內容創建,自動選擇模型。
atlas_upload_media上傳本機檔案用於 API 工作流程。

DeepSeek-V3.2

開源模型

開源前沿大語言模型

DeepSeek-V3.2 是一個擁有 685B 參數的尖端混合專家語言模型,透過創新的 DeepSeek 稀疏注意力技術,在保持高性價比推理的同時達到 GPT-5 級別的性能。

DeepSeek 稀疏注意力(DSA)
  • 在保持性能的同時降低 50-75% 的推理成本
  • 細粒度稀疏注意力實現高效長上下文處理
  • 支援 128K token 上下文長度
  • 創新的 lightning indexer 元件用於動態注意力路由
GPT-5 級別性能
  • 在多個推理基準測試中達到 GPT-5 水準
  • 在 IMO 2025 和 IOI 2025 中獲得金牌表現
  • 先進的智慧體能力,整合工具使用
  • 首個將思維直接整合到工具使用中的模型

競賽金牌成就

DeepSeek-V3.2-Speciale 在多項國際頂級競賽中獲得金牌級別表現,展現了世界級的推理能力。

IMO 2025

國際數學奧林匹克競賽

83.3%問題準確率

IOI 2025

國際資訊學奧林匹克競賽

金牌獎牌等級

AIME

美國數學邀請賽

96%得分成績

技術架構亮點

混合專家架構

先進的 MoE 設計,具有高效的專家路由,每層包含 1 個共享專家和 256 個路由專家,實現性能與效率的最佳平衡。

685B總參數量
37B每 Token 啟動

稀疏注意力創新

革命性的 DeepSeek 稀疏注意力機制,透過細粒度注意力模式實現高效的長上下文處理。

50-75%成本降低
128K上下文長度

先進訓練流程

開創性地採用大規模 FP8 混合精度訓練,配合複雜的後訓練流程,包括監督微調和強化學習。

14.8T訓練 Token 數
FP8混合精度

應用場景

高階推理
數學問題求解
競賽程式設計
智慧體 AI 應用
企業解決方案
研究與開發

技術規格

總參數量685B(671B 基礎 + 14B 附加)
啟動參數每 token 37B
架構類型帶 DeepSeek 稀疏注意力的 Transformer MoE
上下文長度128K tokens
訓練資料14.8 兆高品質 tokens
精度格式FP8、BF16、F32、F8_E4M3
授權MIT 授權(開源)
發布日期2025年12月

模型變體對比

DeepSeek-V3.2 系列提供兩個針對不同使用場景優化的變體,在速度和推理深度之間取得平衡。

標準版

DeepSeek-V3.2

DeepSeek AI

Best For: 需要速度和效率的生產部署
  • 在基準測試中達到 GPT-5 級別性能
  • 透過 DSA 優化推理速度
  • 完整的工具使用和智慧體能力
  • 適合大規模部署的高性價比
高階版

DeepSeek-V3.2-Speciale

DeepSeek AI

Best For: 需要最大能力的深度推理任務
  • 超越 GPT-5,匹配 Gemini-3.0-Pro
  • 在 IMO 和 IOI 中獲得金牌表現
  • 放寬長度限制以支援複雜推理
  • 針對研究和挑戰性問題優化

Key Insight: 選擇 DeepSeek-V3.2 獲得生產效率,或選擇 V3.2-Speciale 獲得最大推理能力。兩個模型都代表了開源 AI 的前沿水準。

為什麼選擇 Atlas Cloud 使用 DeepSeek-V3.2?

透過我們完全託管的 DeepSeek-V3.2 API 服務,體驗企業級可靠性、安全性和成本效益。

具競爭力的定價

透明成本的按用量付費定價。無隱藏費用,無最低承諾。免費開始使用。

99.9% 正常運行時間 SLA

企業級基礎設施,具備自動故障轉移、負載平衡和 24/7 監控,實現最高可靠性。

SOC 2 Type II 認證

通過 SOC 2 Type II 認證的企業級安全性。您的資料在傳輸和靜態狀態下都採用業界領先的安全標準加密。

閃電般的快速回應

全球 CDN,在全球各地設有邊緣位置。優化的推理基礎設施提供低於一秒的回應時間。

專家支援

專業技術支援團隊 24/7 全天候服務。獲得整合、優化和疑難排解方面的協助。

統一 API 平台

透過一個一致的 API 存取 300 多個 AI 模型(LLM、圖像、影片、音訊)。滿足您所有 AI 需求的單一整合。

在 Atlas Cloud 上體驗 DeepSeek-V3.2

透過企業級基礎設施、透明定價和無縫擴展,部署世界級開源 AI。

即時 API 存取
按需付費定價
企業級支援

300+ 模型,即刻開啟,

探索全部模型