Trang chủ
Khám phá
DeepSeek LLM Models
deepseek-ai/deepseek-v3.2-speciale
DeepSeek V3.2 Speciale
LLM

DeepSeek V3.2 Speciale API by DeepSeek

deepseek-ai/deepseek-v3.2-speciale
Deepseek-v3.2-speciale

Fastest, most cost-effective model from DeepSeek Ai.

Tham số

Ví dụ mã

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("ATLASCLOUD_API_KEY"),
    base_url="https://api.atlascloud.ai/v1"
)

response = client.chat.completions.create(
    model="deepseek-ai/deepseek-v3.2-speciale",
    messages=[
    {
        "role": "user",
        "content": "hello"
    }
],
    max_tokens=1024,
    temperature=0.7
)

print(response.choices[0].message.content)

Cài đặt

Cài đặt gói cần thiết cho ngôn ngữ lập trình của bạn.

bash
pip install requests

Xác thực

Tất cả các yêu cầu API đều cần xác thực thông qua khóa API. Bạn có thể lấy khóa API từ bảng điều khiển Atlas Cloud.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

HTTP Headers

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
Bảo mật khóa API của bạn

Không bao giờ để lộ khóa API trong mã phía máy khách hoặc kho lưu trữ công khai. Thay vào đó, hãy sử dụng biến môi trường hoặc proxy phía máy chủ.

Gửi yêu cầu

import requests

url = "https://api.atlascloud.ai/v1/chat/completions"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "messages": [{"role": "user", "content": "Hello"}],
    "max_tokens": 1024
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

Input Schema

Các tham số sau được chấp nhận trong nội dung yêu cầu.

Tổng cộng: 9Bắt buộc: 2Tùy chọn: 7
modelstringrequired
The model ID to use for the completion.
Example: "deepseek-ai/deepseek-v3.2-speciale"
messagesarray[object]required
A list of messages comprising the conversation so far.
rolestringrequired
The role of the message author. One of "system", "user", or "assistant".
systemuserassistant
contentstringrequired
The content of the message.
max_tokensinteger
The maximum number of tokens to generate in the completion.
Default: 1024Min: 1
temperaturenumber
Sampling temperature between 0 and 2. Higher values make output more random, lower values more focused and deterministic.
Default: 0.7Min: 0Max: 2
top_pnumber
Nucleus sampling parameter. The model considers the tokens with top_p probability mass.
Default: 1Min: 0Max: 1
streamboolean
If set to true, partial message deltas will be sent as server-sent events.
Default: false
stoparray[string]
Up to 4 sequences where the API will stop generating further tokens.
frequency_penaltynumber
Penalizes new tokens based on their existing frequency in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2
presence_penaltynumber
Penalizes new tokens based on whether they appear in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2

Ví dụ nội dung yêu cầu

json
{
  "model": "deepseek-ai/deepseek-v3.2-speciale",
  "messages": [
    {
      "role": "user",
      "content": "Hello"
    }
  ],
  "max_tokens": 1024,
  "temperature": 0.7,
  "stream": false
}

Output Schema

API trả về phản hồi tương thích với ChatCompletion.

idstringrequired
Unique identifier for the completion.
objectstringrequired
Object type, always "chat.completion".
Default: "chat.completion"
createdintegerrequired
Unix timestamp of when the completion was created.
modelstringrequired
The model used for the completion.
choicesarray[object]required
List of completion choices.
indexintegerrequired
Index of the choice.
messageobjectrequired
The generated message.
finish_reasonstringrequired
The reason generation stopped.
stoplengthcontent_filter
usageobjectrequired
Token usage statistics.
prompt_tokensintegerrequired
Number of tokens in the prompt.
completion_tokensintegerrequired
Number of tokens in the completion.
total_tokensintegerrequired
Total tokens used.

Ví dụ phản hồi

json
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "model-name",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I assist you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 10,
    "completion_tokens": 20,
    "total_tokens": 30
  }
}

Atlas Cloud Skills

Atlas Cloud Skills tích hợp hơn 300 mô hình AI trực tiếp vào trợ lý lập trình AI của bạn. Một lệnh để cài đặt, sau đó sử dụng ngôn ngữ tự nhiên để tạo hình ảnh, video và trò chuyện với LLM.

Ứng dụng được hỗ trợ

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ ứng dụng được hỗ trợ

Cài đặt

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

Thiết lập khóa API

Lấy khóa API từ bảng điều khiển Atlas Cloud và đặt nó làm biến môi trường.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

Khả năng

Sau khi cài đặt, bạn có thể sử dụng ngôn ngữ tự nhiên trong trợ lý AI để truy cập tất cả các mô hình Atlas Cloud.

Tạo hình ảnhTạo hình ảnh với các mô hình như Nano Banana 2, Z-Image và nhiều hơn nữa.
Tạo videoTạo video từ văn bản hoặc hình ảnh với Kling, Vidu, Veo, v.v.
Trò chuyện LLMTrò chuyện với Qwen, DeepSeek và các mô hình ngôn ngữ lớn khác.
Tải lên phương tiệnTải tệp cục bộ lên để chỉnh sửa hình ảnh và quy trình chuyển hình ảnh sang video.

MCP Server

Atlas Cloud MCP Server kết nối IDE của bạn với hơn 300 mô hình AI thông qua Model Context Protocol. Hoạt động với bất kỳ ứng dụng tương thích MCP nào.

Ứng dụng được hỗ trợ

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ ứng dụng được hỗ trợ

Cài đặt

bash
npx -y atlascloud-mcp

Cấu hình

Thêm cấu hình sau vào tệp cài đặt MCP của IDE.

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

Công cụ khả dụng

atlas_generate_imageTạo hình ảnh từ mô tả văn bản.
atlas_generate_videoTạo video từ văn bản hoặc hình ảnh.
atlas_chatTrò chuyện với các mô hình ngôn ngữ lớn.
atlas_list_modelsDuyệt hơn 300 mô hình AI khả dụng.
atlas_quick_generateTạo nội dung một bước với tự động chọn mô hình.
atlas_upload_mediaTải tệp cục bộ lên cho quy trình API.

DeepSeek-V3.2

Mã nguồn mở

Mô hình Ngôn ngữ Lớn Mã nguồn mở Tiên tiến

DeepSeek-V3.2 là mô hình Mixture-of-Experts tiên tiến với 685B tham số đạt hiệu suất cấp GPT-5 đồng thời duy trì suy luận tiết kiệm chi phí thông qua công nghệ DeepSeek Sparse Attention đổi mới.

DeepSeek Sparse Attention (DSA)
  • Giảm 50-75% chi phí suy luận trong khi duy trì hiệu suất
  • Attention thưa chi tiết cho xử lý ngữ cảnh dài hiệu quả
  • Hỗ trợ độ dài ngữ cảnh 128K token
  • Thành phần lightning indexer đổi mới cho định tuyến attention động
Hiệu suất Cấp GPT-5
  • Hiệu suất tương đương GPT-5 trên nhiều benchmark lý luận
  • Hiệu suất huy chương vàng tại IMO 2025 và IOI 2025
  • Khả năng agent tiên tiến với tích hợp sử dụng công cụ
  • Mô hình đầu tiên tích hợp suy nghĩ trực tiếp vào sử dụng công cụ

Huy chương Vàng Thi đấu

DeepSeek-V3.2-Speciale đạt hiệu suất cấp huy chương vàng tại các cuộc thi quốc tế uy tín, thể hiện khả năng lý luận đẳng cấp thế giới.

IMO 2025

Olympic Toán học Quốc tế

83.3%Độ chính xác Bài toán

IOI 2025

Olympic Tin học Quốc tế

VàngCấp Huy chương

AIME

Kỳ thi Toán Mời Mỹ

96%Thành tích Điểm

Điểm nổi bật Kiến trúc Kỹ thuật

Kiến trúc Mixture-of-Experts

Thiết kế MoE tiên tiến với định tuyến chuyên gia hiệu quả, có 1 chuyên gia chia sẻ và 256 chuyên gia được định tuyến mỗi lớp để cân bằng tối ưu hiệu suất-hiệu quả.

685BTổng Tham số
37BHoạt động mỗi Token

Đổi mới Attention Thưa

Cơ chế DeepSeek Sparse Attention cách mạng cho phép xử lý ngữ cảnh dài hiệu quả với các mẫu attention chi tiết.

50-75%Giảm Chi phí
128KĐộ dài Ngữ cảnh

Pipeline Đào tạo Tiên tiến

Tiên phong trong đào tạo độ chính xác hỗn hợp FP8 quy mô lớn với hậu đào tạo tinh vi bao gồm fine-tuning có giám sát và học tăng cường.

14.8TToken Đào tạo
FP8Độ chính xác Hỗn hợp

Kịch bản Ứng dụng

Lý luận Tiên tiến
Giải quyết Bài toán Toán học
Lập trình Thi đấu
Ứng dụng AI Agent
Giải pháp Doanh nghiệp
Nghiên cứu & Phát triển

Thông số Kỹ thuật

Tổng Tham số685B (671B cơ bản + 14B bổ sung)
Tham số Hoạt động37B mỗi token
Loại Kiến trúcTransformer với DeepSeek Sparse Attention MoE
Độ dài Ngữ cảnh128K token
Dữ liệu Đào tạo14,8 nghìn tỷ token chất lượng cao
Định dạng Độ chính xácFP8, BF16, F32, F8_E4M3
Giấy phépGiấy phép MIT (Mã nguồn mở)
Ngày Phát hànhTháng 12 năm 2025

So sánh Biến thể Mô hình

Họ DeepSeek-V3.2 cung cấp hai biến thể được tối ưu hóa cho các trường hợp sử dụng khác nhau, cân bằng tốc độ và độ sâu lý luận.

Tiêu chuẩn

DeepSeek-V3.2

DeepSeek AI

Best For: Triển khai sản xuất yêu cầu tốc độ và hiệu quả
  • Hiệu suất cấp GPT-5 trên các benchmark
  • Tốc độ suy luận được tối ưu hóa với DSA
  • Khả năng sử dụng công cụ và agent đầy đủ
  • Tiết kiệm chi phí cho triển khai quy mô lớn
Cao cấp

DeepSeek-V3.2-Speciale

DeepSeek AI

Best For: Nhiệm vụ lý luận sâu yêu cầu khả năng tối đa
  • Vượt trội GPT-5, ngang Gemini-3.0-Pro
  • Hiệu suất huy chương vàng tại IMO & IOI
  • Nới lỏng ràng buộc độ dài cho lý luận phức tạp
  • Tối ưu hóa cho nghiên cứu và bài toán thách thức

Key Insight: Chọn DeepSeek-V3.2 cho hiệu quả sản xuất hoặc V3.2-Speciale cho khả năng lý luận tối đa. Cả hai mô hình đều đại diện cho tiên phong của AI mã nguồn mở.

Tại sao chọn Atlas Cloud cho DeepSeek-V3.2?

Trải nghiệm độ tin cậy, bảo mật và hiệu quả chi phí cấp doanh nghiệp với dịch vụ API DeepSeek-V3.2 được quản lý hoàn toàn của chúng tôi.

Giá Cả Cạnh Tranh

Giá trả theo mức sử dụng với chi phí minh bạch. Không có phí ẩn, không có cam kết tối thiểu. Bắt đầu miễn phí.

SLA Uptime 99,9%

Cơ sở hạ tầng cấp doanh nghiệp với chuyển đổi dự phòng tự động, cân bằng tải và giám sát 24/7 để đảm bảo độ tin cậy tối đa.

Chứng Nhận SOC 2 Type II

Bảo mật cấp doanh nghiệp với chứng nhận SOC 2 Type II. Dữ liệu của bạn được mã hóa khi truyền tải và lưu trữ theo các tiêu chuẩn bảo mật hàng đầu trong ngành.

Phản Hồi Siêu Nhanh

CDN toàn cầu với các vị trí edge trên toàn thế giới. Cơ sở hạ tầng suy luận được tối ưu hóa mang lại thời gian phản hồi dưới một giây.

Hỗ Trợ Chuyên Gia

Đội ngũ hỗ trợ kỹ thuật chuyên dụng có sẵn 24/7. Nhận trợ giúp về tích hợp, tối ưu hóa và khắc phục sự cố.

Nền Tảng API Thống Nhất

Truy cập hơn 300 mô hình AI (LLM, hình ảnh, video, âm thanh) thông qua một API nhất quán. Tích hợp duy nhất cho tất cả nhu cầu AI của bạn.

Trải nghiệm DeepSeek-V3.2 trên Atlas Cloud

Triển khai AI mã nguồn mở đẳng cấp thế giới với cơ sở hạ tầng cấp doanh nghiệp, giá cả minh bạch và mở rộng liền mạch.

Truy cập API Tức thì
Giá Trả theo Sử dụng
Hỗ trợ Doanh nghiệp

Khám phá Các Mô hình Tương tự

Bắt đầu với 300+ Mô hình,

Khám phá tất cả mô hình

Join our Discord community

Join the Discord community for the latest model updates, prompts, and support.