deepseek-ai/deepseek-v3.2-speciale

Fastest, most cost-effective model from DeepSeek Ai.

LLMNEWHOT
LLM

Fastest, most cost-effective model from DeepSeek Ai.

พารามิเตอร์

การเชื่อมต่อ

Input Schema

พารามิเตอร์ต่อไปนี้ยอมรับในเนื้อหาคำขอ

ทั้งหมด: 9จำเป็น: 2ไม่บังคับ: 7
modelstringrequired
The model ID to use for the completion.
Example: "deepseek-ai/deepseek-v3.2-speciale"
messagesarray[object]required
A list of messages comprising the conversation so far.
rolestringrequired
The role of the message author. One of "system", "user", or "assistant".
systemuserassistant
contentstringrequired
The content of the message.
max_tokensinteger
The maximum number of tokens to generate in the completion.
Default: 1024Min: 1
temperaturenumber
Sampling temperature between 0 and 2. Higher values make output more random, lower values more focused and deterministic.
Default: 0.7Min: 0Max: 2
top_pnumber
Nucleus sampling parameter. The model considers the tokens with top_p probability mass.
Default: 1Min: 0Max: 1
streamboolean
If set to true, partial message deltas will be sent as server-sent events.
Default: false
stoparray[string]
Up to 4 sequences where the API will stop generating further tokens.
frequency_penaltynumber
Penalizes new tokens based on their existing frequency in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2
presence_penaltynumber
Penalizes new tokens based on whether they appear in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2

ตัวอย่างเนื้อหาคำขอ

json
{
  "model": "deepseek-ai/deepseek-v3.2-speciale",
  "messages": [
    {
      "role": "user",
      "content": "Hello"
    }
  ],
  "max_tokens": 1024,
  "temperature": 0.7,
  "stream": false
}

สำรวจโมเดลที่คล้ายกัน

DeepSeek-V3.2

โอเพนซอร์ส

โมเดลภาษาขนาดใหญ่โอเพนซอร์สชั้นนำ

DeepSeek-V3.2 เป็นโมเดล Mixture-of-Experts ที่ทันสมัยที่สุดด้วยพารามิเตอร์ 685B ที่บรรลุประสิทธิภาพระดับ GPT-5 ในขณะที่รักษาการอนุมานที่คุ้มค่าผ่านเทคโนโลยี DeepSeek Sparse Attention ที่เป็นนวัตกรรม

DeepSeek Sparse Attention (DSA)
  • ต้นทุนการอนุมานต่ำกว่า 50-75% ในขณะที่รักษาประสิทธิภาพ
  • Sparse attention ละเอียดสำหรับการประมวลผลบริบทยาวที่มีประสิทธิภาพ
  • รองรับความยาวบริบท 128K โทเค็น
  • คอมโพเนนต์ lightning indexer ที่เป็นนวัตกรรมสำหรับการกำหนดเส้นทาง attention แบบไดนามิก
ประสิทธิภาพระดับ GPT-5
  • ประสิทธิภาพเทียบเคียง GPT-5 ในหลาย benchmark การให้เหตุผล
  • ประสิทธิภาพระดับเหรียญทองใน IMO 2025 และ IOI 2025
  • ความสามารถ agentic ขั้นสูงพร้อมการบูรณาการการใช้เครื่องมือ
  • โมเดลแรกที่บูรณาการการคิดโดยตรงเข้ากับการใช้เครื่องมือ

เหรียญทองในการแข่งขัน

DeepSeek-V3.2-Speciale บรรลุประสิทธิภาพระดับเหรียญทองในการแข่งขันระดับนานาชาติที่มีชื่อเสียง แสดงให้เห็นความสามารถในการให้เหตุผลระดับโลก

IMO 2025

โอลิมปิกคณิตศาสตร์นานาชาติ

83.3%ความแม่นยำของปัญหา

IOI 2025

โอลิมปิกสารสนเทศนานาชาติ

ทองระดับเหรียญ

AIME

การสอบคณิตศาสตร์เชิญชวนอเมริกัน

96%ผลสัมฤทธิ์คะแนน

ไฮไลท์สถาปัตยกรรมทางเทคนิค

สถาปัตยกรรม Mixture-of-Experts

การออกแบบ MoE ขั้นสูงพร้อมการกำหนดเส้นทางผู้เชี่ยวชาญที่มีประสิทธิภาพ มีผู้เชี่ยวชาญที่แชร์ 1 คนและผู้เชี่ยวชาญที่กำหนดเส้นทาง 256 คนต่อชั้นเพื่อความสมดุลระหว่างประสิทธิภาพและประสิทธิผลที่เหมาะสม

685Bพารามิเตอร์ทั้งหมด
37Bใช้งานต่อโทเค็น

นวัตกรรม Sparse Attention

กลไก DeepSeek Sparse Attention ที่ปฏิวัติวงการช่วยให้สามารถประมวลผลบริบทยาวได้อย่างมีประสิทธิภาพด้วยรูปแบบ attention ที่ละเอียด

50-75%การลดต้นทุน
128Kความยาวบริบท

ไปป์ไลน์การฝึกอบรมขั้นสูง

ผู้บุกเบิกในการฝึกอบรมความแม่นยำผสม FP8 ในระดับใหญ่พร้อมการฝึกอบรมหลังที่ซับซ้อนรวมถึง supervised fine-tuning และ reinforcement learning

14.8Tโทเค็นการฝึกอบรม
FP8ความแม่นยำผสม

สถานการณ์การใช้งาน

การให้เหตุผลขั้นสูง
การแก้ปัญหาคณิตศาสตร์
การเขียนโปรแกรมแบบแข่งขัน
แอปพลิเคชัน AI แบบ Agentic
โซลูชันองค์กร
การวิจัยและพัฒนา

ข้อมูลจำเพาะทางเทคนิค

พารามิเตอร์ทั้งหมด685B (671B พื้นฐาน + 14B เพิ่มเติม)
พารามิเตอร์ที่ใช้งาน37B ต่อโทเค็น
ประเภทสถาปัตยกรรมTransformer พร้อม DeepSeek Sparse Attention MoE
ความยาวบริบท128K โทเค็น
ข้อมูลการฝึกอบรม14.8 ล้านล้านโทเค็นคุณภาพสูง
รูปแบบความแม่นยำFP8, BF16, F32, F8_E4M3
ใบอนุญาตใบอนุญาต MIT (โอเพนซอร์ส)
วันที่เปิดตัวธันวาคม 2025

การเปรียบเทียบตัวแปรของโมเดล

ครอบครัว DeepSeek-V3.2 นำเสนอสองตัวแปรที่ได้รับการปรับให้เหมาะสมสำหรับกรณีการใช้งานที่แตกต่างกัน ทำให้เกิดสมดุลระหว่างความเร็วและความลึกของการให้เหตุผล

มาตรฐาน

DeepSeek-V3.2

DeepSeek AI

Best For: การนำไปใช้งานจริงที่ต้องการความเร็วและประสิทธิภาพ
  • ประสิทธิภาพระดับ GPT-5 ใน benchmark
  • ความเร็วการอนุมานที่ได้รับการปรับปรุงด้วย DSA
  • ความสามารถในการใช้เครื่องมือและ agentic อย่างสมบูรณ์
  • คุ้มค่าสำหรับการนำไปใช้งานในระดับใหญ่
พรีเมียม

DeepSeek-V3.2-Speciale

DeepSeek AI

Best For: งานการให้เหตุผลเชิงลึกที่ต้องการความสามารถสูงสุด
  • เหนือกว่า GPT-5 เทียบเท่า Gemini-3.0-Pro
  • ประสิทธิภาพเหรียญทองใน IMO & IOI
  • ข้อจำกัดความยาวที่ผ่อนคลายสำหรับการให้เหตุผลที่ซับซ้อน
  • ปรับให้เหมาะสมสำหรับการวิจัยและปัญหาที่ท้าทาย

Key Insight: เลือก DeepSeek-V3.2 เพื่อประสิทธิภาพการผลิต หรือ V3.2-Speciale เพื่อความสามารถในการให้เหตุผลสูงสุด ทั้งสองโมเดลแสดงถึงแนวหน้าของ AI โอเพนซอร์ส

ทำไมต้องเลือก Atlas Cloud สำหรับ DeepSeek-V3.2?

สัมผัสความน่าเชื่อถือ ความปลอดภัย และประสิทธิภาพด้านต้นทุนระดับองค์กรด้วยบริการ API DeepSeek-V3.2 ที่มีการจัดการอย่างครบถ้วนของเรา

ราคาที่แข่งขันได้

ราคาแบบจ่ายตามการใช้งานด้วยต้นทุนที่โปร่งใส ไม่มีค่าธรรมเนียมซ่อนเร้น ไม่มีข้อผูกมัดขั้นต่ำ เริ่มต้นใช้งานฟรี

SLA อัพไทม์ 99.9%

โครงสร้างพื้นฐานระดับองค์กรพร้อม failover อัตโนมัติ การกระจายโหลด และการตรวจสอบตลอด 24/7 เพื่อความน่าเชื่อถือสูงสุด

ได้รับการรับรอง SOC 2 Type II

ความปลอดภัยระดับองค์กรด้วยการรับรอง SOC 2 Type II ข้อมูลของคุณได้รับการเข้ารหัสทั้งขณะส่งและขณะพักด้วยมาตรฐานความปลอดภัยชั้นนำของอุตสาหกรรม

การตอบสนองที่รวดเร็วเหมือนสายฟ้าแลบ

CDN ทั่วโลกพร้อมตำแหน่ง edge ทั่วทุกมุมโลก โครงสร้างพื้นฐานการอนุมานที่ได้รับการปรับให้เหมาะสมให้เวลาตอบสนองต่ำกว่าหนึ่งวินาที

การสนับสนุนจากผู้เชี่ยวชาญ

ทีมสนับสนุนทางเทคนิคเฉพาะพร้อมให้บริการตลอด 24/7 รับความช่วยเหลือเกี่ยวกับการผสานรวม การปรับให้เหมาะสม และการแก้ไขปัญหา

แพลตฟอร์ม API แบบครบวงจร

เข้าถึงโมเดล AI มากกว่า 300 รายการ (LLMs, ภาพ, วิดีโอ, เสียง) ผ่าน API เดียวที่สอดคล้องกัน การผสานรวมครั้งเดียวสำหรับความต้องการ AI ทั้งหมดของคุณ

สัมผัสประสบการณ์ DeepSeek-V3.2 บน Atlas Cloud

ปรับใช้ AI โอเพนซอร์สระดับโลกด้วยโครงสร้างพื้นฐานระดับองค์กร ราคาที่โปร่งใส และการปรับขนาดที่ราบรื่น

การเข้าถึง API ทันที
ราคาแบบจ่ายตามการใช้งาน
การสนับสนุนองค์กร

เริ่มต้นจากโมเดลกว่า 300 รายการ

สำรวจโมเดลทั้งหมด