deepseek-ai/deepseek-v3.2-fast

DeepSeek V3.2 is a state-of-the-art large language model combining efficient sparse attention, strong reasoning, and integrated agent capabilities for robust long-context understanding and versatile AI applications.

LLMNEWHOT
ホーム
探索
deepseek-ai/deepseek-v3.2-fast
DeepSeek V3.2 Fast
LLM

DeepSeek V3.2 is a state-of-the-art large language model combining efficient sparse attention, strong reasoning, and integrated agent capabilities for robust long-context understanding and versatile AI applications.

パラメータ

コード例

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("ATLASCLOUD_API_KEY"),
    base_url="https://api.atlascloud.ai/v1"
)

response = client.chat.completions.create(
    model="deepseek-ai/deepseek-v3.2-fast",
    messages=[
    {
        "role": "user",
        "content": "hello"
    }
],
    max_tokens=1024,
    temperature=0.7
)

print(response.choices[0].message.content)

インストール

お使いの言語に必要なパッケージをインストールしてください。

bash
pip install requests

認証

すべての API リクエストには API キーによる認証が必要です。API キーは Atlas Cloud ダッシュボードから取得できます。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

HTTP ヘッダー

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
API キーを安全に保管してください

API キーをクライアントサイドのコードや公開リポジトリに公開しないでください。代わりに環境変数またはバックエンドプロキシを使用してください。

リクエストを送信

import requests

url = "https://api.atlascloud.ai/v1/chat/completions"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "messages": [{"role": "user", "content": "Hello"}],
    "max_tokens": 1024
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

入力 Schema

以下のパラメータがリクエストボディで使用できます。

合計: 9必須: 2任意: 7
modelstringrequired
The model ID to use for the completion.
Example: "deepseek-ai/deepseek-v3.2-fast"
messagesarray[object]required
A list of messages comprising the conversation so far.
rolestringrequired
The role of the message author. One of "system", "user", or "assistant".
systemuserassistant
contentstringrequired
The content of the message.
max_tokensinteger
The maximum number of tokens to generate in the completion.
Default: 1024Min: 1
temperaturenumber
Sampling temperature between 0 and 2. Higher values make output more random, lower values more focused and deterministic.
Default: 0.7Min: 0Max: 2
top_pnumber
Nucleus sampling parameter. The model considers the tokens with top_p probability mass.
Default: 1Min: 0Max: 1
streamboolean
If set to true, partial message deltas will be sent as server-sent events.
Default: false
stoparray[string]
Up to 4 sequences where the API will stop generating further tokens.
frequency_penaltynumber
Penalizes new tokens based on their existing frequency in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2
presence_penaltynumber
Penalizes new tokens based on whether they appear in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2

リクエストボディの例

json
{
  "model": "deepseek-ai/deepseek-v3.2-fast",
  "messages": [
    {
      "role": "user",
      "content": "Hello"
    }
  ],
  "max_tokens": 1024,
  "temperature": 0.7,
  "stream": false
}

出力 Schema

API は ChatCompletion 互換のレスポンスを返します。

idstringrequired
Unique identifier for the completion.
objectstringrequired
Object type, always "chat.completion".
Default: "chat.completion"
createdintegerrequired
Unix timestamp of when the completion was created.
modelstringrequired
The model used for the completion.
choicesarray[object]required
List of completion choices.
indexintegerrequired
Index of the choice.
messageobjectrequired
The generated message.
finish_reasonstringrequired
The reason generation stopped.
stoplengthcontent_filter
usageobjectrequired
Token usage statistics.
prompt_tokensintegerrequired
Number of tokens in the prompt.
completion_tokensintegerrequired
Number of tokens in the completion.
total_tokensintegerrequired
Total tokens used.

レスポンス例

json
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "model-name",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I assist you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 10,
    "completion_tokens": 20,
    "total_tokens": 30
  }
}

Atlas Cloud Skills

Atlas Cloud Skills は 300 以上の AI モデルを AI コーディングアシスタントに直接統合します。ワンコマンドでインストールし、自然言語で画像・動画生成や LLM との対話が可能です。

対応クライアント

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ 対応クライアント

インストール

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

API キーの設定

Atlas Cloud ダッシュボードから API キーを取得し、環境変数として設定してください。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

機能

インストール後、AI アシスタントで自然言語を使用してすべての Atlas Cloud モデルにアクセスできます。

画像生成Nano Banana 2、Z-Image などのモデルで画像を生成します。
動画作成Kling、Vidu、Veo などでテキストや画像から動画を作成します。
LLM チャットQwen、DeepSeek などの大規模言語モデルと対話します。
メディアアップロード画像編集や画像から動画へのワークフロー用にローカルファイルをアップロードします。

MCP Server

Atlas Cloud MCP Server は Model Context Protocol を通じて IDE と 300 以上の AI モデルを接続します。MCP 対応のあらゆるクライアントで動作します。

対応クライアント

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ 対応クライアント

インストール

bash
npx -y atlascloud-mcp

設定

以下の設定を IDE の MCP 設定ファイルに追加してください。

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

利用可能なツール

atlas_generate_imageテキストプロンプトから画像を生成します。
atlas_generate_videoテキストや画像から動画を作成します。
atlas_chat大規模言語モデルと対話します。
atlas_list_models300 以上の利用可能な AI モデルを閲覧します。
atlas_quick_generateモデル自動選択によるワンステップコンテンツ作成。
atlas_upload_mediaAPI ワークフロー用にローカルファイルをアップロードします。

DeepSeek-V3.2

オープンソース

オープンソース最先端大規模言語モデル

DeepSeek-V3.2は685Bパラメータを持つ最先端のMixture-of-Expertsモデルで、革新的なDeepSeek Sparse Attention技術により、高いコストパフォーマンスの推論を維持しながらGPT-5レベルの性能を実現します。

DeepSeek Sparse Attention (DSA)
  • 性能を維持しながら推論コストを50-75%削減
  • 効率的な長文コンテキスト処理のための細粒度スパースアテンション
  • 128Kトークンコンテキスト長をサポート
  • 動的アテンションルーティングのための革新的なlightning indexerコンポーネント
GPT-5レベルの性能
  • 複数の推論ベンチマークでGPT-5に匹敵する性能
  • IMO 2025とIOI 2025で金メダルレベルの性能
  • ツール使用統合による高度なエージェント機能
  • 思考をツール使用に直接統合した初のモデル

競技会金メダル

DeepSeek-V3.2-Specialeは権威ある国際競技会で金メダルレベルの性能を達成し、世界クラスの推論能力を実証しました。

IMO 2025

国際数学オリンピック

83.3%問題正解率

IOI 2025

国際情報オリンピック

金メダルメダルレベル

AIME

アメリカ数学招待試験

96%スコア達成

技術アーキテクチャのハイライト

Mixture-of-Expertsアーキテクチャ

効率的な専門家ルーティングを備えた高度なMoE設計で、各層に1つの共有専門家と256のルーティング専門家を含み、性能と効率の最適なバランスを実現します。

685B総パラメータ数
37Bトークンごとにアクティブ

スパースアテンションイノベーション

革命的なDeepSeek Sparse Attentionメカニズムにより、細粒度アテンションパターンで効率的な長文コンテキスト処理を実現します。

50-75%コスト削減
128Kコンテキスト長

高度なトレーニングパイプライン

大規模なFP8混合精度トレーニングを先駆的に採用し、教師あり微調整と強化学習を含む高度な事後トレーニングを実施しました。

14.8Tトレーニングトークン数
FP8混合精度

応用シーン

高度な推論
数学問題解決
競技プログラミング
エージェントAIアプリケーション
エンタープライズソリューション
研究開発

技術仕様

総パラメータ数685B(基本671B + 追加14B)
アクティブパラメータトークンごとに37B
アーキテクチャタイプDeepSeek Sparse Attention MoE付きTransformer
コンテキスト長128Kトークン
トレーニングデータ14.8兆高品質トークン
精度フォーマットFP8、BF16、F32、F8_E4M3
ライセンスMITライセンス(オープンソース)
リリース日2025年12月

モデルバリアント比較

DeepSeek-V3.2ファミリーは、速度と推論の深さのバランスを取りながら、異なるユースケースに最適化された2つのバリアントを提供しています。

標準版

DeepSeek-V3.2

DeepSeek AI

Best For: 速度と効率を必要とする本番デプロイメント
  • ベンチマークでGPT-5レベルの性能
  • DSAによる推論速度の最適化
  • 完全なツール使用とエージェント機能
  • 大規模デプロイメントに最適なコスト効率
プレミアム版

DeepSeek-V3.2-Speciale

DeepSeek AI

Best For: 最大能力を必要とする深い推論タスク
  • GPT-5を超え、Gemini-3.0-Proに匹敵
  • IMOとIOIで金メダルパフォーマンス
  • 複雑な推論をサポートするための長さ制約の緩和
  • 研究と挑戦的な問題に最適化

Key Insight: 生産効率を得るにはDeepSeek-V3.2を、最大の推論能力を得るにはV3.2-Specialeを選択してください。両モデルともオープンソースAIの最先端を代表しています。

DeepSeek-V3.2 に Atlas Cloud を選ぶ理由

完全マネージド型 DeepSeek-V3.2 API サービスで、エンタープライズグレードの信頼性、セキュリティ、コスト効率を体験してください。

競争力のある価格設定

透明性の高い従量課金制。隠れた料金なし、最低契約なし。無料で始められます。

99.9% 稼働率 SLA

自動フェイルオーバー、負荷分散、24時間365日監視を備えたエンタープライズグレードのインフラストラクチャで最大の信頼性を実現。

SOC 2 Type II 認証取得

SOC 2 Type II 認証を取得したエンタープライズグレードのセキュリティ。転送中および保存中のデータは、業界最高水準のセキュリティ基準で暗号化されます。

超高速レスポンス

世界中にエッジロケーションを持つグローバル CDN。最適化された推論インフラストラクチャにより、1秒未満のレスポンスタイムを実現。

専門サポート

24時間365日対応の専任テクニカルサポートチーム。統合、最適化、トラブルシューティングをサポートします。

統合 API プラットフォーム

一貫した API を通じて 300 以上の AI モデル(LLM、画像、動画、音声)にアクセス。すべての AI ニーズに対応する単一の統合。

Atlas CloudでDeepSeek-V3.2を体験

エンタープライズグレードのインフラストラクチャ、透明な価格設定、シームレスなスケーリングで世界クラスのオープンソースAIをデプロイします。

即時APIアクセス
従量課金制の価格設定
エンタープライズサポート

300以上のモデルから始める、

すべてのモデルを探索