deepseek-ai/deepseek-r1-0528

The advanced LLM

LLMFP8HOT
DeepSeek-R1-0528
LLM

The advanced LLM

Parametry

Przykład kodu

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("ATLASCLOUD_API_KEY"),
    base_url="https://api.atlascloud.ai/v1"
)

response = client.chat.completions.create(
    model="deepseek-ai/deepseek-r1-0528",
    messages=[
    {
        "role": "user",
        "content": "hello"
    }
],
    max_tokens=1024,
    temperature=0.7
)

print(response.choices[0].message.content)

Instalacja

Zainstaluj wymagany pakiet dla swojego języka programowania.

bash
pip install requests

Uwierzytelnianie

Wszystkie żądania API wymagają uwierzytelnienia za pomocą klucza API. Klucz API możesz uzyskać z panelu Atlas Cloud.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

Nagłówki HTTP

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
Chroń swój klucz API

Nigdy nie ujawniaj swojego klucza API w kodzie po stronie klienta ani w publicznych repozytoriach. Zamiast tego użyj zmiennych środowiskowych lub proxy backendowego.

Wyślij żądanie

import requests

url = "https://api.atlascloud.ai/v1/chat/completions"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "messages": [{"role": "user", "content": "Hello"}],
    "max_tokens": 1024
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

Schema wejściowy

Następujące parametry są akceptowane w treści żądania.

Łącznie: 9Wymagane: 2Opcjonalne: 7
modelstringrequired
The model ID to use for the completion.
Example: "deepseek-ai/deepseek-r1-0528"
messagesarray[object]required
A list of messages comprising the conversation so far.
rolestringrequired
The role of the message author. One of "system", "user", or "assistant".
systemuserassistant
contentstringrequired
The content of the message.
max_tokensinteger
The maximum number of tokens to generate in the completion.
Default: 1024Min: 1
temperaturenumber
Sampling temperature between 0 and 2. Higher values make output more random, lower values more focused and deterministic.
Default: 0.7Min: 0Max: 2
top_pnumber
Nucleus sampling parameter. The model considers the tokens with top_p probability mass.
Default: 1Min: 0Max: 1
streamboolean
If set to true, partial message deltas will be sent as server-sent events.
Default: false
stoparray[string]
Up to 4 sequences where the API will stop generating further tokens.
frequency_penaltynumber
Penalizes new tokens based on their existing frequency in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2
presence_penaltynumber
Penalizes new tokens based on whether they appear in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2

Przykładowa treść żądania

json
{
  "model": "deepseek-ai/deepseek-r1-0528",
  "messages": [
    {
      "role": "user",
      "content": "Hello"
    }
  ],
  "max_tokens": 1024,
  "temperature": 0.7,
  "stream": false
}

Schema wyjściowy

API zwraca odpowiedź kompatybilną z ChatCompletion.

idstringrequired
Unique identifier for the completion.
objectstringrequired
Object type, always "chat.completion".
Default: "chat.completion"
createdintegerrequired
Unix timestamp of when the completion was created.
modelstringrequired
The model used for the completion.
choicesarray[object]required
List of completion choices.
indexintegerrequired
Index of the choice.
messageobjectrequired
The generated message.
finish_reasonstringrequired
The reason generation stopped.
stoplengthcontent_filter
usageobjectrequired
Token usage statistics.
prompt_tokensintegerrequired
Number of tokens in the prompt.
completion_tokensintegerrequired
Number of tokens in the completion.
total_tokensintegerrequired
Total tokens used.

Przykładowa odpowiedź

json
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "model-name",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I assist you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 10,
    "completion_tokens": 20,
    "total_tokens": 30
  }
}

Atlas Cloud Skills

Atlas Cloud Skills integruje ponad 300 modeli AI bezpośrednio z Twoim asystentem kodowania AI. Jedno polecenie do instalacji, a następnie używaj języka naturalnego do generowania obrazów, filmów i rozmów z LLM.

Obsługiwani klienci

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ obsługiwani klienci

Instalacja

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

Skonfiguruj klucz API

Uzyskaj klucz API z panelu Atlas Cloud i ustaw go jako zmienną środowiskową.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

Możliwości

Po zainstalowaniu możesz używać języka naturalnego w swoim asystencie AI, aby uzyskać dostęp do wszystkich modeli Atlas Cloud.

Generowanie obrazówGeneruj obrazy za pomocą modeli takich jak Nano Banana 2, Z-Image i inne.
Tworzenie wideoTwórz filmy z tekstu lub obrazów za pomocą Kling, Vidu, Veo itp.
Chat LLMRozmawiaj z Qwen, DeepSeek i innymi dużymi modelami językowymi.
Przesyłanie mediówPrześlij lokalne pliki do edycji obrazów i przepływów pracy obraz-do-wideo.

Serwer MCP

Serwer MCP Atlas Cloud łączy Twoje IDE z ponad 300 modelami AI za pośrednictwem Model Context Protocol. Działa z każdym klientem kompatybilnym z MCP.

Obsługiwani klienci

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ obsługiwani klienci

Instalacja

bash
npx -y atlascloud-mcp

Konfiguracja

Dodaj następującą konfigurację do pliku ustawień MCP w swoim IDE.

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

Dostępne narzędzia

atlas_generate_imageGeneruj obrazy z promptów tekstowych.
atlas_generate_videoTwórz filmy z tekstu lub obrazów.
atlas_chatRozmawiaj z dużymi modelami językowymi.
atlas_list_modelsPrzeglądaj ponad 300 dostępnych modeli AI.
atlas_quick_generateTworzenie treści w jednym kroku z automatycznym wyborem modelu.
atlas_upload_mediaPrześlij lokalne pliki do przepływów pracy API.

DeepSeek-R1-0528

1. Introduction

The DeepSeek R1 model has undergone a minor version upgrade, with the current version being DeepSeek-R1-0528. In the latest update, DeepSeek R1 has significantly improved its depth of reasoning and inference capabilities by leveraging increased computational resources and introducing algorithmic optimization mechanisms during post-training. The model has demonstrated outstanding performance across various benchmark evaluations, including mathematics, programming, and general logic. Its overall performance is now approaching that of leading models, such as O3 and Gemini 2.5 Pro.

Image 12

Compared to the previous version, the upgraded model shows significant improvements in handling complex reasoning tasks. For instance, in the AIME 2025 test, the model’s accuracy has increased from 70% in the previous version to 87.5% in the current version. This advancement stems from enhanced thinking depth during the reasoning process: in the AIME test set, the previous model used an average of 12K tokens per question, whereas the new version averages 23K tokens per question.

Beyond its improved reasoning capabilities, this version also offers a reduced hallucination rate, enhanced support for function calling, and better experience for vibe coding.

2. Evaluation Results

DeepSeek-R1-0528

For all our models, the maximum generation length is set to 64K tokens. For benchmarks requiring sampling, we use a temperature of 0.60.6, a top-p value of 0.950.95, and generate 16 responses per query to estimate pass@1.

CategoryBenchmark (Metric)DeepSeek R1DeepSeek R1 0528
General
MMLU-Redux (EM)92.993.4
MMLU-Pro (EM)84.085.0
GPQA-Diamond (Pass@1)71.581.0
SimpleQA (Correct)30.127.8
FRAMES (Acc.)82.583.0
Humanity's Last Exam (Pass@1)8.517.7
Code
LiveCodeBench (2408-2505) (Pass@1)63.573.3
Codeforces-Div1 (Rating)15301930
SWE Verified (Resolved)49.257.6
Aider-Polyglot (Acc.)53.371.6
Math
AIME 2024 (Pass@1)79.891.4
AIME 2025 (Pass@1)70.087.5
HMMT 2025 (Pass@1)41.779.4
CNMO 2024 (Pass@1)78.886.9
Tools
BFCL_v3_MultiTurn (Acc)-37.0
Tau-Bench (Pass@1)-53.5(Airline)/63.9(Retail)

Note: We use Agentless framework to evaluate model performance on SWE-Verified. We only evaluate text-only prompts in HLE testsets. GPT-4.1 is employed to act user role in Tau-bench evaluation.

Zacznij Od 300+ Modeli,

Przeglądaj wszystkie modele