deepseek-ai/deepseek-r1-0528

The advanced LLM

LLMFP8HOT
탐색
DeepSeek LLM Models
deepseek-ai/deepseek-r1-0528
DeepSeek-R1-0528
LLM

The advanced LLM

파라미터

코드 예시

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("ATLASCLOUD_API_KEY"),
    base_url="https://api.atlascloud.ai/v1"
)

response = client.chat.completions.create(
    model="deepseek-ai/deepseek-r1-0528",
    messages=[
    {
        "role": "user",
        "content": "hello"
    }
],
    max_tokens=1024,
    temperature=0.7
)

print(response.choices[0].message.content)

설치

사용하는 언어에 필요한 패키지를 설치하세요.

bash
pip install requests

인증

모든 API 요청에는 API 키를 통한 인증이 필요합니다. Atlas Cloud 대시보드에서 API 키를 받을 수 있습니다.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

HTTP 헤더

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
API 키를 안전하게 보관하세요

클라이언트 측 코드나 공개 저장소에 API 키를 노출하지 마세요. 대신 환경 변수 또는 백엔드 프록시를 사용하세요.

요청 제출

import requests

url = "https://api.atlascloud.ai/v1/chat/completions"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "messages": [{"role": "user", "content": "Hello"}],
    "max_tokens": 1024
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

입력 Schema

다음 매개변수가 요청 본문에서 사용 가능합니다.

전체: 9필수: 2선택: 7
modelstringrequired
The model ID to use for the completion.
Example: "deepseek-ai/deepseek-r1-0528"
messagesarray[object]required
A list of messages comprising the conversation so far.
rolestringrequired
The role of the message author. One of "system", "user", or "assistant".
systemuserassistant
contentstringrequired
The content of the message.
max_tokensinteger
The maximum number of tokens to generate in the completion.
Default: 1024Min: 1
temperaturenumber
Sampling temperature between 0 and 2. Higher values make output more random, lower values more focused and deterministic.
Default: 0.7Min: 0Max: 2
top_pnumber
Nucleus sampling parameter. The model considers the tokens with top_p probability mass.
Default: 1Min: 0Max: 1
streamboolean
If set to true, partial message deltas will be sent as server-sent events.
Default: false
stoparray[string]
Up to 4 sequences where the API will stop generating further tokens.
frequency_penaltynumber
Penalizes new tokens based on their existing frequency in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2
presence_penaltynumber
Penalizes new tokens based on whether they appear in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2

요청 본문 예시

json
{
  "model": "deepseek-ai/deepseek-r1-0528",
  "messages": [
    {
      "role": "user",
      "content": "Hello"
    }
  ],
  "max_tokens": 1024,
  "temperature": 0.7,
  "stream": false
}

출력 Schema

API는 ChatCompletion 호환 응답을 반환합니다.

idstringrequired
Unique identifier for the completion.
objectstringrequired
Object type, always "chat.completion".
Default: "chat.completion"
createdintegerrequired
Unix timestamp of when the completion was created.
modelstringrequired
The model used for the completion.
choicesarray[object]required
List of completion choices.
indexintegerrequired
Index of the choice.
messageobjectrequired
The generated message.
finish_reasonstringrequired
The reason generation stopped.
stoplengthcontent_filter
usageobjectrequired
Token usage statistics.
prompt_tokensintegerrequired
Number of tokens in the prompt.
completion_tokensintegerrequired
Number of tokens in the completion.
total_tokensintegerrequired
Total tokens used.

응답 예시

json
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "model-name",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I assist you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 10,
    "completion_tokens": 20,
    "total_tokens": 30
  }
}

Atlas Cloud Skills

Atlas Cloud Skills는 300개 이상의 AI 모델을 AI 코딩 어시스턴트에 직접 통합합니다. 한 번의 명령으로 설치하고 자연어로 이미지, 동영상 생성 및 LLM과 대화할 수 있습니다.

지원 클라이언트

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ 지원 클라이언트

설치

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

API 키 설정

Atlas Cloud 대시보드에서 API 키를 받아 환경 변수로 설정하세요.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

기능

설치 후 AI 어시스턴트에서 자연어를 사용하여 모든 Atlas Cloud 모델에 접근할 수 있습니다.

이미지 생성Nano Banana 2, Z-Image 등의 모델로 이미지를 생성합니다.
동영상 제작Kling, Vidu, Veo 등으로 텍스트나 이미지에서 동영상을 만듭니다.
LLM 채팅Qwen, DeepSeek 등 대규모 언어 모델과 대화합니다.
미디어 업로드이미지 편집 및 이미지-동영상 변환 워크플로우를 위해 로컬 파일을 업로드합니다.

MCP Server

Atlas Cloud MCP Server는 Model Context Protocol을 통해 IDE와 300개 이상의 AI 모델을 연결합니다. MCP 호환 클라이언트에서 사용할 수 있습니다.

지원 클라이언트

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ 지원 클라이언트

설치

bash
npx -y atlascloud-mcp

설정

다음 설정을 IDE의 MCP 설정 파일에 추가하세요.

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

사용 가능한 도구

atlas_generate_image텍스트 프롬프트로 이미지를 생성합니다.
atlas_generate_video텍스트나 이미지로 동영상을 만듭니다.
atlas_chat대규모 언어 모델과 대화합니다.
atlas_list_models300개 이상의 사용 가능한 AI 모델을 탐색합니다.
atlas_quick_generate자동 모델 선택으로 원스텝 콘텐츠 생성.
atlas_upload_mediaAPI 워크플로우를 위해 로컬 파일을 업로드합니다.

DeepSeek-R1-0528

1. Introduction

The DeepSeek R1 model has undergone a minor version upgrade, with the current version being DeepSeek-R1-0528. In the latest update, DeepSeek R1 has significantly improved its depth of reasoning and inference capabilities by leveraging increased computational resources and introducing algorithmic optimization mechanisms during post-training. The model has demonstrated outstanding performance across various benchmark evaluations, including mathematics, programming, and general logic. Its overall performance is now approaching that of leading models, such as O3 and Gemini 2.5 Pro.

Image 12

Compared to the previous version, the upgraded model shows significant improvements in handling complex reasoning tasks. For instance, in the AIME 2025 test, the model’s accuracy has increased from 70% in the previous version to 87.5% in the current version. This advancement stems from enhanced thinking depth during the reasoning process: in the AIME test set, the previous model used an average of 12K tokens per question, whereas the new version averages 23K tokens per question.

Beyond its improved reasoning capabilities, this version also offers a reduced hallucination rate, enhanced support for function calling, and better experience for vibe coding.

2. Evaluation Results

DeepSeek-R1-0528

For all our models, the maximum generation length is set to 64K tokens. For benchmarks requiring sampling, we use a temperature of 0.60.6, a top-p value of 0.950.95, and generate 16 responses per query to estimate pass@1.

CategoryBenchmark (Metric)DeepSeek R1DeepSeek R1 0528
General
MMLU-Redux (EM)92.993.4
MMLU-Pro (EM)84.085.0
GPQA-Diamond (Pass@1)71.581.0
SimpleQA (Correct)30.127.8
FRAMES (Acc.)82.583.0
Humanity's Last Exam (Pass@1)8.517.7
Code
LiveCodeBench (2408-2505) (Pass@1)63.573.3
Codeforces-Div1 (Rating)15301930
SWE Verified (Resolved)49.257.6
Aider-Polyglot (Acc.)53.371.6
Math
AIME 2024 (Pass@1)79.891.4
AIME 2025 (Pass@1)70.087.5
HMMT 2025 (Pass@1)41.779.4
CNMO 2024 (Pass@1)78.886.9
Tools
BFCL_v3_MultiTurn (Acc)-37.0
Tau-Bench (Pass@1)-53.5(Airline)/63.9(Retail)

Note: We use Agentless framework to evaluate model performance on SWE-Verified. We only evaluate text-only prompts in HLE testsets. GPT-4.1 is employed to act user role in Tau-bench evaluation.

300개 이상의 모델로 시작하세요,

모든 모델 탐색