Qwen3 Coder
LLM

Qwen3 Coder API by Alibaba

Qwen/Qwen3-Coder
Qwen3-Coder

Qwen3-Coder is the code version of Qwen3.

पैरामीटर

कोड उदाहरण

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("ATLASCLOUD_API_KEY"),
    base_url="https://api.atlascloud.ai/v1"
)

response = client.chat.completions.create(
    model="Qwen/Qwen3-Coder",
    messages=[
    {
        "role": "user",
        "content": "hello"
    }
],
    max_tokens=1024,
    temperature=0.7
)

print(response.choices[0].message.content)

इंस्टॉल करें

अपनी प्रोग्रामिंग भाषा के लिए आवश्यक पैकेज इंस्टॉल करें।

bash
pip install requests

प्रमाणीकरण

सभी API अनुरोधों के लिए API कुंजी के माध्यम से प्रमाणीकरण आवश्यक है। आप अपनी API कुंजी Atlas Cloud डैशबोर्ड से प्राप्त कर सकते हैं।

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

HTTP हेडर

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
अपनी API कुंजी सुरक्षित रखें

क्लाइंट-साइड कोड या सार्वजनिक रिपॉज़िटरी में अपनी API कुंजी कभी उजागर न करें। इसके बजाय एनवायरनमेंट वेरिएबल या बैकएंड प्रॉक्सी का उपयोग करें।

अनुरोध सबमिट करें

import requests

url = "https://api.atlascloud.ai/v1/chat/completions"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "messages": [{"role": "user", "content": "Hello"}],
    "max_tokens": 1024
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

Input Schema

अनुरोध बॉडी में निम्नलिखित पैरामीटर स्वीकार किए जाते हैं।

कुल: 9आवश्यक: 2वैकल्पिक: 7
modelstringrequired
The model ID to use for the completion.
Example: "Qwen/Qwen3-Coder"
messagesarray[object]required
A list of messages comprising the conversation so far.
rolestringrequired
The role of the message author. One of "system", "user", or "assistant".
systemuserassistant
contentstringrequired
The content of the message.
max_tokensinteger
The maximum number of tokens to generate in the completion.
Default: 1024Min: 1
temperaturenumber
Sampling temperature between 0 and 2. Higher values make output more random, lower values more focused and deterministic.
Default: 0.7Min: 0Max: 2
top_pnumber
Nucleus sampling parameter. The model considers the tokens with top_p probability mass.
Default: 1Min: 0Max: 1
streamboolean
If set to true, partial message deltas will be sent as server-sent events.
Default: false
stoparray[string]
Up to 4 sequences where the API will stop generating further tokens.
frequency_penaltynumber
Penalizes new tokens based on their existing frequency in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2
presence_penaltynumber
Penalizes new tokens based on whether they appear in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2

अनुरोध बॉडी का उदाहरण

json
{
  "model": "Qwen/Qwen3-Coder",
  "messages": [
    {
      "role": "user",
      "content": "Hello"
    }
  ],
  "max_tokens": 1024,
  "temperature": 0.7,
  "stream": false
}

Output Schema

API एक ChatCompletion-संगत प्रतिक्रिया लौटाता है।

idstringrequired
Unique identifier for the completion.
objectstringrequired
Object type, always "chat.completion".
Default: "chat.completion"
createdintegerrequired
Unix timestamp of when the completion was created.
modelstringrequired
The model used for the completion.
choicesarray[object]required
List of completion choices.
indexintegerrequired
Index of the choice.
messageobjectrequired
The generated message.
finish_reasonstringrequired
The reason generation stopped.
stoplengthcontent_filter
usageobjectrequired
Token usage statistics.
prompt_tokensintegerrequired
Number of tokens in the prompt.
completion_tokensintegerrequired
Number of tokens in the completion.
total_tokensintegerrequired
Total tokens used.

प्रतिक्रिया का उदाहरण

json
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "model-name",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I assist you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 10,
    "completion_tokens": 20,
    "total_tokens": 30
  }
}

Atlas Cloud Skills

Atlas Cloud Skills 300+ AI मॉडल को सीधे आपके AI कोडिंग असिस्टेंट में इंटीग्रेट करता है। इंस्टॉल करने के लिए एक कमांड, फिर इमेज, वीडियो जनरेट करने और LLM के साथ चैट करने के लिए प्राकृतिक भाषा का उपयोग करें।

समर्थित क्लाइंट

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ समर्थित क्लाइंट

इंस्टॉल करें

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

API कुंजी सेटअप करें

Atlas Cloud डैशबोर्ड से अपनी API कुंजी प्राप्त करें और इसे एनवायरनमेंट वेरिएबल के रूप में सेट करें।

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

क्षमताएँ

एक बार इंस्टॉल होने के बाद, आप सभी Atlas Cloud मॉडल तक पहुँचने के लिए अपने AI असिस्टेंट में प्राकृतिक भाषा का उपयोग कर सकते हैं।

इमेज जनरेशनNano Banana 2, Z-Image और अन्य मॉडल के साथ इमेज जनरेट करें।
वीडियो निर्माणKling, Vidu, Veo आदि के साथ टेक्स्ट या इमेज से वीडियो बनाएँ।
LLM चैटQwen, DeepSeek और अन्य बड़े भाषा मॉडल के साथ चैट करें।
मीडिया अपलोडइमेज एडिटिंग और इमेज-टू-वीडियो वर्कफ़्लो के लिए लोकल फ़ाइलें अपलोड करें।

MCP Server

Atlas Cloud MCP Server आपके IDE को Model Context Protocol के माध्यम से 300+ AI मॉडल से जोड़ता है। किसी भी MCP-संगत क्लाइंट के साथ काम करता है।

समर्थित क्लाइंट

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ समर्थित क्लाइंट

इंस्टॉल करें

bash
npx -y atlascloud-mcp

कॉन्फ़िगरेशन

अपने IDE की MCP सेटिंग्स फ़ाइल में निम्नलिखित कॉन्फ़िगरेशन जोड़ें।

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

उपलब्ध टूल

atlas_generate_imageटेक्स्ट प्रॉम्प्ट से इमेज जनरेट करें।
atlas_generate_videoटेक्स्ट या इमेज से वीडियो बनाएँ।
atlas_chatबड़े भाषा मॉडल के साथ चैट करें।
atlas_list_models300+ उपलब्ध AI मॉडल ब्राउज़ करें।
atlas_quick_generateऑटो मॉडल चयन के साथ एक-चरण कंटेंट निर्माण।
atlas_upload_mediaAPI वर्कफ़्लो के लिए लोकल फ़ाइलें अपलोड करें।

Qwen3-Coder-480B-A35B-Instruct

Highlights

Qwen3-Coder-480B-A35B-Instruct. featuring the following key enhancements:

  • Significant Performance among open models on Agentic Coding, Agentic Browser-Use, and other foundational coding tasks, achieving results comparable to Claude Sonnet.
  • Long-context Capabilities with native support for 256K tokens, extendable up to 1M tokens using Yarn, optimized for repository-scale understanding.
  • Agentic Coding supporting for most platform such as Qwen Code, CLINE, featuring a specially designed function call format.

Model Overview

Qwen3-480B-A35B-Instruct has the following features:

  • Type: Causal Language Models
  • Training Stage: Pretraining & Post-training
  • Number of Parameters: 480B in total and 35B activated
  • Number of Layers: 62
  • Number of Attention Heads (GQA): 96 for Q and 8 for KV
  • Number of Experts: 160
  • Number of Activated Experts: 8
  • Context Length: 262,144 natively.

NOTE: This model supports only non-thinking mode and does not generate <think></think> blocks in its output. Meanwhile, specifying enable_thinking=False is no longer required.

समान मॉडल देखें

300+ मॉडल से शुरू करें,

सभी मॉडल एक्सप्लोर करें

Join our Discord community

Join the Discord community for the latest model updates, prompts, and support.