
Qwen3 Coder API by Alibaba
Qwen3-Coder is the code version of Qwen3.
Exemplo de código
import os
from openai import OpenAI
client = OpenAI(
api_key=os.getenv("ATLASCLOUD_API_KEY"),
base_url="https://api.atlascloud.ai/v1"
)
response = client.chat.completions.create(
model="Qwen/Qwen3-Coder",
messages=[
{
"role": "user",
"content": "hello"
}
],
max_tokens=1024,
temperature=0.7
)
print(response.choices[0].message.content)Instalar
Instale o pacote necessário para a sua linguagem de programação.
pip install requestsAutenticação
Todas as solicitações de API requerem autenticação por meio de uma chave de API. Você pode obter sua chave de API no painel do Atlas Cloud.
export ATLASCLOUD_API_KEY="your-api-key-here"Cabeçalhos HTTP
import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}Nunca exponha sua chave de API em código do lado do cliente ou repositórios públicos. Use variáveis de ambiente ou um proxy de backend.
Enviar uma solicitação
import requests
url = "https://api.atlascloud.ai/v1/chat/completions"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"messages": [{"role": "user", "content": "Hello"}],
"max_tokens": 1024
}
response = requests.post(url, headers=headers, json=data)
print(response.json())Schema de entrada
Os seguintes parâmetros são aceitos no corpo da solicitação.
Exemplo de corpo da solicitação
{
"model": "Qwen/Qwen3-Coder",
"messages": [
{
"role": "user",
"content": "Hello"
}
],
"max_tokens": 1024,
"temperature": 0.7,
"stream": false
}Schema de saída
A API retorna uma resposta compatível com ChatCompletion.
Exemplo de resposta
{
"id": "chatcmpl-abc123",
"object": "chat.completion",
"created": 1700000000,
"model": "model-name",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "Hello! How can I assist you today?"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 10,
"completion_tokens": 20,
"total_tokens": 30
}
}Atlas Cloud Skills
O Atlas Cloud Skills integra mais de 300 modelos de IA diretamente no seu assistente de codificação com IA. Um comando para instalar e depois use linguagem natural para gerar imagens, vídeos e conversar com LLM.
Clientes compatíveis
Instalar
npx skills add AtlasCloudAI/atlas-cloud-skillsConfigurar chave de API
Obtenha sua chave de API no painel do Atlas Cloud e defina-a como variável de ambiente.
export ATLASCLOUD_API_KEY="your-api-key-here"Funcionalidades
Após a instalação, você pode usar linguagem natural no seu assistente de IA para acessar todos os modelos do Atlas Cloud.
MCP Server
O Atlas Cloud MCP Server conecta seu IDE com mais de 300 modelos de IA através do Model Context Protocol. Funciona com qualquer cliente compatível com MCP.
Clientes compatíveis
Instalar
npx -y atlascloud-mcpConfiguração
Adicione a seguinte configuração ao arquivo de configuração de MCP do seu IDE.
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}Ferramentas disponíveis
Qwen3-Coder-480B-A35B-Instruct
Highlights
Qwen3-Coder-480B-A35B-Instruct. featuring the following key enhancements:
- Significant Performance among open models on Agentic Coding, Agentic Browser-Use, and other foundational coding tasks, achieving results comparable to Claude Sonnet.
- Long-context Capabilities with native support for 256K tokens, extendable up to 1M tokens using Yarn, optimized for repository-scale understanding.
- Agentic Coding supporting for most platform such as Qwen Code, CLINE, featuring a specially designed function call format.
Model Overview
Qwen3-480B-A35B-Instruct has the following features:
- Type: Causal Language Models
- Training Stage: Pretraining & Post-training
- Number of Parameters: 480B in total and 35B activated
- Number of Layers: 62
- Number of Attention Heads (GQA): 96 for Q and 8 for KV
- Number of Experts: 160
- Number of Activated Experts: 8
- Context Length: 262,144 natively.
NOTE: This model supports only non-thinking mode and does not generate <think></think> blocks in its output. Meanwhile, specifying enable_thinking=False is no longer required.


