kwaipilot/kat-coder-pro-v2

KAT Coder Pro is KwaiKAT's most advanced agentic coding model in the KAT-Coder series. Designed specifically for agentic coding tasks, it excels in real-world software engineering scenarios, achieving 73.4% solve rate on the SWE-Bench Verified benchmark.

LLMNEWHOT
Accueil
Explorer
kwaipilot/kat-coder-pro-v2
KAT Coder Pro V2
LLM
PRO

KAT Coder Pro is KwaiKAT's most advanced agentic coding model in the KAT-Coder series. Designed specifically for agentic coding tasks, it excels in real-world software engineering scenarios, achieving 73.4% solve rate on the SWE-Bench Verified benchmark.

Paramètres

Exemple de code

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("ATLASCLOUD_API_KEY"),
    base_url="https://api.atlascloud.ai/v1"
)

response = client.chat.completions.create(
    model="kwaipilot/kat-coder-pro-v2",
    messages=[
    {
        "role": "user",
        "content": "hello"
    }
],
    max_tokens=1024,
    temperature=0.7
)

print(response.choices[0].message.content)

Installer

Installez le package requis pour votre langage.

bash
pip install requests

Authentification

Toutes les requêtes API nécessitent une authentification via une clé API. Vous pouvez obtenir votre clé API depuis le tableau de bord Atlas Cloud.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

En-têtes HTTP

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
Protégez votre clé API

N'exposez jamais votre clé API dans du code côté client ou dans des dépôts publics. Utilisez plutôt des variables d'environnement ou un proxy backend.

Soumettre une requête

import requests

url = "https://api.atlascloud.ai/v1/chat/completions"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "messages": [{"role": "user", "content": "Hello"}],
    "max_tokens": 1024
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

Schema d'entrée

Les paramètres suivants sont acceptés dans le corps de la requête.

Total: 9Requis: 2Optionnel: 7
modelstringrequired
The model ID to use for the completion.
Example: "kwaipilot/kat-coder-pro-v2"
messagesarray[object]required
A list of messages comprising the conversation so far.
rolestringrequired
The role of the message author. One of "system", "user", or "assistant".
systemuserassistant
contentstringrequired
The content of the message.
max_tokensinteger
The maximum number of tokens to generate in the completion.
Default: 1024Min: 1
temperaturenumber
Sampling temperature between 0 and 2. Higher values make output more random, lower values more focused and deterministic.
Default: 0.7Min: 0Max: 2
top_pnumber
Nucleus sampling parameter. The model considers the tokens with top_p probability mass.
Default: 1Min: 0Max: 1
streamboolean
If set to true, partial message deltas will be sent as server-sent events.
Default: false
stoparray[string]
Up to 4 sequences where the API will stop generating further tokens.
frequency_penaltynumber
Penalizes new tokens based on their existing frequency in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2
presence_penaltynumber
Penalizes new tokens based on whether they appear in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2

Exemple de corps de requête

json
{
  "model": "kwaipilot/kat-coder-pro-v2",
  "messages": [
    {
      "role": "user",
      "content": "Hello"
    }
  ],
  "max_tokens": 1024,
  "temperature": 0.7,
  "stream": false
}

Schema de sortie

L'API renvoie une réponse compatible ChatCompletion.

idstringrequired
Unique identifier for the completion.
objectstringrequired
Object type, always "chat.completion".
Default: "chat.completion"
createdintegerrequired
Unix timestamp of when the completion was created.
modelstringrequired
The model used for the completion.
choicesarray[object]required
List of completion choices.
indexintegerrequired
Index of the choice.
messageobjectrequired
The generated message.
finish_reasonstringrequired
The reason generation stopped.
stoplengthcontent_filter
usageobjectrequired
Token usage statistics.
prompt_tokensintegerrequired
Number of tokens in the prompt.
completion_tokensintegerrequired
Number of tokens in the completion.
total_tokensintegerrequired
Total tokens used.

Exemple de réponse

json
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "model-name",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I assist you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 10,
    "completion_tokens": 20,
    "total_tokens": 30
  }
}

Atlas Cloud Skills

Atlas Cloud Skills intègre plus de 300 modèles d'IA directement dans votre assistant de codage IA. Une seule commande pour installer, puis utilisez le langage naturel pour générer des images, des vidéos et discuter avec des LLM.

Clients pris en charge

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ clients pris en charge

Installer

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

Configurer la clé API

Obtenez votre clé API depuis le tableau de bord Atlas Cloud et définissez-la comme variable d'environnement.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

Fonctionnalités

Une fois installé, vous pouvez utiliser le langage naturel dans votre assistant IA pour accéder à tous les modèles Atlas Cloud.

Génération d'imagesGénérez des images avec des modèles comme Nano Banana 2, Z-Image, et plus encore.
Création de vidéosCréez des vidéos à partir de texte ou d'images avec Kling, Vidu, Veo, etc.
Chat LLMDiscutez avec Qwen, DeepSeek et d'autres grands modèles de langage.
Téléchargement de médiasTéléchargez des fichiers locaux pour l'édition d'images et les workflows image-vers-vidéo.

Serveur MCP

Le serveur MCP Atlas Cloud connecte votre IDE avec plus de 300 modèles d'IA via le Model Context Protocol. Compatible avec tout client compatible MCP.

Clients pris en charge

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ clients pris en charge

Installer

bash
npx -y atlascloud-mcp

Configuration

Ajoutez la configuration suivante au fichier de paramètres MCP de votre IDE.

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

Outils disponibles

atlas_generate_imageGénérez des images à partir de prompts textuels.
atlas_generate_videoCréez des vidéos à partir de texte ou d'images.
atlas_chatDiscutez avec de grands modèles de langage.
atlas_list_modelsParcourez plus de 300 modèles d'IA disponibles.
atlas_quick_generateCréation de contenu en une étape avec sélection automatique du modèle.
atlas_upload_mediaTéléchargez des fichiers locaux pour les workflows API.
Codage IA d'Élite

KAT-Coder : Génération de Code IA d'Élite

73,4 % SWE-Bench Verified - Surpasser les Leaders de l'Industrie

KAT-Coder est le modèle de codage IA propriétaire phare de Kwaipilot (division de recherche IA de Kuaishou), représentant le summum de la technologie de génération de code agentique. Propulsé par une architecture Mixture-of-Experts avec 72 milliards de paramètres actifs et entraîné via un apprentissage par renforcement agentique à grande échelle, KAT-Coder atteint un score de 73,4 % sur SWE-Bench Verified, se classant parmi les meilleurs modèles de génération de code au monde aux côtés de GPT-5 High et Claude Sonnet 4.5.

73.4%
Score SWE-Bench Vérifié
256K
Fenêtre de Contexte
72B
Paramètres Actifs

Performance Leader de l'Industrie

KAT-Coder rivalise avec les meilleurs modèles de génération de code au monde sur SWE-Bench Verified, le benchmark standard de l'industrie pour les tâches d'ingénierie logicielle du monde réel

🥇
Claude Sonnet 4.5
77.2%
🥈
GPT-5 High
74.9%
🥉
KAT-Coder Pro
73.4%
* Basé sur les scores du benchmark SWE-Bench Verified. Les performances peuvent varier selon les différentes tâches de génération de code.

Capacités Principales

Architecture Mixture-of-Experts

Exploite une conception MoE avancée avec 72 milliards de paramètres actifs sur plus de 1 billion au total, offrant des performances de pointe sur les tâches complexes d'ingénierie logicielle.

  • 72 milliards de paramètres actifs pour une efficacité optimale
  • Basé sur la famille de modèles Qwen
  • Optimisé pour les bases de code à l'échelle d'entreprise

Apprentissage par Renforcement Agentique

Entraîné via un pipeline multi-étapes incluant un RL agentique à grande échelle, permettant l'achèvement autonome de tâches complexes d'ingénierie logicielle.

  • Optimisation de trajectoire de préfixe partagé
  • Mécanisme d'avantage de mise en forme d'entropie
  • Entraînement sur de vrais commits et PRs Git

Intégration Multi-Outils

Capacités intégrées pour interagir avec des milliers d'outils via des données d'exécution réelles en environnement sandbox, permettant des flux de travail pratiques de développement logiciel.

  • Données d'interaction de milliers d'outils
  • Exécution réelle en environnements sandbox
  • Intégration transparente d'API et CLI

Fenêtre de Contexte 256K

Un support de contexte étendu permet de gérer des interactions de codage sophistiquées multi-tours et de gérer efficacement des bases de code à grande échelle.

  • Gérer plusieurs fichiers simultanément
  • Maintenir un long historique conversationnel
  • Raisonnement et refactorisation inter-fichiers

Entraînement Natif Git

Entraîné sur de vraies données de commits et PRs Git provenant de dépôts d'entreprise, comprenant nativement les flux de travail de contrôle de version.

  • Modèles de commits de dépôts réels
  • Meilleures pratiques de pull request
  • Modèles de revue de code et de collaboration

Qualité de Niveau Entreprise

Données spécifiques au domaine de haute qualité incluant le suivi d'instructions sur plus de 30 catégories et des capacités de raisonnement général.

  • Plus de 30 catégories de suivi d'instructions
  • Raisonnement avancé pour les cas limites
  • Génération de code prête pour la production

Pipeline d'Entraînement Multi-Étapes

La méthodologie d'entraînement de KAT-Coder représente une avancée significative dans les modèles de codage IA, combinant plusieurs étapes d'entraînement pour des performances optimales

01

Entraînement Intermédiaire

Étape fondamentale avec injection de connaissances de codage et données spécifiques au domaine de haute qualité

02

Affinage Supervisé (SFT)

Suivi d'instructions et entraînement au dialogue sur plus de 30 catégories

03

Affinage par Renforcement (RFT)

Capacités améliorées de raisonnement et de résolution de problèmes

04

Apprentissage par Renforcement Agentique

RL à grande échelle sur des bases de code d'entreprise avec achèvement autonome de tâches

Parfait Pour

🐛

Débogage Complexe

Identifier et corriger les bugs dans de grandes bases de code avec compréhension du contexte multi-fichiers

🔧

Refactorisation de Grandes Bases de Code

Refactorisation systématique avec prise en compte des modèles architecturaux et des dépendances

📝

Génération de Code Multi-Fichiers

Générer du code cohérent sur plusieurs fichiers avec une intégration appropriée

📚

Compréhension de Dépôt

Analyser et comprendre de grands dépôts avec des insights architecturaux profonds

Spécifications Techniques

architectureMixture-of-Experts (MoE)
paramètres_actifs~72 milliards
paramètres_totaux>1 billion
fenêtre_de_contexte256 000 tokens
modèle_de_baseFamille Qwen
utilisation_d'outilsDes milliers d'outils
dialogue_multi-toursDes centaines de tours
catégories_d'instructionsPlus de 30 catégories
licencePropriétaire (Commercial)
variantes_open_sourceKAT-Dev-32B, KAT-Dev-72B-Exp

Variantes Open Source

Bien que KAT-Coder Pro soit propriétaire, Kwaipilot a publié des alternatives open source disponibles sur HuggingFace sous licence Apache-2.0

KAT-Dev-32B

Open Source

Variante optimisée de 32 milliards de paramètres avec entraînement multi-étapes incluant affinage supervisé et apprentissage par renforcement.

Licence Apache-2.0 pour usage commercial
Disponible sur HuggingFace
Performance prête pour la production

KAT-Dev-72B-Exp

Expérimental

Variante expérimentale de 72 milliards de paramètres repoussant les limites des capacités de génération de code open source.

Modèle plus grand pour tâches complexes
Capacités de raisonnement avancées
Usage en recherche et production

Découvrez la Génération de Code d'Élite

Commencez à utiliser KAT-Coder dès aujourd'hui via notre API. Rejoignez les développeurs du monde entier qui font confiance à KAT-Coder pour les tâches d'ingénierie logicielle critiques.

Score SWE-Bench de 73,4 % leader de l'industrie
256K de contexte pour grandes bases de code
Support d'intégration multi-outils

Commencez avec Plus de 300 Modèles,

Explorer tous les modèles