kwaipilot/kat-coder-pro-v2

KAT Coder Pro is KwaiKAT's most advanced agentic coding model in the KAT-Coder series. Designed specifically for agentic coding tasks, it excels in real-world software engineering scenarios, achieving 73.4% solve rate on the SWE-Bench Verified benchmark.

LLMNEWHOT
Inicio
Explorar
kwaipilot/kat-coder-pro-v2
KAT Coder Pro V2
LLM
PRO

KAT Coder Pro is KwaiKAT's most advanced agentic coding model in the KAT-Coder series. Designed specifically for agentic coding tasks, it excels in real-world software engineering scenarios, achieving 73.4% solve rate on the SWE-Bench Verified benchmark.

Parámetros

Ejemplo de código

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("ATLASCLOUD_API_KEY"),
    base_url="https://api.atlascloud.ai/v1"
)

response = client.chat.completions.create(
    model="kwaipilot/kat-coder-pro-v2",
    messages=[
    {
        "role": "user",
        "content": "hello"
    }
],
    max_tokens=1024,
    temperature=0.7
)

print(response.choices[0].message.content)

Instalar

Instala el paquete necesario para tu lenguaje de programación.

bash
pip install requests

Autenticación

Todas las solicitudes de API requieren autenticación mediante una clave de API. Puedes obtener tu clave de API desde el panel de Atlas Cloud.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

Encabezados HTTP

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
Mantén tu clave de API segura

Nunca expongas tu clave de API en código del lado del cliente ni en repositorios públicos. Usa variables de entorno o un proxy de backend en su lugar.

Enviar una solicitud

import requests

url = "https://api.atlascloud.ai/v1/chat/completions"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "messages": [{"role": "user", "content": "Hello"}],
    "max_tokens": 1024
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

Schema de entrada

Los siguientes parámetros se aceptan en el cuerpo de la solicitud.

Total: 9Obligatorio: 2Opcional: 7
modelstringrequired
The model ID to use for the completion.
Example: "kwaipilot/kat-coder-pro-v2"
messagesarray[object]required
A list of messages comprising the conversation so far.
rolestringrequired
The role of the message author. One of "system", "user", or "assistant".
systemuserassistant
contentstringrequired
The content of the message.
max_tokensinteger
The maximum number of tokens to generate in the completion.
Default: 1024Min: 1
temperaturenumber
Sampling temperature between 0 and 2. Higher values make output more random, lower values more focused and deterministic.
Default: 0.7Min: 0Max: 2
top_pnumber
Nucleus sampling parameter. The model considers the tokens with top_p probability mass.
Default: 1Min: 0Max: 1
streamboolean
If set to true, partial message deltas will be sent as server-sent events.
Default: false
stoparray[string]
Up to 4 sequences where the API will stop generating further tokens.
frequency_penaltynumber
Penalizes new tokens based on their existing frequency in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2
presence_penaltynumber
Penalizes new tokens based on whether they appear in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2

Ejemplo de cuerpo de solicitud

json
{
  "model": "kwaipilot/kat-coder-pro-v2",
  "messages": [
    {
      "role": "user",
      "content": "Hello"
    }
  ],
  "max_tokens": 1024,
  "temperature": 0.7,
  "stream": false
}

Schema de salida

La API devuelve una respuesta compatible con ChatCompletion.

idstringrequired
Unique identifier for the completion.
objectstringrequired
Object type, always "chat.completion".
Default: "chat.completion"
createdintegerrequired
Unix timestamp of when the completion was created.
modelstringrequired
The model used for the completion.
choicesarray[object]required
List of completion choices.
indexintegerrequired
Index of the choice.
messageobjectrequired
The generated message.
finish_reasonstringrequired
The reason generation stopped.
stoplengthcontent_filter
usageobjectrequired
Token usage statistics.
prompt_tokensintegerrequired
Number of tokens in the prompt.
completion_tokensintegerrequired
Number of tokens in the completion.
total_tokensintegerrequired
Total tokens used.

Ejemplo de respuesta

json
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "model-name",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I assist you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 10,
    "completion_tokens": 20,
    "total_tokens": 30
  }
}

Atlas Cloud Skills

Atlas Cloud Skills integra más de 300 modelos de IA directamente en tu asistente de codificación con IA. Un solo comando para instalar y luego usa lenguaje natural para generar imágenes, videos y chatear con LLM.

Clientes compatibles

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ clientes compatibles

Instalar

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

Configurar clave de API

Obtén tu clave de API desde el panel de Atlas Cloud y configúrala como variable de entorno.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

Funcionalidades

Una vez instalado, puedes usar lenguaje natural en tu asistente de IA para acceder a todos los modelos de Atlas Cloud.

Generación de imágenesGenera imágenes con modelos como Nano Banana 2, Z-Image y más.
Creación de videosCrea videos a partir de texto o imágenes con Kling, Vidu, Veo, etc.
Chat con LLMChatea con Qwen, DeepSeek y otros modelos de lenguaje de gran escala.
Carga de mediosSube archivos locales para flujos de trabajo de edición de imágenes e imagen a video.

MCP Server

Atlas Cloud MCP Server conecta tu IDE con más de 300 modelos de IA a través del Model Context Protocol. Funciona con cualquier cliente compatible con MCP.

Clientes compatibles

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ clientes compatibles

Instalar

bash
npx -y atlascloud-mcp

Configuración

Agrega la siguiente configuración al archivo de configuración de MCP de tu IDE.

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

Herramientas disponibles

atlas_generate_imageGenera imágenes a partir de indicaciones de texto.
atlas_generate_videoCrea videos a partir de texto o imágenes.
atlas_chatChatea con modelos de lenguaje de gran escala.
atlas_list_modelsExplora más de 300 modelos de IA disponibles.
atlas_quick_generateCreación de contenido en un solo paso con selección automática de modelo.
atlas_upload_mediaSube archivos locales para flujos de trabajo de API.
IA de Codificación de Élite

KAT-Coder: Generación de Código IA de Élite

73.4% SWE-Bench Verified - Superando a los Líderes de la Industria

KAT-Coder es el modelo de codificación IA de código cerrado insignia de Kwaipilot (división de investigación de IA de Kuaishou), representando la cúspide de la tecnología de generación de código agéntica. Impulsado por una arquitectura Mixture-of-Experts con 72 mil millones de parámetros activos y entrenado mediante aprendizaje por refuerzo agéntico a gran escala, KAT-Coder logra un 73.4% en SWE-Bench Verified, clasificándose entre los mejores modelos de generación de código a nivel mundial junto con GPT-5 High y Claude Sonnet 4.5.

73.4%
Puntuación SWE-Bench Verificada
256K
Ventana de Contexto
72B
Parámetros Activos

Rendimiento Líder en la Industria

KAT-Coder compite con los mejores modelos de generación de código del mundo en SWE-Bench Verified, el punto de referencia estándar de la industria para tareas de ingeniería de software del mundo real

🥇
Claude Sonnet 4.5
77.2%
🥈
GPT-5 High
74.9%
🥉
KAT-Coder Pro
73.4%
* Basado en puntuaciones del punto de referencia SWE-Bench Verified. El rendimiento puede variar según las diferentes tareas de generación de código.

Capacidades Principales

Arquitectura Mixture-of-Experts

Aprovecha el diseño MoE avanzado con 72 mil millones de parámetros activos de más de 1 billón en total, ofreciendo rendimiento de vanguardia en tareas complejas de ingeniería de software.

  • 72 mil millones de parámetros activos para eficiencia óptima
  • Construido sobre la familia de modelos Qwen
  • Optimizado para bases de código de escala empresarial

Aprendizaje por Refuerzo Agéntico

Entrenado mediante una tubería de múltiples etapas que incluye RL agéntico a gran escala, permitiendo la finalización autónoma de tareas complejas de ingeniería de software.

  • Optimización de trayectoria de prefijo compartido
  • Mecanismo de ventaja de modelado de entropía
  • Entrenamiento en commits y PRs reales de Git

Integración Multiherramienta

Capacidades integradas para interactuar con miles de herramientas a través de datos de ejecución reales en sandbox, permitiendo flujos de trabajo prácticos de desarrollo de software.

  • Datos de interacción de miles de herramientas
  • Ejecución real en entornos sandbox
  • Integración perfecta con API y CLI

Ventana de Contexto de 256K

El amplio soporte de contexto permite manejar interacciones de codificación sofisticadas de múltiples turnos y gestionar bases de código a gran escala de manera efectiva.

  • Manejar múltiples archivos simultáneamente
  • Mantener historial conversacional largo
  • Razonamiento y refactorización entre archivos

Entrenamiento Nativo en Git

Entrenado en datos reales de commits y PRs de Git de repositorios empresariales, comprendiendo nativamente los flujos de trabajo de control de versiones.

  • Patrones de commits de repositorios reales
  • Mejores prácticas de pull request
  • Patrones de revisión de código y colaboración

Calidad de Grado Empresarial

Datos específicos del dominio de alta calidad que incluyen seguimiento de instrucciones en más de 30 categorías y capacidades de razonamiento general.

  • Más de 30 categorías de seguimiento de instrucciones
  • Razonamiento avanzado para casos extremos
  • Generación de código lista para producción

Tubería de Entrenamiento Multi-Etapa

La metodología de entrenamiento de KAT-Coder representa un avance significativo en los modelos de codificación IA, combinando múltiples etapas de entrenamiento para un rendimiento óptimo

01

Entrenamiento Intermedio

Etapa fundamental con inyección de conocimiento de codificación y datos específicos del dominio de alta calidad

02

Ajuste Fino Supervisado (SFT)

Seguimiento de instrucciones y entrenamiento de diálogo en más de 30 categorías

03

Ajuste Fino por Refuerzo (RFT)

Capacidades mejoradas de razonamiento y resolución de problemas

04

Aprendizaje por Refuerzo Agéntico

RL a gran escala en bases de código empresariales con finalización autónoma de tareas

Perfecto Para

🐛

Depuración Compleja

Identificar y corregir errores en bases de código grandes con comprensión de contexto multifichero

🔧

Refactorización de Bases de Código Grandes

Refactorización sistemática con conocimiento de patrones arquitectónicos y dependencias

📝

Generación de Código Multifichero

Generar código coherente en múltiples archivos con integración adecuada

📚

Comprensión de Repositorios

Analizar y comprender repositorios grandes con conocimientos arquitectónicos profundos

Especificaciones Técnicas

arquitecturaMixture-of-Experts (MoE)
parámetros_activos~72 mil millones
parámetros_totales>1 billón
ventana_de_contexto256,000 tokens
modelo_baseFamilia Qwen
uso_de_herramientasMiles de herramientas
diálogo_multi_turnoCientos de turnos
categorías_de_instruccionesMás de 30 categorías
licenciaCódigo cerrado (Comercial)
variantes_de_código_abiertoKAT-Dev-32B, KAT-Dev-72B-Exp

Variantes de Código Abierto

Aunque KAT-Coder Pro es de código cerrado, Kwaipilot ha lanzado alternativas de código abierto disponibles en HuggingFace bajo licencia Apache-2.0

KAT-Dev-32B

Código Abierto

Variante optimizada de 32 mil millones de parámetros con entrenamiento multi-etapa que incluye ajuste fino supervisado y aprendizaje por refuerzo.

Licencia Apache-2.0 para uso comercial
Disponible en HuggingFace
Rendimiento listo para producción

KAT-Dev-72B-Exp

Experimental

Variante experimental de 72 mil millones de parámetros que amplía los límites de las capacidades de generación de código de código abierto.

Modelo más grande para tareas complejas
Capacidades de razonamiento avanzadas
Uso en investigación y producción

Experimente la Generación de Código de Élite

Comience a usar KAT-Coder hoy a través de nuestra API. Únase a desarrolladores de todo el mundo que confían en KAT-Coder para tareas críticas de ingeniería de software.

Puntuación líder de la industria del 73.4% en SWE-Bench
256K de contexto para bases de código grandes
Soporte de integración multiherramienta

Más de 300 Modelos, Comienza Ahora,

Explorar Todos los Modelos