kwaipilot/kat-coder-pro-v2

KAT Coder Pro is KwaiKAT's most advanced agentic coding model in the KAT-Coder series. Designed specifically for agentic coding tasks, it excels in real-world software engineering scenarios, achieving 73.4% solve rate on the SWE-Bench Verified benchmark.

LLMNEWHOT
首页
探索
kwaipilot/kat-coder-pro-v2
KAT Coder Pro V2
LLM
PRO

KAT Coder Pro is KwaiKAT's most advanced agentic coding model in the KAT-Coder series. Designed specifically for agentic coding tasks, it excels in real-world software engineering scenarios, achieving 73.4% solve rate on the SWE-Bench Verified benchmark.

参数

代码示例

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("ATLASCLOUD_API_KEY"),
    base_url="https://api.atlascloud.ai/v1"
)

response = client.chat.completions.create(
    model="kwaipilot/kat-coder-pro-v2",
    messages=[
    {
        "role": "user",
        "content": "hello"
    }
],
    max_tokens=1024,
    temperature=0.7
)

print(response.choices[0].message.content)

安装

安装所需的依赖包。

bash
pip install requests

认证

所有 API 请求需要通过 API Key 进行认证。您可以在 Atlas Cloud 控制台获取 API Key。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

HTTP 请求头

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
保护好您的 API Key

切勿在客户端代码或公开仓库中暴露您的 API Key。请使用环境变量或后端代理。

提交请求

import requests

url = "https://api.atlascloud.ai/v1/chat/completions"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "messages": [{"role": "user", "content": "Hello"}],
    "max_tokens": 1024
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

Input Schema

以下参数在请求体中被接受。

总计: 9必填: 2可选: 7
modelstringrequired
The model ID to use for the completion.
Example: "kwaipilot/kat-coder-pro-v2"
messagesarray[object]required
A list of messages comprising the conversation so far.
rolestringrequired
The role of the message author. One of "system", "user", or "assistant".
systemuserassistant
contentstringrequired
The content of the message.
max_tokensinteger
The maximum number of tokens to generate in the completion.
Default: 1024Min: 1
temperaturenumber
Sampling temperature between 0 and 2. Higher values make output more random, lower values more focused and deterministic.
Default: 0.7Min: 0Max: 2
top_pnumber
Nucleus sampling parameter. The model considers the tokens with top_p probability mass.
Default: 1Min: 0Max: 1
streamboolean
If set to true, partial message deltas will be sent as server-sent events.
Default: false
stoparray[string]
Up to 4 sequences where the API will stop generating further tokens.
frequency_penaltynumber
Penalizes new tokens based on their existing frequency in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2
presence_penaltynumber
Penalizes new tokens based on whether they appear in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2

请求体示例

json
{
  "model": "kwaipilot/kat-coder-pro-v2",
  "messages": [
    {
      "role": "user",
      "content": "Hello"
    }
  ],
  "max_tokens": 1024,
  "temperature": 0.7,
  "stream": false
}

Output Schema

API 返回兼容 ChatCompletion 的响应格式。

idstringrequired
Unique identifier for the completion.
objectstringrequired
Object type, always "chat.completion".
Default: "chat.completion"
createdintegerrequired
Unix timestamp of when the completion was created.
modelstringrequired
The model used for the completion.
choicesarray[object]required
List of completion choices.
indexintegerrequired
Index of the choice.
messageobjectrequired
The generated message.
finish_reasonstringrequired
The reason generation stopped.
stoplengthcontent_filter
usageobjectrequired
Token usage statistics.
prompt_tokensintegerrequired
Number of tokens in the prompt.
completion_tokensintegerrequired
Number of tokens in the completion.
total_tokensintegerrequired
Total tokens used.

响应示例

json
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "model-name",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I assist you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 10,
    "completion_tokens": 20,
    "total_tokens": 30
  }
}

Atlas Cloud Skills

Atlas Cloud Skills 将 300+ AI 模型直接集成到您的 AI 编程助手中。一条命令安装,即可用自然语言生成图像、视频和与 LLM 对话。

支持的客户端

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ 支持的客户端

安装

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

设置 API Key

从 Atlas Cloud 控制台获取 API Key,并将其设置为环境变量。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

功能

安装后,您可以在 AI 助手中使用自然语言访问所有 Atlas Cloud 模型。

图像生成使用 Nano Banana 2、Z-Image 等模型生成图像。
视频创作使用 Kling、Vidu、Veo 等模型从文本或图像创建视频。
LLM 对话与 Qwen、DeepSeek 等大语言模型对话。
媒体上传上传本地文件用于图像编辑和图生视频工作流。

MCP Server

Atlas Cloud MCP Server 通过 Model Context Protocol 将您的 IDE 与 300+ AI 模型连接。支持任何兼容 MCP 的客户端。

支持的客户端

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ 支持的客户端

安装

bash
npx -y atlascloud-mcp

配置

将以下配置添加到您的 IDE 的 MCP 设置文件中。

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

可用工具

atlas_generate_image从文本提示生成图像。
atlas_generate_video从文本或图像创建视频。
atlas_chat与大语言模型对话。
atlas_list_models浏览 300+ 可用 AI 模型。
atlas_quick_generate一步式内容创建,自动选择最佳模型。
atlas_upload_media上传本地文件用于 API 工作流。
精英 AI 编程

KAT-Coder: 精英 AI 代码生成

SWE-Bench Verified 73.4% - 超越行业领导者

KAT-Coder 是快手 AI 研究部门 Kwaipilot 的旗舰闭源 AI 编程模型,代表了智能体代码生成技术的巅峰。采用混合专家架构,拥有 720 亿活跃参数,通过大规模智能体强化学习训练,KAT-Coder 在 SWE-Bench Verified 基准测试中获得 73.4% 的分数,与 GPT-5 High 和 Claude Sonnet 4.5 并列全球最佳代码生成模型。

73.4%
SWE-Bench 验证得分
256K
上下文窗口
72B
活跃参数

行业领先性能

KAT-Coder 在 SWE-Bench Verified(真实软件工程任务的行业标准基准)上与世界最佳代码生成模型竞争

🥇
Claude Sonnet 4.5
77.2%
🥈
GPT-5 High
74.9%
🥉
KAT-Coder Pro
73.4%
* 基于 SWE-Bench Verified 基准测试分数。不同代码生成任务的性能可能有所不同。

核心能力

混合专家架构

采用先进的 MoE 设计,在超过 1 万亿总参数中拥有 720 亿活跃参数,在复杂软件工程任务上提供最先进的性能。

  • 720 亿活跃参数实现最佳效率
  • 基于 Qwen 模型家族基础
  • 针对企业级代码库优化

智能体强化学习

通过包括大规模智能体强化学习的多阶段训练管道进行训练,能够自主完成复杂的软件工程任务。

  • 共享前缀轨迹优化
  • 熵塑造优势机制
  • 在真实 Git 提交和 PR 上训练

多工具集成

通过真实沙盒执行数据与数千种工具交互的内置能力,支持实际的软件开发工作流程。

  • 来自数千种工具的交互数据
  • 沙盒环境中的真实执行
  • 无缝 API 和 CLI 集成

256K 上下文窗口

广泛的上下文支持能够处理复杂的多轮编程交互,并有效管理大规模代码库。

  • 同时处理多个文件
  • 维护长对话历史
  • 跨文件推理和重构

Git 原生训练

在来自企业仓库的真实 Git 提交和 PR 数据上训练,原生理解版本控制工作流程。

  • 真实仓库提交模式
  • 拉取请求最佳实践
  • 代码审查和协作模式

企业级质量

高质量的领域特定数据,包括 30 多个类别的指令遵循和通用推理能力。

  • 30 多个指令遵循类别
  • 边缘情况的高级推理
  • 生产就绪的代码生成

多阶段训练管道

KAT-Coder 的训练方法代表了 AI 编程模型的重大进步,结合多个训练阶段以实现最佳性能

01

中期训练

基础阶段,包含编程知识注入和高质量领域特定数据

02

监督微调 (SFT)

跨 30 多个类别的指令遵循和对话训练

03

强化微调 (RFT)

增强推理和问题解决能力

04

智能体强化学习

在企业代码库上进行大规模强化学习,实现自主任务完成

完美适用于

🐛

复杂调试

通过多文件上下文理解,在大型代码库中识别和修复错误

🔧

大型代码库重构

系统性重构,了解架构模式和依赖关系

📝

多文件代码生成

生成跨多个文件的连贯代码并正确集成

📚

仓库理解

分析和理解大型仓库,提供深入的架构洞察

技术规格

架构混合专家 (MoE)
活跃参数约 720 亿
总参数超过 1 万亿
上下文窗口256,000 tokens
基础模型Qwen 系列
工具使用数千种工具
多轮对话数百轮
指令类别30 多个类别
许可证闭源 (商用)
开源变体KAT-Dev-32B, KAT-Dev-72B-Exp

开源变体

虽然 KAT-Coder Pro 是闭源的,但 Kwaipilot 已在 HuggingFace 上发布了 Apache-2.0 许可的开源替代版本

KAT-Dev-32B

开源

优化的 320 亿参数变体,通过包括监督微调和强化学习的多阶段训练。

Apache-2.0 许可证用于商业用途
在 HuggingFace 上可用
生产就绪性能

KAT-Dev-72B-Exp

实验性

实验性 720 亿参数变体,推动开源代码生成能力的边界。

用于复杂任务的更大模型
高级推理能力
研究和生产使用

体验精英代码生成

立即通过我们的 API 开始使用 KAT-Coder。加入全球开发者行列,信赖 KAT-Coder 完成关键任务软件工程工作。

行业领先的 73.4% SWE-Bench 分数
256K 上下文用于大型代码库
多工具集成支持

300+ 模型,即刻开启,

探索全部模型