kwaipilot/kat-coder-pro-v2

KAT Coder Pro is KwaiKAT's most advanced agentic coding model in the KAT-Coder series. Designed specifically for agentic coding tasks, it excels in real-world software engineering scenarios, achieving 73.4% solve rate on the SWE-Bench Verified benchmark.

LLMNEWHOT
首頁
探索
kwaipilot/kat-coder-pro-v2
KAT Coder Pro V2
LLM
PRO

KAT Coder Pro is KwaiKAT's most advanced agentic coding model in the KAT-Coder series. Designed specifically for agentic coding tasks, it excels in real-world software engineering scenarios, achieving 73.4% solve rate on the SWE-Bench Verified benchmark.

參數

程式碼範例

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("ATLASCLOUD_API_KEY"),
    base_url="https://api.atlascloud.ai/v1"
)

response = client.chat.completions.create(
    model="kwaipilot/kat-coder-pro-v2",
    messages=[
    {
        "role": "user",
        "content": "hello"
    }
],
    max_tokens=1024,
    temperature=0.7
)

print(response.choices[0].message.content)

安裝

為您的程式語言安裝所需的套件。

bash
pip install requests

驗證

所有 API 請求都需要透過 API 金鑰進行驗證。您可以從 Atlas Cloud 儀表板取得 API 金鑰。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

HTTP 標頭

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
請妥善保管您的 API 金鑰

切勿在客戶端程式碼或公開儲存庫中暴露您的 API 金鑰。請改用環境變數或後端代理。

提交請求

import requests

url = "https://api.atlascloud.ai/v1/chat/completions"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "messages": [{"role": "user", "content": "Hello"}],
    "max_tokens": 1024
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

輸入 Schema

以下參數可在請求主體中使用。

總計: 9必填: 2選填: 7
modelstringrequired
The model ID to use for the completion.
Example: "kwaipilot/kat-coder-pro-v2"
messagesarray[object]required
A list of messages comprising the conversation so far.
rolestringrequired
The role of the message author. One of "system", "user", or "assistant".
systemuserassistant
contentstringrequired
The content of the message.
max_tokensinteger
The maximum number of tokens to generate in the completion.
Default: 1024Min: 1
temperaturenumber
Sampling temperature between 0 and 2. Higher values make output more random, lower values more focused and deterministic.
Default: 0.7Min: 0Max: 2
top_pnumber
Nucleus sampling parameter. The model considers the tokens with top_p probability mass.
Default: 1Min: 0Max: 1
streamboolean
If set to true, partial message deltas will be sent as server-sent events.
Default: false
stoparray[string]
Up to 4 sequences where the API will stop generating further tokens.
frequency_penaltynumber
Penalizes new tokens based on their existing frequency in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2
presence_penaltynumber
Penalizes new tokens based on whether they appear in the text so far. Between -2.0 and 2.0.
Default: 0Min: -2Max: 2

範例請求主體

json
{
  "model": "kwaipilot/kat-coder-pro-v2",
  "messages": [
    {
      "role": "user",
      "content": "Hello"
    }
  ],
  "max_tokens": 1024,
  "temperature": 0.7,
  "stream": false
}

輸出 Schema

API 傳回與 ChatCompletion 相容的回應。

idstringrequired
Unique identifier for the completion.
objectstringrequired
Object type, always "chat.completion".
Default: "chat.completion"
createdintegerrequired
Unix timestamp of when the completion was created.
modelstringrequired
The model used for the completion.
choicesarray[object]required
List of completion choices.
indexintegerrequired
Index of the choice.
messageobjectrequired
The generated message.
finish_reasonstringrequired
The reason generation stopped.
stoplengthcontent_filter
usageobjectrequired
Token usage statistics.
prompt_tokensintegerrequired
Number of tokens in the prompt.
completion_tokensintegerrequired
Number of tokens in the completion.
total_tokensintegerrequired
Total tokens used.

範例回應

json
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "model-name",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! How can I assist you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 10,
    "completion_tokens": 20,
    "total_tokens": 30
  }
}

Atlas Cloud Skills

Atlas Cloud Skills 將 300 多個 AI 模型直接整合至您的 AI 程式碼助手。一鍵安裝,即可使用自然語言生成圖片、影片,以及與 LLM 對話。

支援的客戶端

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ 支援的客戶端

安裝

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

設定 API 金鑰

從 Atlas Cloud 儀表板取得 API 金鑰,並設為環境變數。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

功能

安裝完成後,您可以在 AI 助手中使用自然語言存取所有 Atlas Cloud 模型。

圖片生成使用 Nano Banana 2、Z-Image 等模型生成圖片。
影片創作使用 Kling、Vidu、Veo 等從文字或圖片創建影片。
LLM 對話與 Qwen、DeepSeek 及其他大型語言模型對話。
媒體上傳上傳本機檔案,用於圖片編輯和圖片轉影片工作流程。

MCP Server

Atlas Cloud MCP Server 透過 Model Context Protocol 將您的 IDE 與 300 多個 AI 模型連接。支援任何 MCP 相容的客戶端。

支援的客戶端

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ 支援的客戶端

安裝

bash
npx -y atlascloud-mcp

設定

將以下設定新增至您 IDE 的 MCP 設定檔中。

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

可用工具

atlas_generate_image根據文字提示生成圖片。
atlas_generate_video從文字或圖片創建影片。
atlas_chat與大型語言模型對話。
atlas_list_models瀏覽 300 多個可用的 AI 模型。
atlas_quick_generate一步完成內容創建,自動選擇模型。
atlas_upload_media上傳本機檔案用於 API 工作流程。
精英 AI 程式設計

KAT-Coder: 精英 AI 程式碼生成

SWE-Bench Verified 73.4% - 超越行業領導者

KAT-Coder 是快手 AI 研究部門 Kwaipilot 的旗艦閉源 AI 程式設計模型,代表了智能體程式碼生成技術的巔峰。採用混合專家架構,擁有 720 億活躍參數,透過大規模智能體強化學習訓練,KAT-Coder 在 SWE-Bench Verified 基準測試中獲得 73.4% 的分數,與 GPT-5 High 和 Claude Sonnet 4.5 並列全球最佳程式碼生成模型。

73.4%
SWE-Bench 驗證得分
256K
上下文視窗
72B
活躍參數

行業領先效能

KAT-Coder 在 SWE-Bench Verified(真實軟體工程任務的行業標準基準)上與世界最佳程式碼生成模型競爭

🥇
Claude Sonnet 4.5
77.2%
🥈
GPT-5 High
74.9%
🥉
KAT-Coder Pro
73.4%
* 基於 SWE-Bench Verified 基準測試分數。不同程式碼生成任務的效能可能有所不同。

核心能力

混合專家架構

採用先進的 MoE 設計,在超過 1 兆總參數中擁有 720 億活躍參數,在複雜軟體工程任務上提供最先進的效能。

  • 720 億活躍參數實現最佳效率
  • 基於 Qwen 模型家族基礎
  • 針對企業級程式碼庫優化

智能體強化學習

透過包括大規模智能體強化學習的多階段訓練管線進行訓練,能夠自主完成複雜的軟體工程任務。

  • 共享前綴軌跡優化
  • 熵塑造優勢機制
  • 在真實 Git 提交和 PR 上訓練

多工具整合

透過真實沙盒執行資料與數千種工具互動的內建能力,支援實際的軟體開發工作流程。

  • 來自數千種工具的互動資料
  • 沙盒環境中的真實執行
  • 無縫 API 和 CLI 整合

256K 上下文視窗

廣泛的上下文支援能夠處理複雜的多輪程式設計互動,並有效管理大規模程式碼庫。

  • 同時處理多個檔案
  • 維護長對話歷史
  • 跨檔案推理和重構

Git 原生訓練

在來自企業儲存庫的真實 Git 提交和 PR 資料上訓練,原生理解版本控制工作流程。

  • 真實儲存庫提交模式
  • 拉取請求最佳實踐
  • 程式碼審查和協作模式

企業級品質

高品質的領域特定資料,包括 30 多個類別的指令遵循和通用推理能力。

  • 30 多個指令遵循類別
  • 邊緣情況的高級推理
  • 生產就緒的程式碼生成

多階段訓練管線

KAT-Coder 的訓練方法代表了 AI 程式設計模型的重大進步,結合多個訓練階段以實現最佳效能

01

中期訓練

基礎階段,包含程式設計知識注入和高品質領域特定資料

02

監督微調 (SFT)

跨 30 多個類別的指令遵循和對話訓練

03

強化微調 (RFT)

增強推理和問題解決能力

04

智能體強化學習

在企業程式碼庫上進行大規模強化學習,實現自主任務完成

完美適用於

🐛

複雜除錯

透過多檔案上下文理解,在大型程式碼庫中識別和修復錯誤

🔧

大型程式碼庫重構

系統性重構,瞭解架構模式和依賴關係

📝

多檔案程式碼生成

生成跨多個檔案的連貫程式碼並正確整合

📚

儲存庫理解

分析和理解大型儲存庫,提供深入的架構洞察

技術規格

架構混合專家 (MoE)
活躍參數約 720 億
總參數超過 1 兆
上下文視窗256,000 tokens
基礎模型Qwen 系列
工具使用數千種工具
多輪對話數百輪
指令類別30 多個類別
授權閉源 (商用)
開源變體KAT-Dev-32B, KAT-Dev-72B-Exp

開源變體

雖然 KAT-Coder Pro 是閉源的,但 Kwaipilot 已在 HuggingFace 上發布了 Apache-2.0 授權的開源替代版本

KAT-Dev-32B

開源

優化的 320 億參數變體,透過包括監督微調和強化學習的多階段訓練。

Apache-2.0 授權用於商業用途
在 HuggingFace 上可用
生產就緒效能

KAT-Dev-72B-Exp

實驗性

實驗性 720 億參數變體,推動開源程式碼生成能力的邊界。

用於複雜任務的更大模型
高級推理能力
研究和生產使用

體驗精英程式碼生成

立即透過我們的 API 開始使用 KAT-Coder。加入全球開發者行列,信賴 KAT-Coder 完成關鍵任務軟體工程工作。

行業領先的 73.4% SWE-Bench 分數
256K 上下文用於大型程式碼庫
多工具整合支援

300+ 模型,即刻開啟,

探索全部模型