Kimi K2.5
LLM

Kimi K2.5

Kimi K2.5 is an advanced large language model with strong reasoning and upgraded native multimodality. It natively understands and processes text and images, delivering more accurate analysis, better instruction following, and stable performance across complex tasks. Designed for production use, Kimi K2.5 is ideal for AI assistants, enterprise applications, and multimodal workflows that require reliable and high-quality outputs.

Kimi K2.5
Qwen3 Max 20260123
DeepSeek V3.2
MiniMax M2.1
GLM 4.7
श्रेणी
सीरीज़
36 मॉडल में से 36
नया
NEW
HOT
Kimi K2.5
LLM

Kimi K2.5

Kimi K2.5 is an advanced large language model with strong reasoning and upgraded native multimodality. It natively understands and processes text and images, delivering more accurate analysis, better instruction following, and stable performance across complex tasks. Designed for production use, Kimi K2.5 is ideal for AI assistants, enterprise applications, and multimodal workflows that require reliable and high-quality outputs.

262.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:262.14K
इनपुट:$0.56/M token
आउटपुट:$2.8/M token
अधिकतम आउटपुट:65.54K
$0.56/2.8M इन/आउट
Cache-Based
NEW
Qwen3 Max 20260123
LLM

Qwen3 Max 20260123

Qwen3-Max is a flagship large language model designed for ultra-long context understanding, powerful reasoning, and high-performance text and code generation, making it well suited for complex, large-scale, and production-grade AI applications.

252.0K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:252.00K
इनपुट:$1.2/M token
आउटपुट:$6/M token
अधिकतम आउटपुट:32.00K
$1.2/6M इन/आउट
Gradient-Based
HOT
MiniMax M2.1
LLM

MiniMax M2.1

MiniMax-M2.1 is a lightweight, state-of-the-art large language model optimized for coding, agentic workflows, and modern application development. With only 10 billion activated parameters, it delivers a major jump in real-world capability while maintaining exceptional latency, scalability, and cost efficiency.

196.6K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:196.61K
इनपुट:$0.29/M token
आउटपुट:$0.95/M token
अधिकतम आउटपुट:65.54K
$0.29/0.95M इन/आउट
Cache-Based
NEW
HOT
GLM 4.7
LLM

GLM 4.7

GLM-4.7 is Z.AI’s latest flagship model, featuring upgrades in two key areas: enhanced programming capabilities and more stable multi-step reasoning/execution. It demonstrates significant improvements in executing complex agent tasks while delivering more natural conversational experiences and superior front-end aesthetics.

202.8K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:202.75K
इनपुट:$0.52/M token
आउटपुट:$1.75/M token
अधिकतम आउटपुट:131.07K
$0.52/1.75M इन/आउट
Cache-Based
NEW
HOT
DeepSeek V3.2 Speciale
LLM

DeepSeek V3.2 Speciale

Fastest, most cost-effective model from DeepSeek Ai.

163.8K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:163.84K
इनपुट:$0.4/M token
आउटपुट:$1.2/M token
अधिकतम आउटपुट:65.54K
$0.4/1.2M इन/आउट
Cache-Based
NEW
HOT
DeepSeek V3.2
LLM

DeepSeek V3.2

DeepSeek V3.2 is a state-of-the-art large language model combining efficient sparse attention, strong reasoning, and integrated agent capabilities for robust long-context understanding and versatile AI applications.

163.8K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:163.84K
इनपुट:$0.26/M token
आउटपुट:$0.38/M token
अधिकतम आउटपुट:65.54K
$0.26/0.38M इन/आउट
Cache-Based
NEW
HOT
KwaiKAT
LLM

KAT Coder Pro V1

KAT Coder Pro is KwaiKAT's most advanced agentic coding model in the KAT-Coder series. Designed specifically for agentic coding tasks, it excels in real-world software engineering scenarios, achieving 73.4% solve rate on the SWE-Bench Verified benchmark.

256.0K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:256.00K
इनपुट:$0.3/M token
आउटपुट:$1.2/M token
अधिकतम आउटपुट:128.00K
$0.3/1.2M इन/आउट
Cache-Based
NEW
HOT
KwaiKAT
LLM

KAT Coder Exp-72b-101

KAT Coder is KwaiKAT's most advanced agentic coding model in the KAT-Coder series.

128.0K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:128.00K
इनपुट:मुफ्त
आउटपुट:मुफ्त
अधिकतम आउटपुट:32.77K
मुफ्त
HOT
MiniMax-M2
LLM

MiniMax-M2

MiniMax-M2 is a lightweight, state-of-the-art large language model optimized for coding, agentic workflows, and modern application development. With only 10 billion activated parameters, it delivers a major jump in real-world capability while maintaining exceptional latency, scalability, and cost efficiency.

196.6K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:196.61K
इनपुट:$0.255/M token
आउटपुट:$1/M token
अधिकतम आउटपुट:65.54K
$0.255/1M इन/आउट
Cache-Based
NEW
HOT
DeepSeek V3.2 Exp
LLM

DeepSeek V3.2 Exp

Fastest, most cost-effective model from DeepSeek Ai.

163.8K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:163.84K
इनपुट:$0.27/M token
आउटपुट:$0.41/M token
अधिकतम आउटपुट:65.54K
$0.27/0.41M इन/आउट
NEW
HOT
GLM 4.6
LLM

GLM 4.6

357B-parameter efficient MoE model from Zhipu AI.

202.8K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:202.75K
इनपुट:$0.44/M token
आउटपुट:$1.74/M token
अधिकतम आउटपुट:131.07K
$0.44/1.74M इन/आउट
NEW
HOT
Kimi-K2-Thinking
LLM

Kimi-K2-Thinking

Kimi's latest and most powerful open-source model.

262.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:262.14K
इनपुट:$0.6/M token
आउटपुट:$2.5/M token
अधिकतम आउटपुट:65.54K
$0.6/2.5M इन/आउट
NEW
HOT
MiMo V2 Flash
LLM

MiMo V2 Flash

कोई विवरण उपलब्ध नहीं है।

262.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:262.14K
इनपुट:$0.1/M token
आउटपुट:$0.3/M token
अधिकतम आउटपुट:65.54K
$0.1/0.3M इन/आउट
NEW
DeepSeek-V3-0324
LLM

DeepSeek-V3-0324

DeepSeek's updated V3 model released on 03/24/2025.

131.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:131.07K
इनपुट:$0.216/M token
आउटपुट:$0.88/M token
अधिकतम आउटपुट:32.77K
$0.216/0.88M इन/आउट
Cache-Based
NEW
HOT
DeepSeek-R1-0528
LLM

DeepSeek-R1-0528

The advanced LLM

131.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:131.07K
इनपुट:$0.55/M token
आउटपुट:$2.15/M token
अधिकतम आउटपुट:32.77K
$0.55/2.15M इन/आउट
Cache-Based
HOT
Qwen3-VL-235B-A22B-Instruct
LLM

Qwen3-VL-235B-A22B-Instruct

कोई विवरण उपलब्ध नहीं है।

131.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:131.07K
इनपुट:$0.3/M token
आउटपुट:$1.5/M token
अधिकतम आउटपुट:32.77K
$0.3/1.5M इन/आउट
NEW
Tongyi DeepResearch 30B A3B
LLM

Tongyi DeepResearch 30B A3B

Open and Advanced Models.

131.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:131.07K
इनपुट:$0.09/M token
आउटपुट:$0.45/M token
अधिकतम आउटपुट:131.07K
$0.09/0.45M इन/आउट
NEW
Qwen3 30B A3B Instruct 2507
LLM

Qwen3 30B A3B Instruct 2507

Qwen's latest and most powerful open-source model.

131.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:131.07K
इनपुट:$0.1/M token
आउटपुट:$0.3/M token
अधिकतम आउटपुट:131.07K
$0.1/0.3M इन/आउट
Cache-Based
NEW
HOT
Qwen3 Next 80B A3B Thinking
LLM

Qwen3 Next 80B A3B Thinking

Qwen's latest and most powerful open-source model.

262.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:262.14K
इनपुट:$0.15/M token
आउटपुट:$1.5/M token
अधिकतम आउटपुट:262.14K
$0.15/1.5M इन/आउट
NEW
HOT
Qwen3 Next 80B A3B Instruct
LLM

Qwen3 Next 80B A3B Instruct

Qwen's latest and most powerful open-source model.

262.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:262.14K
इनपुट:$0.15/M token
आउटपुट:$1.5/M token
अधिकतम आउटपुट:32.77K
$0.15/1.5M इन/आउट
NEW
HOT
DeepSeek-V3.1
LLM

DeepSeek-V3.1

Deepseek's latest and most powerful open-source model.

131.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:131.07K
इनपुट:$0.3/M token
आउटपुट:$0.95/M token
अधिकतम आउटपुट:32.77K
$0.3/0.95M इन/आउट
Cache-Based
NEW
HOT
Kimi-K2-Instruct-0905
LLM

Kimi-K2-Instruct-0905

कोई विवरण उपलब्ध नहीं है।

65.5K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:65.54K
इनपुट:$0.6/M token
आउटपुट:$2.5/M token
अधिकतम आउटपुट:65.54K
$0.6/2.5M इन/आउट
NEW
HOT
Kimi-K2-Instruct
LLM

Kimi-K2-Instruct

Kimi's latest and most powerful open-source model.

131.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:131.07K
इनपुट:$0.7/M token
आउटपुट:$2.5/M token
अधिकतम आउटपुट:65.54K
$0.7/2.5M इन/आउट
Qwen3 8B
LLM

Qwen3 8B

The latest Qwen reasoning model.

32.0K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:32.00K
इनपुट:$0.05/M token
आउटपुट:$0.4/M token
अधिकतम आउटपुट:8.19K
$0.05/0.4M इन/आउट
Qwen3 235B A22B Thinking 2507
LLM

Qwen3 235B A22B Thinking 2507

The latest Qwen reasoning model.

128.0K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:128.00K
इनपुट:$0.28/M token
आउटपुट:$2.3/M token
अधिकतम आउटपुट:32.77K
$0.28/2.3M इन/आउट
Qwen3 VL 235B A22B Thinking
LLM

Qwen3 VL 235B A22B Thinking

The latest Qwen reasoning model.

128.0K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:128.00K
इनपुट:$0.5/M token
आउटपुट:$2.5/M token
अधिकतम आउटपुट:32.77K
$0.5/2.5M इन/आउट
Qwen3 30B A3B
LLM

Qwen3 30B A3B

The latest Qwen reasoning model.

41.0K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:40.96K
इनपुट:$0.08/M token
आउटपुट:$1.25/M token
अधिकतम आउटपुट:32.77K
$0.08/1.25M इन/आउट
Qwen3 30B A3B Thinking 2507
LLM

Qwen3 30B A3B Thinking 2507

The latest Qwen reasoning model.

128.0K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:128.00K
इनपुट:$0.08/M token
आउटपुट:$0.4/M token
अधिकतम आउटपुट:32.77K
$0.08/0.4M इन/आउट
Qwen2.5 7B Instruct
LLM

Qwen2.5 7B Instruct

The latest Qwen model.

128.0K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:128.00K
इनपुट:$0.04/M token
आउटपुट:$0.1/M token
अधिकतम आउटपुट:8.19K
$0.04/0.1M इन/आउट
DeepSeek OCR
LLM

DeepSeek OCR

The latest Deepseek model.

8.2K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:8.19K
इनपुट:$0.04/M token
आउटपुट:$0.08/M token
अधिकतम आउटपुट:8.19K
$0.04/0.08M इन/आउट
NEW
Qwen3 32B
LLM

Qwen3 32B

The latest Qwen reasoning model.

41.0K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:40.96K
इनपुट:$0.1/M token
आउटपुट:$1.2/M token
अधिकतम आउटपुट:40.96K
$0.1/1.2M इन/आउट
NEW
HOT
Qwen3 Coder
LLM

Qwen3 Coder

Qwen3-Coder is the code version of Qwen3.

262.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:262.14K
इनपुट:$0.78/M token
आउटपुट:$3.8/M token
अधिकतम आउटपुट:65.54K
$0.78/3.8M इन/आउट
Cache-Based
Gradient-Based
NEW
HOT
Qwen3-235B-A22B-Instruct-2507
LLM

Qwen3-235B-A22B-Instruct-2507

235B-parameter MoE thinking model in Qwen3 series.

131.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:131.07K
इनपुट:$0.2/M token
आउटपुट:$0.88/M token
अधिकतम आउटपुट:32.77K
$0.2/0.88M इन/आउट
NEW
GPT OSS 120b
LLM

GPT OSS 120b

117B-parameter MoE language model from OpenAI.

131.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:131.07K
इनपुट:$0.1/M token
आउटपुट:$0.2/M token
अधिकतम आउटपुट:128.00K
$0.1/0.2M इन/आउट
NEW
HOT
DeepSeek V3.1 Terminus
LLM

DeepSeek V3.1 Terminus

Deepseek's latest and most powerful open-source model.

131.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:131.07K
इनपुट:$0.3/M token
आउटपुट:$0.95/M token
अधिकतम आउटपुट:32.77K
$0.3/0.95M इन/आउट
Cache-Based
NEW
HOT
LongCat Flash Chat
LLM

LongCat Flash Chat

Meituan's latest and most powerful open-source model.

131.1K संदर्भ:
इनपुट प्रकार:
आउटपुट प्रकार:
संदर्भ:131.07K
इनपुट:$0.2/M token
आउटपुट:$0.8/M token
अधिकतम आउटपुट:32.77K
$0.2/0.8M इन/आउट
300+ मॉडल से शुरू करें,

केवल Atlas Cloud पर।

सभी मॉडल एक्सप्लोर करें