MiniMax M2.7
LLM

MiniMax M2.7

MiniMax-M2.7 is a lightweight, state-of-the-art large language model optimized for coding, agentic workflows, and modern application development. With only 10 billion activated parameters, it delivers a major jump in real-world capability while maintaining exceptional latency, scalability, and cost efficiency.

MiniMax M2.7
GLM 5 Turbo
Kimi K2.5
Qwen3.5 122B A10B
DeepSeek V3.2 Speciale
KATEGORIA
Serie
48 z 52 modeli
Nowe
NEW
HOT
DeepSeek V4 Pro
LLM
PRO

DeepSeek V4 Pro

DeepSeek V4 Pro is a state-of-the-art large language model combining efficient sparse attention, strong reasoning, and integrated agent capabilities for robust long-context understanding and versatile AI applications.

1048.6K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:1048.58K
Wejście:$1.7/M tokenów
Wyjście:$3.4/M tokenów
Maks. Wyjście:393.22K
$1.7/3.4M wejście/wyjście
Cache-Based
NEW
HOT
DeepSeek V4 Flash
LLM

DeepSeek V4 Flash

DeepSeek V4 Flash is a state-of-the-art large language model combining efficient sparse attention, strong reasoning, and integrated agent capabilities for robust long-context understanding and versatile AI applications.

1048.6K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:1048.58K
Wejście:$0.14/M tokenów
Wyjście:$0.28/M tokenów
Maks. Wyjście:393.22K
$0.14/0.28M wejście/wyjście
Cache-Based
NEW
OWL
LLM

OWL

Brak dostępnego opisu.

1048.8K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:1048.76K
Wejście:Bezpłatne
Wyjście:Bezpłatne
Maks. Wyjście:262.14K
Bezpłatne
NEW
HOT
Kimi K2.6
LLM

Kimi K2.6

Kimi K2.6 is an advanced large language model with strong reasoning and upgraded native multimodality. It natively understands and processes text and images, delivering more accurate analysis, better instruction following, and stable performance across complex tasks. Designed for production use, Kimi K2.6 is ideal for AI assistants, enterprise applications, and multimodal workflows that require reliable and high-quality outputs.

262.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:262.14K
Wejście:$0.95/M tokenów
Wyjście:$4/M tokenów
Maks. Wyjście:262.14K
$0.95/4M wejście/wyjście
Cache-Based
NEW
Qwen3.6 35B A3B
LLM

Qwen3.6 35B A3B

The latest Qwen reasoning model.

262.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:262.14K
Wejście:$0.161/M tokenów
Wyjście:$0.965/M tokenów
Maks. Wyjście:65.54K
$0.161/0.965M wejście/wyjście
NEW
Qwen3.6 Plus
LLM

Qwen3.6 Plus

The latest Qwen reasoning model.

1000.0K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:1000.00K
Wejście:$0.325/M tokenów
Wyjście:$1.95/M tokenów
Maks. Wyjście:65.54K
$0.325/1.95M wejście/wyjście
Cache-Based
Gradient-Based
NEW
HOT
GLM 5.1
LLM

GLM 5.1

GLM-5.1 is Z.AI’s latest flagship model, featuring upgrades in two key areas: enhanced programming capabilities and more stable multi-step reasoning/execution. It demonstrates significant improvements in executing complex agent tasks while delivering more natural conversational experiences and superior front-end aesthetics.

202.8K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:202.75K
Wejście:$1.39/M tokenów
Wyjście:$4.4/M tokenów
Maks. Wyjście:202.75K
$1.39/4.4M wejście/wyjście
Cache-Based
NEW
HOT
MiniMax M2.7
LLM

MiniMax M2.7

MiniMax-M2.7 is a lightweight, state-of-the-art large language model optimized for coding, agentic workflows, and modern application development. With only 10 billion activated parameters, it delivers a major jump in real-world capability while maintaining exceptional latency, scalability, and cost efficiency.

196.6K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:196.61K
Wejście:$0.3/M tokenów
Wyjście:$1.2/M tokenów
Maks. Wyjście:196.61K
$0.3/1.2M wejście/wyjście
Cache-Based
NEW
Qwen3.5 122B A10B
LLM

Qwen3.5 122B A10B

Qwen3.5 represents a significant leap forward, integrating breakthroughs in multimodal learning, architectural efficiency, reinforcement learning scale, and global accessibility to empower developers and enterprises with unprecedented capability and efficiency.

262.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:262.14K
Wejście:$0.3/M tokenów
Wyjście:$2.4/M tokenów
Maks. Wyjście:65.54K
$0.3/2.4M wejście/wyjście
NEW
Qwen3.5 35B A3B
LLM

Qwen3.5 35B A3B

Qwen3.5 represents a significant leap forward, integrating breakthroughs in multimodal learning, architectural efficiency, reinforcement learning scale, and global accessibility to empower developers and enterprises with unprecedented capability and efficiency.

262.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:262.14K
Wejście:$0.225/M tokenów
Wyjście:$1.8/M tokenów
Maks. Wyjście:65.54K
$0.225/1.8M wejście/wyjście
NEW
Qwen3.5 27B
LLM

Qwen3.5 27B

Qwen3.5 represents a significant leap forward, integrating breakthroughs in multimodal learning, architectural efficiency, reinforcement learning scale, and global accessibility to empower developers and enterprises with unprecedented capability and efficiency.

262.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:262.14K
Wejście:$0.27/M tokenów
Wyjście:$2.16/M tokenów
Maks. Wyjście:65.54K
$0.27/2.16M wejście/wyjście
NEW
Qwen3 Coder Next
LLM

Qwen3 Coder Next

Qwen3 Coder represents a significant leap forward, integrating breakthroughs in multimodal learning, architectural efficiency, reinforcement learning scale, and global accessibility to empower developers and enterprises with unprecedented capability and efficiency.

262.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:262.14K
Wejście:$0.18/M tokenów
Wyjście:$1.35/M tokenów
Maks. Wyjście:262.14K
$0.18/1.35M wejście/wyjście
Gradient-Based
NEW
Qwen3.5 397BA17B
LLM

Qwen3.5 397BA17B

Qwen3.5 represents a significant leap forward, integrating breakthroughs in multimodal learning, architectural efficiency, reinforcement learning scale, and global accessibility to empower developers and enterprises with unprecedented capability and efficiency.

262.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:262.14K
Wejście:$0.55/M tokenów
Wyjście:$3.5/M tokenów
Maks. Wyjście:65.54K
$0.55/3.5M wejście/wyjście
Cache-Based
HOT
MiniMax M2.5
LLM

MiniMax M2.5

MiniMax-M2.5 is a lightweight, state-of-the-art large language model optimized for coding, agentic workflows, and modern application development. With only 10 billion activated parameters, it delivers a major jump in real-world capability while maintaining exceptional latency, scalability, and cost efficiency.

196.6K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:196.61K
Wejście:$0.295/M tokenów
Wyjście:$1.2/M tokenów
Maks. Wyjście:196.61K
$0.295/1.2M wejście/wyjście
Cache-Based
NEW
HOT
GLM 5v Turbo
LLM
TURBO

GLM 5v Turbo

GLM-5v Turbo is Z.AI’s latest flagship model, featuring upgrades in two key areas: enhanced programming capabilities and more stable multi-step reasoning/execution. It demonstrates significant improvements in executing complex agent tasks while delivering more natural conversational experiences and superior front-end aesthetics.

202.8K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:202.75K
Wejście:$1.2/M tokenów
Wyjście:$4/M tokenów
Maks. Wyjście:131.07K
$1.2/4M wejście/wyjście
Cache-Based
NEW
HOT
GLM 5 Turbo
LLM
TURBO

GLM 5 Turbo

GLM-5 Turbo is Z.AI’s latest flagship model, featuring upgrades in two key areas: enhanced programming capabilities and more stable multi-step reasoning/execution. It demonstrates significant improvements in executing complex agent tasks while delivering more natural conversational experiences and superior front-end aesthetics.

262.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:262.14K
Wejście:$1.2/M tokenów
Wyjście:$4/M tokenów
Maks. Wyjście:131.07K
$1.2/4M wejście/wyjście
Cache-Based
NEW
HOT
GLM 5
LLM

GLM 5

GLM-5 is Z.AI’s latest flagship model, featuring upgrades in two key areas: enhanced programming capabilities and more stable multi-step reasoning/execution. It demonstrates significant improvements in executing complex agent tasks while delivering more natural conversational experiences and superior front-end aesthetics.

202.8K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:202.75K
Wejście:$0.95/M tokenów
Wyjście:$3.15/M tokenów
Maks. Wyjście:202.75K
$0.95/3.15M wejście/wyjście
Cache-Based
Qwen3 VL 30B A3B Thinking
LLM

Qwen3 VL 30B A3B Thinking

The latest Qwen reasoning model.

128.0K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:128.00K
Wejście:$0.15/M tokenów
Wyjście:$1.5/M tokenów
Maks. Wyjście:32.00K
$0.15/1.5M wejście/wyjście
Qwen3 VL 8B Instruct
LLM

Qwen3 VL 8B Instruct

The latest Qwen reasoning model.

128.0K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:128.00K
Wejście:$0.08/M tokenów
Wyjście:$0.5/M tokenów
Maks. Wyjście:32.00K
$0.08/0.5M wejście/wyjście
Qwen3 VL 30B A3B Instruct
LLM

Qwen3 VL 30B A3B Instruct

The latest Qwen reasoning model.

128.0K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:128.00K
Wejście:$0.15/M tokenów
Wyjście:$0.6/M tokenów
Maks. Wyjście:32.00K
$0.15/0.6M wejście/wyjście
NEW
HOT
Kimi K2.5
LLM

Kimi K2.5

Kimi K2.5 is an advanced large language model with strong reasoning and upgraded native multimodality. It natively understands and processes text and images, delivering more accurate analysis, better instruction following, and stable performance across complex tasks. Designed for production use, Kimi K2.5 is ideal for AI assistants, enterprise applications, and multimodal workflows that require reliable and high-quality outputs.

262.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:262.14K
Wejście:$0.49/M tokenów
Wyjście:$2.5/M tokenów
Maks. Wyjście:262.14K
$0.49/2.5M wejście/wyjście
Cache-Based
NEW
Qwen3 Max 20260123
LLM

Qwen3 Max 20260123

Qwen3-Max is a flagship large language model designed for ultra-long context understanding, powerful reasoning, and high-performance text and code generation, making it well suited for complex, large-scale, and production-grade AI applications.

252.0K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:252.00K
Wejście:$1.2/M tokenów
Wyjście:$6/M tokenów
Maks. Wyjście:32.00K
$1.2/6M wejście/wyjście
Gradient-Based
HOT
MiniMax M2.1
LLM

MiniMax M2.1

MiniMax-M2.1 is a lightweight, state-of-the-art large language model optimized for coding, agentic workflows, and modern application development. With only 10 billion activated parameters, it delivers a major jump in real-world capability while maintaining exceptional latency, scalability, and cost efficiency.

196.6K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:196.61K
Wejście:$0.29/M tokenów
Wyjście:$0.95/M tokenów
Maks. Wyjście:196.61K
$0.29/0.95M wejście/wyjście
Cache-Based
NEW
HOT
GLM 4.7
LLM

GLM 4.7

GLM-4.7 is Z.AI’s latest flagship model, featuring upgrades in two key areas: enhanced programming capabilities and more stable multi-step reasoning/execution. It demonstrates significant improvements in executing complex agent tasks while delivering more natural conversational experiences and superior front-end aesthetics.

202.8K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:202.75K
Wejście:$0.52/M tokenów
Wyjście:$1.85/M tokenów
Maks. Wyjście:202.75K
$0.52/1.85M wejście/wyjście
Cache-Based
NEW
HOT
DeepSeek V3.2 Speciale
LLM

DeepSeek V3.2 Speciale

Fastest, most cost-effective model from DeepSeek Ai.

163.8K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:163.84K
Wejście:$0.287/M tokenów
Wyjście:$0.431/M tokenów
Maks. Wyjście:163.84K
$0.287/0.431M wejście/wyjście
Cache-Based
NEW
HOT
DeepSeek V3.2
LLM

DeepSeek V3.2

DeepSeek V3.2 is a state-of-the-art large language model combining efficient sparse attention, strong reasoning, and integrated agent capabilities for robust long-context understanding and versatile AI applications.

163.8K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:163.84K
Wejście:$0.26/M tokenów
Wyjście:$0.38/M tokenów
Maks. Wyjście:163.84K
$0.26/0.38M wejście/wyjście
Cache-Based
NEW
HOT
KwaiKAT
LLM
PRO

KAT Coder Pro V2

KAT Coder Pro is KwaiKAT's most advanced agentic coding model in the KAT-Coder series. Designed specifically for agentic coding tasks, it excels in real-world software engineering scenarios, achieving 73.4% solve rate on the SWE-Bench Verified benchmark.

262.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:262.14K
Wejście:$0.3/M tokenów
Wyjście:$1.2/M tokenów
Maks. Wyjście:144.00K
$0.3/1.2M wejście/wyjście
Cache-Based
HOT
MiniMax M2
LLM

MiniMax M2

MiniMax-M2 is a lightweight, state-of-the-art large language model optimized for coding, agentic workflows, and modern application development. With only 10 billion activated parameters, it delivers a major jump in real-world capability while maintaining exceptional latency, scalability, and cost efficiency.

196.6K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:196.61K
Wejście:$0.255/M tokenów
Wyjście:$1/M tokenów
Maks. Wyjście:196.61K
$0.255/1M wejście/wyjście
Cache-Based
NEW
HOT
DeepSeek V3.2 Exp
LLM

DeepSeek V3.2 Exp

Fastest, most cost-effective model from DeepSeek Ai.

163.8K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:163.84K
Wejście:$0.27/M tokenów
Wyjście:$0.41/M tokenów
Maks. Wyjście:163.84K
$0.27/0.41M wejście/wyjście
NEW
HOT
GLM 4.6
LLM

GLM 4.6

357B-parameter efficient MoE model from Zhipu AI.

202.8K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:202.75K
Wejście:$0.6/M tokenów
Wyjście:$2.2/M tokenów
Maks. Wyjście:202.75K
$0.6/2.2M wejście/wyjście
Cache-Based
NEW
HOT
Kimi-K2-Thinking
LLM

Kimi-K2-Thinking

Kimi's latest and most powerful open-source model.

262.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:262.14K
Wejście:$0.6/M tokenów
Wyjście:$2.5/M tokenów
Maks. Wyjście:262.14K
$0.6/2.5M wejście/wyjście
Cache-Based
NEW
DeepSeek-V3-0324
LLM

DeepSeek-V3-0324

DeepSeek's updated V3 model released on 03/24/2025.

131.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:131.07K
Wejście:$0.216/M tokenów
Wyjście:$0.88/M tokenów
Maks. Wyjście:16.38K
$0.216/0.88M wejście/wyjście
Cache-Based
NEW
HOT
DeepSeek-R1-0528
LLM

DeepSeek-R1-0528

The advanced LLM

131.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:131.07K
Wejście:$0.55/M tokenów
Wyjście:$2.15/M tokenów
Maks. Wyjście:131.07K
$0.55/2.15M wejście/wyjście
Cache-Based
HOT
Qwen3-VL-235B-A22B-Instruct
LLM

Qwen3-VL-235B-A22B-Instruct

Brak dostępnego opisu.

131.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:131.07K
Wejście:$0.3/M tokenów
Wyjście:$1.5/M tokenów
Maks. Wyjście:32.77K
$0.3/1.5M wejście/wyjście
NEW
Tongyi DeepResearch 30B A3B
LLM

Tongyi DeepResearch 30B A3B

Open and Advanced Models.

131.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:131.07K
Wejście:$0.09/M tokenów
Wyjście:$0.45/M tokenów
Maks. Wyjście:131.07K
$0.09/0.45M wejście/wyjście
NEW
Qwen3 30B A3B Instruct 2507
LLM

Qwen3 30B A3B Instruct 2507

Qwen's latest and most powerful open-source model.

131.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:131.07K
Wejście:$0.1/M tokenów
Wyjście:$0.3/M tokenów
Maks. Wyjście:131.07K
$0.1/0.3M wejście/wyjście
NEW
HOT
Qwen3 Next 80B A3B Thinking
LLM

Qwen3 Next 80B A3B Thinking

Qwen's latest and most powerful open-source model.

262.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:262.14K
Wejście:$0.15/M tokenów
Wyjście:$1.5/M tokenów
Maks. Wyjście:32.77K
$0.15/1.5M wejście/wyjście
NEW
HOT
Qwen3 Next 80B A3B Instruct
LLM

Qwen3 Next 80B A3B Instruct

Qwen's latest and most powerful open-source model.

262.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:262.14K
Wejście:$0.15/M tokenów
Wyjście:$1.5/M tokenów
Maks. Wyjście:131.07K
$0.15/1.5M wejście/wyjście
NEW
HOT
DeepSeek-V3.1
LLM

DeepSeek-V3.1

Deepseek's latest and most powerful open-source model.

131.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:131.07K
Wejście:$0.3/M tokenów
Wyjście:$0.95/M tokenów
Maks. Wyjście:65.54K
$0.3/0.95M wejście/wyjście
Cache-Based
NEW
HOT
Kimi-K2-Instruct-0905
LLM

Kimi-K2-Instruct-0905

Brak dostępnego opisu.

262.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:262.14K
Wejście:$0.6/M tokenów
Wyjście:$2.5/M tokenów
Maks. Wyjście:8.19K
$0.6/2.5M wejście/wyjście
Cache-Based
NEW
HOT
Kimi-K2-Instruct
LLM

Kimi-K2-Instruct

Kimi's latest and most powerful open-source model.

131.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:131.07K
Wejście:$0.7/M tokenów
Wyjście:$2.5/M tokenów
Maks. Wyjście:131.07K
$0.7/2.5M wejście/wyjście
Cache-Based
Qwen3 8B
LLM

Qwen3 8B

The latest Qwen reasoning model.

41.0K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:40.96K
Wejście:$0.05/M tokenów
Wyjście:$0.4/M tokenów
Maks. Wyjście:8.19K
$0.05/0.4M wejście/wyjście
Qwen3 235B A22B Thinking 2507
LLM

Qwen3 235B A22B Thinking 2507

The latest Qwen reasoning model.

128.0K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:128.00K
Wejście:$0.28/M tokenów
Wyjście:$2.3/M tokenów
Maks. Wyjście:32.77K
$0.28/2.3M wejście/wyjście
Qwen3 VL 235B A22B Thinking
LLM

Qwen3 VL 235B A22B Thinking

The latest Qwen reasoning model.

131.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:131.07K
Wejście:$0.5/M tokenów
Wyjście:$2.5/M tokenów
Maks. Wyjście:65.54K
$0.5/2.5M wejście/wyjście
Qwen3 30B A3B
LLM

Qwen3 30B A3B

The latest Qwen reasoning model.

32.8K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:32.77K
Wejście:$0.08/M tokenów
Wyjście:$1.25/M tokenów
Maks. Wyjście:32.77K
$0.08/1.25M wejście/wyjście
Qwen3 30B A3B Thinking 2507
LLM

Qwen3 30B A3B Thinking 2507

The latest Qwen reasoning model.

131.1K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:131.07K
Wejście:$0.08/M tokenów
Wyjście:$0.4/M tokenów
Maks. Wyjście:131.07K
$0.08/0.4M wejście/wyjście
Qwen2.5 7B Instruct
LLM

Qwen2.5 7B Instruct

The latest Qwen model.

32.8K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:32.77K
Wejście:$0.04/M tokenów
Wyjście:$0.1/M tokenów
Maks. Wyjście:8.19K
$0.04/0.1M wejście/wyjście
DeepSeek OCR
LLM

DeepSeek OCR

The latest Deepseek model.

8.2K KONTEKST:
Typ wejścia:
Typ wyjścia:
Kontekst:8.19K
Wejście:$0.04/M tokenów
Wyjście:$0.08/M tokenów
Maks. Wyjście:8.19K
$0.04/0.08M wejście/wyjście

Join our Discord community

Join the Discord community for the latest model updates, prompts, and support.