zai-org/GLM-4.6

357B-parameter efficient MoE model from Zhipu AI.

LLMNEWHOT
LLM

357B-parameter efficient MoE model from Zhipu AI.

关于此模型的全部信息

概览:

模型提供商:OTHERS
模型类型:大语言模型
部署方式:推理 API;Playground
定价:$0.44/M Input & $1.74/M Output
$0.088/M Cache Read

关键参数:

参数量:共 356B;约 32B 活跃
上下文:202k tokens
架构类型:Hybrid Transformer with high-sparsity MoE
知识截止:June 2025

探索类似模型

300+ 模型,即刻开启,

尽在 Atlas Cloud。