| 版本名称: | Ling-2.6-1T |
| 所属模型: | Ling |
| 所属公司: | 蚂蚁集团 |
| 发布时间: | 2026年4月30日 |
| 最新版本: | 2.6 |
| 参数规模: | 1T |
| 上下文长度: | 256K |
| 支持语言: | 中文,英文 |
| 授权协议: | Apache 2.0 |
| 体验方式: | https://ling.antgroup.com |
Ling-2.6-1T是蚂蚁集团百灵大模型团队于2026年4月发布的万亿参数级大语言模型,采用MoE(混合专家)架构。
采用MLA(Multi-head Latent Attention)与LinearAttention混合架构设计,在后训练阶段引入"上下文过程冗余抑制"奖励机制,有效压缩冗长思维链输出,实现同类任务Token消耗减少40%-60%。每次推理激活约630亿参数,以仅16M tokens完成Artificial Analysis完整评测,输出成本约为同类模型的1/4。
2026年4月24日正式发布,4月30日开源,采用Apache 2.0协议。
以显著优势领先AIME 2026非思考型模型评测,在SWE-bench Verified达72.2%开源SOTA水平,BFCL-V4、TAU2-Bench、IFBench均达开源SOTA。作为"快思考"范式代表,推动AI推理效率革新。
Ling-2.6-1T凭借其高效的推理能力和较低的使用成本,在多个领域展现出广阔的应用前景:
基于SWE-bench Verified 72.2%的开源SOTA表现,能够高效处理代码生成、代码修复、Bug检测等开发任务。
在AIME 2026数学竞赛中表现优异,显著领先其他非思考型模型,适用于复杂数学问题求解和证明验证。
兼容Claude Code、OpenClaw、OpenCode等主流Agent框架,支持工具调用和多步骤任务执行,适用于自动化工作流程。
支持256K上下文窗口,适用于文档分析、长文本处理、跨文档信息整合等场景。
可私有化部署,最低8卡GPU配置要求,支持SGLang和vLLM推理框架,为企业提供灵活的部署方案。
关注公众号
立刻获取最新消息及人工咨询