Ling-2.6-1T
语言模型
推理模型
编码模型
256K
版本名称:Ling-2.6-1T
所属模型:Ling
所属公司:蚂蚁集团
发布时间:2026年4月30日
最新版本:2.6
参数规模:1T
上下文长度:256K
支持语言:中文,英文
授权协议:Apache 2.0
体验方式:https://ling.antgroup.com

简介

Ling-2.6-1T是蚂蚁集团百灵大模型团队于2026年4月发布的万亿参数级大语言模型,采用MoE(混合专家)架构。

技术原理

采用MLA(Multi-head Latent Attention)与LinearAttention混合架构设计,在后训练阶段引入"上下文过程冗余抑制"奖励机制,有效压缩冗长思维链输出,实现同类任务Token消耗减少40%-60%。每次推理激活约630亿参数,以仅16M tokens完成Artificial Analysis完整评测,输出成本约为同类模型的1/4。

发展历程

2026年4月24日正式发布,4月30日开源,采用Apache 2.0协议。

应用趋势

以显著优势领先AIME 2026非思考型模型评测,在SWE-bench Verified达72.2%开源SOTA水平,BFCL-V4、TAU2-Bench、IFBench均达开源SOTA。作为"快思考"范式代表,推动AI推理效率革新。

应用

Ling-2.6-1T凭借其高效的推理能力和较低的使用成本,在多个领域展现出广阔的应用前景:

软件开发

基于SWE-bench Verified 72.2%的开源SOTA表现,能够高效处理代码生成、代码修复、Bug检测等开发任务。

数学推理

在AIME 2026数学竞赛中表现优异,显著领先其他非思考型模型,适用于复杂数学问题求解和证明验证。

Agent执行

兼容Claude Code、OpenClaw、OpenCode等主流Agent框架,支持工具调用和多步骤任务执行,适用于自动化工作流程。

长上下文理解

支持256K上下文窗口,适用于文档分析、长文本处理、跨文档信息整合等场景。

企业级应用

可私有化部署,最低8卡GPU配置要求,支持SGLang和vLLM推理框架,为企业提供灵活的部署方案。

以上信息来自企数智AI小编,如有错误可反馈给我们
3
热度
相关模型
人工导购
咨询服务