蚂蚁百灵大模型(Ling)今日宣布,其万亿参数级旗舰模型 Ling-2.6-1T 正式开源。该模型延续了上周发布时的技术核心,不再盲目追求超长思考链或参数规模冗余,而是通过创新的 MLA 与 LinearAttention 混合架构实现“快思考(Fast-Thinking)”机制,旨在解决万亿级模型在真实生产流中的智效比难题。 实测数据显示,Ling-2.6-1T 在 Artificial Ana ...
蚂蚁集团旗下百灵大模型团队宣布,其研发的Ling-2.6-flash模型正式对外开源。该模型提供BF16、FP8、INT4三种量化版本,开发者可根据硬件配置、成本控制及部署场景自由选择适配方案。此次开源标志着国内大模型领域在工程化落地方面迈出重要一步。 这款以Instruct架构为基础的模型总参数量达1040亿,激活参数74亿。两周前,该模型曾以"Elephant Alpha"的代号在OpenRo ...
IT之家 4 月 29 日消息,蚂蚁集团旗下的百灵大模型今日宣布, Ling-2.6-flash 正式开源 。同步提供 BF16、FP8、INT4 等多个版本,方便开发者根据不同硬件环境、推理成本和部署需求灵活选择。
蚂蚁集团百灵大模型团队近日宣布,其研发的万亿级旗舰模型Ling-2.6-1T正式面向全球开发者开源。该模型突破传统大模型单纯追求参数规模的路径,通过系统性优化指令执行、工具适配及长文本处理能力,在复杂真实场景中展现出显著优势。
IT之家 4 月 30 日消息,蚂蚁集团旗下的百灵大模型今日宣布,今天将 Ling-2.6-1T 正式开源。官方表示,Ling-2.6-1T ...
4月29日消息,蚂蚁集团旗下的百灵大模型今日宣布,Ling-2.6-flash 正式开源。同步提供 BF16、FP8、INT4 等多个版本,方便开发者根据不同硬件环境、推理成本和部署需求灵活选择。 据了解,Ling-2.6-flash 是一款总参数量 ...
蚂蚁百灵Ling-2.6-flash正式开源 ...
IT之家 4 月 29 日消息,蚂蚁集团旗下的百灵大模型今日宣布,Ling-2.6-flash 正式开源。同步提供 BF16、FP8、INT4 等多个版本,方便开发者根据不同硬件环境、推理成本和部署需求灵活选择。Ling-2.6-flash ...
IT之家4 月 30 日消息,蚂蚁集团旗下的百灵大模型今日宣布,今天将 Ling-2.6-1T 正式开源。 官方表示,Ling-2.6-1T 并不是为了单纯追求更长的思考链,或制造更强的“参数规模体感”,而是面向真实复杂任务,系统性优化模型的智效比、指令执行、工具适配、长 ...
蚂蚁百灵大模型团队宣布,其最新研发的万亿参数级旗舰模型Ling-2.6-1T已正式开源。该模型突破传统大模型设计范式,通过MLA与LinearAttention混合架构构建"快思考"机制,在保持万亿级参数规模的同时,有效解决了高算力消耗与实际生产效能的平衡难题。这种创新架构使模型在处理复杂任务时,既能保持快速响应能力,又能维持高精度输出。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果