IT之家 4 月 29 日消息,蚂蚁集团旗下的百灵大模型今日宣布, Ling-2.6-flash 正式开源 。同步提供 BF16、FP8、INT4 等多个版本,方便开发者根据不同硬件环境、推理成本和部署需求灵活选择。
IT之家4 月 24 日消息,蚂蚁集团旗下百灵大模型团队正式发布面向即时任务执行的万亿级综合旗舰模型 ——Ling-2.6-1T。 Ling-2.6-1T 采用了 MLA(Multi-head Latent Attention)与 LinearAttention 的混合架构设计,核心思路是摒弃行业内普遍追求的“慢思考”多步推理模式,转而以“快思考”机制实现高效推断,仅凭极低的 Token 开销直达 ...
IT之家 4 月 30 日消息,蚂蚁集团旗下的百灵大模型今日宣布,今天将 Ling-2.6-1T 正式开源。官方表示,Ling-2.6-1T ...
蚂蚁百灵大模型(Ling)今日宣布,其万亿参数级旗舰模型 Ling-2.6-1T 正式开源。该模型延续了上周发布时的技术核心,不再盲目追求超长思考链或参数规模冗余,而是通过创新的 MLA 与 LinearAttention 混合架构实现“快思考(Fast-Thinking)”机制,旨在解决万亿级模型在真实生产流中的智效比难题。 实测数据显示,Ling-2.6-1T 在 Artificial Ana ...
蚂蚁集团旗下百灵大模型团队宣布,其研发的Ling-2.6-flash模型正式对外开源。该模型提供BF16、FP8、INT4三种量化版本,开发者可根据硬件配置、成本控制及部署场景自由选择适配方案。此次开源标志着国内大模型领域在工程化落地方面迈出重要一步。 这款以Instruct架构为基础的模型总参数量达1040亿,激活参数74亿。两周前,该模型曾以"Elephant Alpha"的代号在OpenRo ...
在全球大模型竞速日益激烈的背景下,蚂蚁集团旗下的百灵大模型再次发力,正式推出了名为 Ling-2.6-flash 的全新 Instruct 模型。这款模型凭借 极高 的“智效比”,在人工智能领域引起了广泛关注。
导语:4 月 22 日,蚂蚁百灵正式推出 Ling-2.6-flash —— 一款总参数量 104B、激活参数 7.4B 的 Instruct 模型。该模型主打“To 4 月 22 日,蚂蚁百灵正式推出 Ling-2.6-flash —— ...
少数派 on MSN
派早报:Claude AI 接入多个创意软件生态、FILCO 生产方接手品牌等
Framework 推出 RTX 5070 GPU 显卡模块、蚂蚁集团百灵大模型开源 Ling-2.6-flash 等。
百灵大模型认领“Elephant”,Ling-2.6-flash发布,每百万tokens 0.1美元,周增长,百灵,flash,ling,tokens,elephant ...
4月22日,蚂蚁百灵正式推出Ling-2.6-flash——一款总参数量104B、激活参数7.4B的Instruct模型。该模型在BFCL-V4、TAU2-bench、SWE-bench Verified、Claw-Eval、PinchBench等Agent相关基准上达到同尺寸SOTA水平。 API定价方面,Ling-2.6-flash输入每百万tokens定价0.1美元,输出 0.3 美元。目前 ...
4月22日,蚂蚁集团百灵大模型团队推出新款Instruct模型Ling-2.6-flash。该模型总参数量1040亿,激活参数量74亿,采用混合线性架构,是一种高度稀疏化的MoE设计。模型已通过API开放,输入每百万tokens定价0.1美元,输出0.3美元,首周提供免费试用。
蚂蚁集团百灵大模型团队近日宣布,其研发的万亿级旗舰模型Ling-2.6-1T正式面向全球开发者开源。该模型突破传统大模型单纯追求参数规模的路径,通过系统性优化指令执行、工具适配及长文本处理能力,在复杂真实场景中展现出显著优势。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果