智谱发布GLM-4.6,寒武纪,摩尔线程完成适配

互联网 0 24
互联网资讯
观察者网 互联网资讯 发布于 10月1日 12:15
本条新闻为单纯事实消息的时事新闻,转载自观察者网,版权归源站所有,如有侵权,烦请联系我们

9月30日,国产大模型“六小龙”之一的智谱发布GLM-4.6新模型。

作为GLM系列最新版本,GLM-4.6在真实编程、长上下文处理、推理能力、信息搜索、写作能力与智能体应用等多个方面能力有所提升。


官方信息显示,此次升级表现在公开基准与真实编程任务中,GLM-4.6代码能力对齐Claude Sonnet 4;上下文窗口由128K提升至200K,适应更长的代码和智能体任务;新模型提升推理能力,并支持在推理过程中调用工具;搜索方面增强模型的工具调用和搜索智能体。

另外,“模芯联动”是此次新模型发布的重点,GLM-4.6已在寒武纪国产芯片上实现FP8+Int4混合量化部署,这也是行业首次在国产芯片上投产的FP8+Int4模型芯片一体解决方案,在保持精度不变的前提下,降低推理成本,为国产芯片在大模型本地化运行上探索可行路径。

FP8是8位浮点数(Floating-Point 8)数据类型,动态范围广、精度损失小;Int4是4 位整数(Integer 4)数据类型,压缩比极高,内存占用最少,适配低算力硬件但精度损失相对明显。此次尝试的“FP8+Int4 混合” 模式,并非简单将两种格式叠加,而是根据大模型的“模块功能差异”,针对性分配量化格式,让该省内存的地方用Int4压到极致,该保精度的地方用FP8守住底线,实现合理资源分配。

具体到模型适配过程中,占总内存的60%-80%的大模型核心参数通过Int4量化后,可将权重体积直接压缩为FP16的1/4,大幅降低芯片显存的占用压力;推理环节积累的临时对话数据可以通过Int4压缩内存的同时,将精度损失控制在 “轻微”范围。而FP8可重点针对模型中“数值敏感、影响推理准确性”的模块,降低精度损失、保留精细语义信息。

除了寒武纪,摩尔线程已基于vLLM推理框架完成对GLM-4.6 的适配,新一代GPU可在原生FP8精度下稳定运行模型,验证MUSA架构及全功能GPU在生态兼容性和快速适配能力方面的优势。

寒武纪与摩尔线程此番完成对GLM-4.6的适配,标志着国产GPU已具备与前沿大模型协同迭代的能力,加速构建自主可控的 AI 技术生态。接下来,GLM-4.6搭配国产芯片的组合将率先通过智谱MaaS平台面向企业与公众提供服务。

本文系观察者网独家稿件,未经授权,不得转载。

点赞 0 收藏(0)  分享
0个评论
  • 消灭零评论
本版公告

欢迎访问资讯板块,我们将在本版块为您带来最新最全最热的资讯,包含互联网、科技、数码、电脑、科普、体育、娱乐、国内等新闻。所有新闻都为单纯事实消息的时事新闻,转载均注明了来源,版权归源站所有,如有侵权,烦请联系我们

更多【互联网】资讯...
微信更新不吭声?微信时间条能点,还能发实况图 0
OKX视角下的Web3新周期:万物上链、资产自管与 0
高德扫街榜上线23天用户超4亿,烟火小店流量增 0
深圳夜送外卖、迪拜拿资质!美团无人机5年送出6 0
高德扫街榜的 23 天奇袭 0
阿里捷报频传:股价破192美元 高德扫街榜23天用 0
Nano Banana新增2大功能,还开放API了,一张图 0
高德杀疯了:日活3.6亿,扫街榜用户4亿 0
小红书发布FireRedChat:私有化部署的全双工大 0
黄金周,4亿人在用的高德杀疯了 0