logo
英伟达H200“解禁”次日,智谱联手华为发布全国产开源多模态模型!
===2026/1/14 18:55:28===
  (文/陈济深 编辑/张广凯)   就在美国宣布解禁英伟达H200、试图重新抢占中国市场的微妙时刻,上市不到一周的智谱,反手给国产开源界抛下了一颗重磅炸弹。   今日,智谱宣布联合华为开源最新图像生成模型GLM-Image。   这不仅是行业内首个在国产芯片上完成全流程训练的SOTA多模态模型,也用实际案例向行业展示了一个客观现实:对于顶级模型而言,高端算力已不再是必须依赖进口的“卡脖子”命门。   GLM-Image模型采用自主创新的‘自回归+扩散解码器’混合架构,实现了图像生成与语言模型的联合,并基于昇腾Atlas 800T A2设备和昇思MindSpore AI框架完成从数据到训练的全流程,验证了在国产全栈算力底座上训练前沿模型的可行性。   智谱官方介绍称,GLM-Image是其面向以Nano Banana Pro为代表的新一代‘认知型生成’技术范式的一次重要探索。   观察者网实测后发现,作为一款由纯国产芯片完成全流程的多模态模型,GLM-Image不仅更加擅长中文的生成,在各类图片类型上均有着行业头部的表现,能够驾驭各种不同的画风和尺寸需求。这意味着国产算力不再只是“可用”的替代方案,而是真正进入了可规模训练、可持续迭代、并能支撑前沿模型能力演进的阶段。   受此影响,智谱今日股价大涨18%报收216港元,上市一周来股价较116.2港元发行价接近翻倍,市值一度突破千亿港元。   对标顶级模型   从实测样例可以看出,智谱这波主打的是长文本以及复杂视觉文字的生成任务。   在文字渲染的权威榜单上,GLM-Image 交出了一份相当亮眼的成绩单。不仅超越 Qwen-Image、Z-Image 达到开源SOTA水平,部分指标甚至超越了Nano Banana Pro。   在 CVTG-2K(复杂视觉文字生成)榜单中,该评测重点考察模型是否能够在同一张图像中,准确生成多处、多个区域的文字内容。结果显示,GLM-Image 在多区域文字生成准确率上表现突出,Word Accuracy 达到 0.9116,位列开源模型第一。   同时,在衡量字符级差异的 NED(归一化编辑距离)指标上,GLM-Image
=*=*=*=*=*=
当前为第1/3页
下一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页