“买显存送核心”,AI芯片竞赛进入“内存为王”!智能体大时代,中国AI芯片有何机会?
===2026/3/5 14:30:07===
专题:A股步入“牛市第三阶段” 紧抓“十五五”与业绩兑现主线
每经记者|朱成祥每经编辑|杜宇
曾经,云服务厂商买AI芯片,关注GPU(图形处理器)算力大小,而如今,可能更多的是看重显存大小,比如是40GB还是80GB。
甚至有人调侃“买显存送核心”,即买一张GPU算力卡,更看重的是显存带宽和容量,而不是GPU算力大小。
如今,内存芯片一两个月价格翻倍的大涨潮,正是对AI芯片进入“内存为王”的集中体现。
AI云基础设施厂商PPIO相关专家告诉每经记者:“HBM(高带宽内存)及CoWoS(基板上晶圆、芯片)封装产生的成本已经超过纯GPU芯片,HBM成本已经‘碾压’核心,‘买显存送核心’已成为现实。”
某GPU芯片企业技术负责人李明(化名)对每经记者表示:“结合我们硬件设计与供应链经验,CoWoS封装GPU中,当前HBM显存成本已接近甚至超过GPU核心,是整卡成本最高的单一组件。”
懂芯创始人张慧娟告诉每经记者:“AI芯片的竞争已从单纯的算力竞赛,转向了内存带宽和内存容量的双重竞赛。HBM通过先进封装技术与GPU裸片集成在同一封装内,实现了计算与存储的紧耦合,极大地缓解了内存难题,越来越成为业界追捧的主要方向。”
图片来源:每经媒资库
2025年下半年以来,存储芯片持续涨价成了半导体行业最热门的话题。进入2026年,存储芯片仍保持上涨趋势,且涨幅惊人。
而这背后,是AI芯片已进入“内存为王”的时代。
2023年,ChatGPT石破天惊,人类社会进入大模型时代。进入2026年,大模型已然从思考转向应用,智能体、Skill以及“养虾”成了热门话题。
人工智能的发展,也对AI芯片有了新的要求。随着大模型参数的增加,训练和推理对显存(内存的一种)的需求也与日俱增。
张慧娟表示:“我们已经见证了模型参数量的指数级增长,从GPT-3的1750亿到万亿级MoE(混合专家模型),直接推动了HBM需求的爆发。这也逐步造成,制约算力的瓶颈往往不是芯片算力本身,而是数据从内存传输到计算核心的速度,因为参数必须被加载到计算单元附近的高速存储介质中,计算单元才能以极低的延迟调用它们进行运算。”
=*=*=*=*=*=
当前为第1/4页
下一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页