逆市拉升!存储芯片,突发大消息!机构:上车机会
== 2026/3/29 10:35:46 == 热度 190
新研报中表示,市场可能存在误读。该技术仅作用于推理阶段的键值缓存,不影响模型权重所占用的高带宽内存(HBM),也与AI训练任务无关。分析师强调,所谓“6倍压缩”并非存储总需求的减少,而是通过效率提升增加单GPU的吞吐量。摩根士丹利的分析师Shawn Kim指出,谷歌这项研究对行业的影响应更偏向积极,因为它影响了一个关键瓶颈。该技术提高了用于推理(即运行AI模型)的所谓键值缓存的效率。他写道:“如果模型能够在内存需求大幅降低的情况下运行而不损失性能,那么每次查询的服务成本就会显著下降,从而使人工智能部署更具盈利性。”Kim表示,考虑到投资回报机会,TurboQuant对超大规模企业是利好。从长远来看,这对内存制造商可能也是有利的,因为“更低的单token成本也能带来更高的产品采用需求”。摩根士丹利援引经济学中的“杰文斯悖论”解释长期影响:技术效率提升虽降低单位成本,但往往因使用门槛下降而带动整体需求扩张。Lynx Equity Strategies分析师KC Rajkumar指出,部分媒体报道存在夸大成分。当前推理模型早已广泛采用4-bit量化数据,谷歌所谓的“8倍性能提升”是建立在与老旧32位模型对比的基础之上。“然而,由于供应极度紧张,这几乎不会降低未来3—5年对内存和闪存的需求。”Rajkumar写道,先进的压缩技术仅仅减少了瓶颈,并不会摧毁对DRAM/闪存的需求。富国银行分析师Andrew Rocha指出,压缩算法的存在从未从根本上改变硬件采购的整体规模。通过大幅降低单次查询的服务成本,这类技术能让原本只能在昂贵云端集群上运行的模型迁移至本地,有效降低AI规模化部署的门槛。以亚马逊和谷歌为首的四家超大规模企业计划今年斥资约6500亿美元建设数据中心,抢购英伟达的人工智能加速器及相关存储芯片。SK集团会长崔泰源近期表示,存储芯片供应紧张的局面将持续到2030年。从供应链视角看,2026年服务器DRAM需求预计增长39%,HBM需求年增58%。TurboQuant的优化效果或将被行业增长浪潮淹没。瑞穗科技专家Jordan Klein认为,当前内存股的回调更像是一个“上车机会”,而不是一个股价转折点。Klein在报告中写道,在经历了2025年和2026年初的强劲上涨之后,内存股的多头们开始陷入摇摆。 尽管内存行业一向以剧烈的周期性波动而闻名,但他强调,最近的抛售符合
=*=*=*=*=*=
当前为第2/3页
下一页-上一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页