存储芯片成为印钞机
== 2026/5/2 17:26:53 == 热度 190
加快数据处理速度;以及 NAND 闪存,用于长期数据存储,例如在手机上存储照片。HBM 是通过将 DRAM 芯片堆叠而成,然后与英伟达等公司生产的处理器一起封装,以加速人工智能计算。英伟达与三星、SK 海力士和美光密切合作。Counterpoint 的半导体研究分析师 MS Hwang 表示,这两种类型的营业利润率都比往常水平翻了一番,DRAM 的营业利润率达到 80% 左右,NAND 闪存的营业利润率达到 60% 左右。黄补充道,服务器、PC 和智能手机行业的许多大公司都在支付溢价,以大量采购内存,从而限制竞争对手的供应。这体现了一种理念:谁能主导内存供应,谁就能主导人工智能,他说道。我们今天看到的是市场有史以来最严重的内存短缺,全球电子元件分销商 FusionWorldwide 的执行副总裁 Marcus Chen 表示。Chen 支持的大多数客户只能获得所需内存芯片的 30% 到 50%。有些甚至更少,他说道。客户和内存芯片制造商长期以来依赖口头协议来确保长期供应,但现在在某些情况下,他们开始签订具有约束力的合同。花旗集团半导体分析师 Peter Lee 表示,一些合同的期限长达五年,要求客户预付约 30% 的成本,或分担新建内存芯片工厂的投资成本。我们看到客户正在采取这样的措施,Lee 说道。存储会缺到2027年如上所述,在三星于2026年4月30日发布的完整财报中,该公司内存业务负责人金在俊警告称,内存产品严重短缺的情况预计至少会持续到2027年。据报道,三星表示
,由于客户争相确保未来的供应,需求满足率已降至历史新低。这一警告与竞争对手SK海力士在一周前财报电话会议上的表态非常相似。三星和SK海力士与美国美光科技一起,控制着全球超过90%的DRAM市场份额。当全球三大内存供应商中的两家同时发出未来几年内存短缺的警告时,人们感到担忧也并非毫无道理。造成内存短缺的主要原因是人工智能基础设施的需求。现代人工智能系统需要海量的高速内存来持续不断地向GPU和加速器提供数据。而造成这一需求激增的核心是HBM(高带宽内存),这是一种垂直堆叠的DRAM,旨在提供极高的带宽,同时保持与处理器物理距离很近。HBM已成为人工智能加速器的关键组成部分。然而,这项技术的制造难度高、成本昂贵,需要先进的芯片堆叠、精密键合和复杂的封装技术。因此,供应有限,而需求却超过了制造商的产
=*=*=*=*=*=
当前为第2/4页
下一页-上一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页