logo
光大证券:英伟达(NVDA.US)计划引入LPU方案 AI推理有望延伸至PCB设备领域
== 2026/3/3 19:25:52 == 热度 192
  光大证券发布研报称,英伟达(NVDA.US)计划在新的芯片架构中引入LPU方案,标志着AI算力市场从“通用计算”向“专用推理”的范式转移。若英伟达LPU方案落地,将使PCB的需求面积显著增长且PCB板材加工难度进一步提升,预计将对PCB微钻及PCB加工设备带来较大增量需求。全球AI算力需求持续高速增长,同时AI推理对低延时的需求不断增强,GPU+LPU的异构架构有望加速落地,产业景气度有望延伸至PCB设备领域,PCB钻针或呈现供不应求及产品涨价的高景气度局面。  光大证券主要观点如下:  LPU具有低时延高带宽特点,与GPU在AI工作流中形成互补  LPU(LanguageProcessing Unit)是一种专为AI推理,特别是低延迟实时交互(如对话)设计的专用处理器,其核心是通过“编译器驱动”的静态调度实现确定性执行,并依赖高速片上SRAM(带宽可达80TB/s)来消除内存瓶颈,从而将首试延迟降至约百毫秒内,在主流大模型(以Llama2-70B模型为例)推理上比H100GPU快约10倍,综合能效可提升约10倍。  相比之下,GPU(如H100)是通用高吞吐架构,依赖大容量HBM显存,擅长大规模并行计算,是大模型训练和高吞吐量任务的主力,但在单序列、实时生成的场景中会受限于内存带宽和运行时调度,难以突破低延迟瓶颈。  LPU与GPU在AI工作流中正形成互补关系:GPU凭借其强大的并行能力和大显存,依然是模型训练和处理大量上下文(Prefill阶段)的核心;而LPU则在要求即时响应的文本逐词生成(Decode阶段)中优势显著,适合高并发的在线推理服务。英伟达计划在新的芯片架构中引入LPU方案,标志着AI算力市场从“通用计算”向“专用推理”的范式转移。  LPU对PCB设备和钻针的增量影响重点体现在PCB价值量增加和先进封装两方面  1)PCB使用面积增加,PCB材料要求升级:由于单颗LPU的230MBSRAM存在容量瓶颈,运行大规模模型需要数百颗LPU串联,因此若大规模应用LPU,所需PCB载板面积较纯GPU架构方案将呈现数倍增加。同时,由于考虑信号传输效率,LPU所需PCB材料要求较高,预计将使用52层M9级覆铜板+Q布的增强方案,对钻针消耗量巨大,预计PCB钻针的消耗量将显著增加。  综上,英伟达LPU方
=*=*=*=*=*=
当前为第1/3页
下一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页