DeepSeek V4终于出场,为大模型国产算力时代做准备
== 2026/4/24 16:18:07 == 热度 189
non-fused)基线相比,该方案在通用推理任务中实现了1.50-1.73倍加速;在对延迟敏感的场景(例如强化学习(RL)rollout 和高速 Agent 服务)中,最高可达1.96倍加速。”这是团队首次在类似文件中对国产算力验证情况进行披露。并且,在DeepSeek-V4官方发布信息中,团队在价格图表下方用小字明确标注,“受限于高端算力,目前Pro的服务吞吐十分有限,预计下半年昇腾950超节点批量上市后,Pro的价格会大幅下调。”DeepSeek V4发布节点多次延后,“最初计划的确是在春节附近,大概经历了3-4次延期。”一名知情人士表示。V4和目前行业公认的顶尖模型存在差距,团队对此也有清晰认知。一名接近DeepSeek人士告诉界面新闻记者,V4训练完成时,内部很清楚大约是Opus 4.5或GPT-5.3 Code X水平,发布延期的部分原因也在于团队还想再追一追。不过,一名研究人员表示,尽管性能还不是最强,但DeepSeek V4对开源社区仍具有重要意义,“好的模型不再开源了,这应该是当前开源社区最好的模型。”DeepSeek V4发布之外,这家历史上从不融资的公司,其融资事宜成为近期市场关注重点。前述知情人士表示,DeepSeek方面曾在融资方面明确对标Minimax。界面新闻记者获悉,今年春节前后,有投资人曾以300亿美元估值接触DeepSeek,但随后MiniMax股价进入了一段时间飞涨,大幅超过300亿美元,交易最终没能落地。“所以最近100亿美元估值的传闻不准确,从第一天起他们的报价就不低于MiniMax。”英伟达CEO黄仁勋在近期一场视频播客采访中,曾对中国大模型所经受的算力限制作过回应。采访人提出疑问,中国算力芯片在制程等技术和性能方面仍然受限,是否就意味着模型厂商难以训练出能够超过Claude或GPT的模型。黄仁勋的看法是,中国只是在芯片性能上受限,但在芯片规模和能源基础上完全没有,模型厂商可以用更多芯片和足够电力来弥补这一短板,并且当前AI大模型的瓶颈并不仅仅体现在硬件上,算法创新仍然参与主导AI性能的提升,而中国具备大量相关的AI顶尖人才。“DeepSeek首次在华为(芯片)上线的那一天,对我们国家来说会是一个可怕的结果。”黄仁勋说。
=*=*=*=*=*=
当前为第2/2页
上一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页