中国AI算力底座产业迈向“开放协同”
== 2026/4/14 1:52:12 == 热度 191
ensp; 这种“全系统出海”的底气,来源于中国在全栈液冷、高密供电等细分领域的领先。全球计算联盟理事长金海直言,中国在开放液冷专委会打下的良好基础,让OpenAIInfra社区在成立极短的时间内就具备了强大的技术输出能力。    事实上,众多国际科技巨头同样面临算力暴涨带来的电力与散热瓶颈,中国产业链在“液冷整机柜”“800V供电”等领域积累的规模化工程经验,正切中全球市场的痛点。从单一部件出口,到标准、规范、整机柜系统乃至“全系统出海”,中国AI算力底座正在全球AI基础设施演进中,注入不可忽视的创新动力。    仍面临技术瓶颈    在产业繁荣的表象之下,中国AI算力产业仍面临诸多严峻挑战。当算力集群整体功率从过去的千瓦级跃升至兆瓦级甚至吉瓦级时,一系列技术瓶颈随之显现。    “新一代智算超节点亟须通过开放架构实现弹性扩展。”北京抖音信息服务有限公司(字节跳动)服务器架构师和技术专家高晓军表示。面向未来,OpenAIInfra社区管理委员会联席主席、华为计算产品线研发副总裁龙盘表示,未来人工智能数据中心‌的基础单元是兆瓦级算力系统,高效供电、闭环液冷、高密光互连将成为核心底座。    记者了解到,当前行业面临的最大隐忧,在于“生态壁垒与标准碎片化”。若芯片、服务器等领域企业各自推行封闭标准,不仅会导致下游数据中心建设成本居高不下,还会阻碍异构算力的混合调度,制约产业整体发展。    如何破解上述隐忧?答案是,以“开源开放”理念打造硬件基建。    此次大会上,一项由中国移动、字节跳动、百度、京东、快手等算力头部用户,联合华为、新华三、超聚变等产业链核心企业共同倡议的“兆瓦级算力系统”项目正式启动。该项目将整合全产业链资源,集中攻关兆瓦级算力系统的核心技术瓶颈,推动产业标准化、规
=*=*=*=*=*=
当前为第3/4页
下一页-上一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页