logo
对话理想汽车CTO谢炎:想成为头部公司,AI芯片是必须做的事
== 2026/5/12 15:53:13 == 热度 190
不仅是成本中心,更决定了企业能否在淘汰赛中拿到通往具身智能时代的船票。在与界面新闻等媒体的采访中,谢炎首次还原了马赫100自研芯片的决策背景、技术突围与组织创新的历程。以下为采访实录,界面新闻略做编辑与整理:媒体:理想从什么时间开始考虑做自研芯片?主要有哪些考虑因素和限制?谢炎:我在2022年加入理想汽车,但公司想做芯片的想法在2021年就已萌生。当时行业里“自研芯片”越来越成为一个方向,但我们一直在追问一个更底层的问题:特斯拉最初用英伟达,后来选择自研,这背后的逻辑到底是什么?这个问题当时很少被深入讨论,而我们认为,只有真正想清楚“为什么”,才能决定“怎么做”。我们选择自研主要基于长期的技术演进判断。首先是算力需求的指数级爆发,2022年大语言模型的Scaling Law(规模化法则)还未被大众广泛认知,但我们隐约感觉到,更大的算力会带来更高的性能和更好的体验。如果AI的能力不断增长,离自动驾驶L4完全替代人类还有很长的路,对算力的需求是庞大的。面对越来越高的算力需求,我们认为依赖外部厂商的迭代速度会比较被动。其次是底层计算架构的瓶颈。AI发展到2020年之后,传统的冯·诺依曼架构已经成为一个限制因素。按技术分类,CPU和GPU都是在这个架构上做优化,但我们认为,完全可以Native for AI,也就是为AI原生设计出一种完整的计算机架构,这里面从软件到硬件存在大量的创新机会。回顾人类和计算机的发展历史,计算机体系结构的跃升往往是某种需求不被上一代技术满足而催生的。英特尔曾认为图形计算不需要专门的架构,用CPU就够了,而英伟达坚定推出了专门针对图形计算的GPU,如今两者的市值地位已经发生反转。同理,今天用GPU、GPGPU做AI计算肯定也可以,但效率不高。如果AI计算是未来增长最快的计算形式,那么必须要有专门围绕AI做服务的计算架构。如果想成为头部公司,做AI芯片是必须跨越的门槛,这种vertical integration(垂直整合)的能力是供应商模式无法提供的差异化价值。媒体:自研芯片在实际场景中遇到了什么问题?马赫100芯片为何采用数据流架构,而没有随大流采用Chiplet技术?谢炎:最直接的问题是算力成本。随着VLA大模型、世界模型持续演进,端侧AI推理的算力需求是在持续增长的。我们在规划芯片时,就必须面向未来几年的需求,而不是只满足当下。在这个前提下,
=*=*=*=*=*=
当前为第2/5页
下一页-上一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页