两个广东人的五次撞车,撞出最强开源双雄的底气?
== 2026/4/24 21:09:39 == 热度 190
是国内最早做百万上下文的,2024年时就提过对应200万文字,当时长文本一度是Kimi非常亮眼的标签。不过比较遗憾的是,当时Kimi没解决成本问题,这次DeepSeek再提长文本,就已经把成本打下来了。这次V4 API标准费率为输入每百万Token 0.30美元,缓存命中时低至0.03美元,仅为GPT-4o价格的约1/20至1/50。按照人民币计价,V4-Flash输入价格仅为1元/百万Token(缓存未命中)、输出2元/百万Token;V4-Pro输入为12元/百万Token、输出24元/百万Token。另外,Kimi下一代模型的亮点其实也是长上下文,但在路线上两者有点不一样,DeepSeek探索的是稀疏注意力,Kimi探索的事线性注意力。至此,DeepSeek和Kimi拿出了中国唯二万亿已开源模型。开源的合力,对垒硅谷三巨头在全球的AI竞赛里,有人负责做0-1的创新,有人负责1-100的工程复制,但难的是前者需要全球范围内那1%的天才,后者更适合军团作战的大厂。过去,外界常常说0-1的创新容易发生在美国,后者容易发生在中国。但从DeepSeek和Kimi开始,0-1的创新开始更多的发生在中国。这给了海外AI厂商巨大压力。凤凰网科技了解到,梁文锋在创立DeepSeek之后,对应用和市场都不是最感兴趣的,他更在乎底层创新,2025年初的R1以多头潜在注意力的架构创新击穿了深度思考的成本。另有行业人士告诉凤凰网科技,尽管融资曾打乱Kimi的节奏,但在2025年DeepSeek走红后,Kimi也回归技术,继续钻研底层创新。而Kimi从K2到K2.5,其底层架构与DeepSeek V3一脉相承,本质上是在后者基础上的规模化扩展。到了2026年, DeepSeek团队在1月连续发布的两篇论文mHC与Engram中,开始大量参考Kimi此前开源的优化器、注意力架构等研究成果。这种中国开源模型在底层技术的你追我赶,让中国的底层创新形成了良性循环,最终带动了国内开源阵营的集体逆袭。MIT与Hugging
Face联合发布的报告显示,过去一年中国开源模型的全球下载量占比达到17.1%,首次反超美国的15.86%。全球头部AI模型API聚合平台OpenRouter的数据则显示,2026年2月,中国AI模型的调用量三周大涨127%,全球前五中占据四席包括MiniMax、Kimi
=*=*=*=*=*=
当前为第2/4页
下一页-上一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页