logo
两个广东人的五次撞车,撞出最强开源双雄的底气?
== 2026/4/24 21:09:39 == 热度 189

千呼万唤,4月24日上午,DeepSeek终于扔出重磅炸弹,全新系列模型DeepSeek-V4预览版正式上线并同步开源,在Agent能力、世界知识和推理性能三大维度宣布达到国内及开源领域领先水平。从2月8日上线测试版至今,其始终保持着神秘的姿态。就在四天前的周一晚上,月之暗面同样发布并开源了Kimi K2.6模型,主打长程编码和Agent集群能力,在多项基准测试中持平甚至优于GPT-5.4、Claude Opus 4.6等闭源模型。凤凰网科技统计发现,这已经是Kimi和DeepSeek的第五次撞车。不仅如此,这一次双方在架构层面有了更多吸纳与借鉴。就连在资本市场,二者也被拿来并列。据Theinformation报道,DeepSeek正在寻求首轮外部融资,在估值方面就参考了Kimi。一次两次的撞车或许是巧合,但这两支中国队伍显然已在过去两年的摸高探索中形成了一种默契。开源策略叠加创新互惠,让双方都比既定路线走的更快。中国最强的两个开源模型,正以一种心照不宣的方式,从两个不同的方向合力包抄海外巨头的腹地。五次撞车,蛛丝马迹越来越多先说前几天的Kimi K2.6。月之暗面已经有段时间不在单个模型上堆参数了。但从2.5到2.6,模型却越来越会干活了。据称2.6在单个工程任务中持续12小时、发起4000多次工具调用,在官方测试中完成从零构建SysY编译器到通过140项功能测试的复杂任务官方估算,这相当于4名工程师两个月的工作量。用杨植麟之前概括的三个词来说,就是Token效率、长上下文、Agent集群。DeepSeek V4也有三个关注点,即百万上下文,万亿参数和下半年适配国产算力(核心股)。在架构层面,V4采用大规模混合专家(MoE)架构,完整版总参数高达1.6万亿。创新注意力机制在Token维度进行压缩,结合DSA稀疏注意力,相比传统方法大幅降低计算与显存需求,1M上下文正式成为DeepSeek所有官方服务的标配。新模型的看点不展开说了,这次想回顾下几个巧妙的撞车点。Kimi和DeepSeek的撞车史,最早可以追溯到Kimi 1.5与DeepSeek R1的发布时间重叠,当时大家还替Kimi惋惜,认为强者遇强者,是一种压力。此后,两边的发布节奏重叠次数越来越多,凤凰网科技此前也报道过《Kimi和DeepSeek又又又撞车》。就拿上下文来说,Kimi其实
=*=*=*=*=*=
当前为第1/4页
下一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页