字节狂飙、阿里亮剑……大模型混战春节档,没人敢躺
===2026/2/14 20:35:37===
的虚假不实信息保持高压严管态势,发现即处置,严厉打击违规行为。
阿里:Qwen3.5发布在即,这一次要做“看得懂世界”的基座。
相比于字节的高调,阿里的春节显得“蓄势待发”。
2月9日,Hugging Face页面上悄然出现Qwen3.5提交代码合并的PR,开发者从中扒出关键信息:全新混合注意力机制,极有可能是原生视觉语言模型(VLM),且计划开源2B密集版和35B-A3B的MoE版 。
这是阿里一次明确的战略转向。此前千问系列虽然强大,但始终是“纯文本学霸”。而Qwen3.5一旦以原生VLM(视觉语言模型)形态登场,意味着阿里决心把视觉理解直接塞进基座,而不是像多数厂商那样靠“视觉编码器+大语言模型”拼凑。如果落地顺利,这将是国产开源模型在多模态原生能力上的一次重要卡位。
百度:O计划“深潜”,入口才是护城河
百度是今年春节最早砸红包的玩家,5亿、北京台春晚首席AI合作伙伴,攻势不可谓不猛。但在模型层面,百度显得异常安静。
近期,百度“O计划”的代号在圈内流传,内部人士仅透露“与百度APP有关” 。这其实透露出百度现阶段的核心逻辑,也就是不急于发一个新模型秀肌肉,而是守住2亿月活的文心助手,把百度APP做成AI时代的超级入口。
这未必是错。当字节、阿里、腾讯都在为“入口”疯狂撒钱时,百度手里本就攥着一个国民级入口。O计划究竟是在训练新模型、重构搜索体验,还是酝酿Agent应用?悬念可能要留到节后了。
腾讯:没有新模型,却可能是最深远的布局。
盘点春节档时最容易漏掉腾讯,毕竟元宝的红包大战看起来只是“跟牌”,并没有像字节、智谱那样扔出重磅模型。
但懂行的人盯着另一件事:AI大拿姚顺雨加入腾讯后首次带队发布研究成果。
2月3日,腾讯混元技术博客上线,开篇就是姚顺雨团队的CL-bench基准研究。结论非常“狠”:全球前十的语言模型在“从上下文中学习新知识”这项能力上,平均解决率只有17.2%——这些顶级的做题家,其实根本不会利用上下文 。
这意味着什么?姚顺雨给出了一个极具野心的愿景:未来竞争的焦点不是谁能把模型训练得更好,而是谁能为任务提供最丰富、最相关的上下文。用户将从“数据提供者”转变为“上下文提供者”。
这或许解释了为什么腾讯春节没有抢发基座模型——他们在押注一条更长的赛道:定义大模型下一阶段的核心能力标准
=*=*=*=*=*=
当前为第2/4页
下一页-上一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页