logo
全文
===2026/1/29 22:12:30===
步提升推荐的整体质量。我们还会验证广告信号与内容推荐的结合,持续推动长期目标,逐步构建一个内容与广告推荐共存的共享平台。   其次,我们会让推荐系统更具适应性。系统会根据用户在使用过程中的实时行为来调整推荐内容,使内容推荐更加贴合用户当下的兴趣。   最后,我们会更深入地将大语言模型融入现有的推荐系统,因为它们可以更深层次地理解内容。这一点尤其适用于那些刚发布、互动数据较少的内容,以便把这些内容更好地推荐出去。   广告方面,我们也进行了大量模型推进工作,涉及Andromeda、Lattice和 GEM。这里我重点讲一下 GEM。第四季度,我们将GEM模型的覆盖范围扩展到了Facebook Reels,现在它已经覆盖了Facebook和Instagram的所有主要板块。   同时,我们把训练GEM所使用的GPU集群规模实现了翻倍。展望2026年,我们预计会大幅扩展GEM模型的训练规模,使用更大的集群数据、增加模型复杂度、扩展训练数据量,并利用我们在第四季度部署的新序列学习架构。我们还会进一步优化如何将GEM基础模型学到的知识迁移到其他模型中使用。   总体来看,我们的许多模型、组件都还有很大提升空间。这是我们首次找到一种可以像LLM一样高效扩展的模型架构。我希望这能让我们在保持良好的投资回报率前提下,大幅扩大推荐模型的规模。   富国银行分析师Ken Gawrelski:马克,您认为对Meta来说,拥有行业领先的通用模型有多关键?或者说,您认为只要在某个特定应用场景拥有表现出色的模型就足够了?比如Anthropic在代码生成方面的优异表现。我想听听您在这方面的看法。   另外,苏珊,你前面谈到在2026年公司对模型所做的改进,包括对核心模型的微调,你们在用户参与度、广告相关性方面都有优化。对于这部分资金投入,您是否观察到边际收益递减的迹象?展望2026年,您还观察到哪些机遇?   马克•扎克伯格:我认为这个问题的核心在于:拥有一个通用大模型到底有多重要。   在我看来,Meta本质上是一家深度的技术公司。有些人会把我们理解为一家做应用、做产品体验的公司,但真正让我们能够构建这些应用和体验的,是我们自己打造并掌控的底层技术。正因如此,我们才能把各种技术整合在一起,按照自己的设想去设计用户体验,而不是被生态系统中其他公司已经做好的东西所限制,或是只能在别人允许的范围内创
=*=*=*=*=*=
当前为第8/10页
下一页-上一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页