大模型集体“沦陷”?记者实测!一条由AI制造的谣言是如何产生的……
== 2026/4/13 21:50:37 == 热度 194
而这些信息真假难辨,有不少都是伪造或有人刻意编撰让大模型抓取。对于AI大模型“造谣”的相关问题,记者联系了多家AI大模型公司,但均未回复相关AI造谣的问题。据业内人士解释,大语言模型的回答基于概率生成机制,在开放信息环境下,当某一类话题存在大量结构相似但未经验证的信息时,模型在个别情况下可能会对这些内容进行抓取,从而生成不准确的结果。这类问题本质上属于模型在复杂信息环境中的理解与判断偏差,也是当前大模型行业共同面临的挑战。北京大学汇丰商学院副教授、财经传媒专业协调人叶韦明此前告诉记者,生成式AI的核心商业壁垒与用户黏性,建立在“信任”与“高效”之上。如果用户发现AI给出的看似客观的答案,实则是被批量软文、伪造信源和提示词注入等深度操纵的“拟态伪装”,AI的公信力将瞬间崩塌。那为何AI大模型还会如此容易被自媒体消息“欺骗”和“挟持”,甚至开始“造谣”?在叶韦明看来,AI大模型平台其实也扮演着“数字守门人”的角色。但部分平台为了追求回答的生成速度、降低算力成本,或者急于扩大市场份额,在内容审核(尤其是在RAG检索源的白名单过滤上)方面存在疏漏。此外,一位法律行业人士指出,可以预见的是,针对AI生成内容的真实性保障、AI平台的审核义务边界以及GEO等行为的具体法律定性,都可能在未来AI立法或配套规则中予以明确。校对:姚远
=*=*=*=*=*=
当前为第3/3页
上一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页