logo
AI幻觉再引关注“生成内容”时代边界何在
===2026/1/9 7:27:21===
  AI大模型自诞生之日起,其幻觉就难以避免。因为从底层规则来看,大模型被强制要求一定要有回应,但它确实会出现无法回答的情况,自然就会胡说八道。一边是厂商不断加高的安全壁垒,另一边是用户不断尝试,设法在已有的规则中找寻突破口。就如几十年前互联网刚普及时一样,这注定将成为一场“猫鼠游戏”。“AI大模型目前的这一结构令其在技术上无法消灭幻觉,只能在工程上尽可能避免。”Listenhub运营负责人马克斯说   ◎记者 罗茂林   大模型的普及让全球内容生产正经历一场重构。近期,部分大模型突破框架,输出不雅回复的新闻一度在社交媒体上发酵。与此同时,各类诸如“关公战秦琼”的AI幻觉,也令模型商业化落地难以真正令人满意。   “生成式”内容带来的冲击远不止于此。日前,法国、马来西亚及印度的监管部门共同向马斯克旗下的AI聊天机器人Grok发难:该模型生成大量针对女性和未成年人的性相关伪造内容。相关部门谴责称,这样的行为正在突破法律和伦理的底线。   新生事物的发展总伴随争议与挑战,当“生成式”内容正以前所未有的规模进入大众生活,新的规则边界也需要在探索中逐渐形成。   AI大模型:与幻觉共存   近期,有用户称在使用大模型时模型出现不雅回复,一时间引发网友关注。   “这件事在业内来看有点蹊跷,因为输出的内容连格式都和一般的模型对话不太一样。”Listenhub运营负责人马克斯告诉上海证券报记者,这种不寻常的情况有可能意味着大模型被注入过特殊指令。   一位AI大模型工程师告诉记者,目前AI大模型训练中工程师往往会为大模型设定一套底层“人设”:“它可以理解为大模型的一个人格,包含了很多禁止性约束,在内容输出前起到审核作用,确保输出内容合规。”   而所谓注入指令,便是用户通过输入特定的词语,让大模型短时间内忘掉被工程师设定的“人格”。在此背景下,模型可能突破既定规则,这也被业内视为AI大模型幻觉的一种表现。   汇正财经资深投资顾问冯涛告诉记者,从目前大模型行业的训练惯例来看,AI产生幻觉大致包括两方面原因:一方面是初始的训练数据可能存在少量错误、噪声或覆盖盲区;另一方面是模型对复杂逻辑的推理能力不足,知识关联建模存在缺陷而导致
=*=*=*=*=*=
当前为第1/3页
下一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页