AI提供的信息不靠谱 开发者要担责吗
== 2026/4/2 8:51:39 == 热度 189
等方面给出了相对明确的意见,例如,判决认定人工智能不具有民事主体资格;生成式人工智能以对话方式提供的信息,应被视作服务而非产品,因此适用过错责任原则。杭州互联网法院跨境贸易法庭庭长肖芄认为,AI生成的不准确信息本身并不构成侵权,需要考查的是提供服务的开发者是否存在过错。那么,如何界定开发者是否有过错?肖芄进一步解释,基于当前生成式人工智能几乎不可避免会出现一定程度的信息偏差,就需要考查比如开发者是否使用了当前行业内通行并被证明有效的措施,来提升技术可靠性,降低错误发生的概率,由此证明是否存在过错。“经过调查,本案中的开发者确实采用了可行的技术手段,力求降低错误发生。”肖芄说。记者调查发现,本案中这款生成式人工智能应用程序,已经针对信息可能存在的不准确性,在页面醒目位置对用户进行提示:“内容仅供参考,请仔细甄别”。法院认为,这也证明了开发者尽到了提醒告知义务。如何找到促进创新和权益保障的平衡点?人工智能行业业内人士表示,从底层技术逻辑来看,当前生成式人工智能基本都是基于词元的预测,如果这一底层架构没有发生根本性转变,信息偏差就不可避免。去年2月,清华大学新媒沈阳团队发布的一个报告指出,市场上多个热门大模型在事实性幻觉评测中幻觉率超过19%。“有训练测试案例证明,即使数据集中只有0.01%和0.001%的文本是虚假的,模型输出的有害内容也会分别增加11.2%和7.2%。”该业内人士说。尽管如此,技术的客观局限性并不能成为人工智能开发者的免责借口。受访法律界人士普遍认为,本案具有一定特殊性,原告并未因为误导性信息遭受明显的人身财产等权益损失;原告使用的是一种通用的生成式人工智能应用,并不是一款加载人工智能软件的机器人或者更加准确的行业应用等。“要求人工智能开发者一概为生成内容的准确性负责,既不现实也不合理。”薛军表示,但模型开发者不能以此为借口一味为自己“开脱”,还是要尽到相应的义务并进行风险提示,避免用户盲目信赖造成不良后果。肖芄表示,如何认定生成式人工智能的侵权责任,是一个少有成例的司法前沿问题,希望通过妥善准确的判决引导开发者或者平台提升信息标准,“找到促进创新和权益保障的平衡点”。业内人士建议,建立国家级人工智能安全评测平台,对新开发的人工智能大模型进行严格测试;同时,相关部门和平台要加强AI生成内容审核,提升检测鉴伪能力。
=*=*=*=*=*=
当前为第2/3页
下一页-上一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页