大模型安全风险凸显 网宿科技率先推出专业评估服务
== 2025-5-23 15:12:12 == 热度 192
    本报讯 (记者谢岚)近年来,大模型在带来服务、营销、产品等领域的全面革新的同时,也伴生出模型漏洞、对抗攻击、数据泄露等风险。诸如DeepSeek遭受大规模恶意攻击、ChatGPT用户聊天数据泄露等事件,一再凸显大模型安全问题的严峻性。    为了应对大模型安全挑战,日前,网宿科技股份有限公司(以下简称“网宿科技”)旗下网宿安全正式推出业内首个基于专家深度测试的大模型安全评估服务。该服务通过模拟攻击测试、安全审计与合规审查,提供覆盖模型开发、部署和应用全周期的安全检测与加固方案,可以系统性提升模型与模型应用的安全性、稳健性及合规能力。    网宿科技安全事业部高级技术总监胡钢伟表示,安全是AI产业发展的根基,网宿安全依托深厚的安全攻防能力以及对AI应用场景的理解,推出大模型安全评估服务,将助力企业降低AI创新中的安全风险,使其更专注于业务发展。    大模型安全困境:亟需全面评估方法破局    日前,来自中美英德等8个国家的AI安全领域学者联合发布的一篇系统性技术综述论文指出,大模型安全领域面临的主要挑战之一便是当前评估方法存在显著不足。    在专家看来,单一参考攻击成功率无法全面衡量模型安全性,基于静态数据集的基准评测难以应对各类攻击。尽管对抗性评测不可或缺,但在实际环境中,其全面性、准确性和动态性仍需提升。    网宿安全此次推出的大模型安全评估服务,则采用最新的AI对抗攻击检测技术,结合自动化检测与专家渗透测试,能够确保评估效率和精准度,并从数据安全、算法安全、模型输出安全等维度进行全方位评估,确保评估结果的全面性和准确性。    具体来看,该服务通过模拟攻击测试,可以增强模型的鲁棒性和安全性,提升模型对外部攻击的防御能力;通过数据隐私评估,能够确保数据安全与合规,防止敏感信息泄露;通过伦理与合规性检查,能够确保模型输出内容符合伦理、法规标准;并且,通过模型的可解释性与透明度评估,确保模型在实际
=*=*=*=*=*=
当前为第1/3页
下一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页