开源大模型可能不香了!您在微调开源大模型的时候,很可能已经泄露了您宝贵的数据!

AI最新资讯6个月前发布 tree
76 0 0

今日应用


今日话题


开源大模型可能不香了!您在微调开源大模型的时候,很可能已经泄露了您宝贵的数据!
开源大模型可能不香了!您在微调开源大模型的时候,很可能已经泄露了您宝贵的数据!
 

重点标签 后门漏洞数据窃取联邦学习微调差分隐私

文章摘要


研究人员通过设计一个“锁”来实现后门在微调期间仅执行一次,并将这一后门设计扩展到Transformers模型中。此外,研究还展示了在更强的黑盒设置中,攻击者可以使用模型窃取技术恢复数据,并实现完美的黑盒成员推断攻击。这一结果对差分隐私(DP)具有重要影响,即使使用DP-SGD训练的模型也可能面临类似的风险。

后门漏洞是指计算机系统、软件或网络中存在的一种安全漏洞,允许攻击者绕过正常安全机制,获取未经授权的访问权限或执行恶意操作。后门漏洞的存在可能导致严重的安全问题,包括数据泄露、系统被入侵等。为确保系统安全,需要进行定期的安全审计和漏洞扫描,并采取必要的安全措施。

文章来源


原文地址: 点我阅读全文
原文作者: AIGC最前线

© 版权声明

相关文章

暂无评论

暂无评论...