今日应用
今日话题
重点标签 AIGC社区、SB-1047法案、AI监管、技术创新、开源大模型
文章摘要
美国加州的《SB-1047前沿AI大模型安全创新法案》引发了广泛关注和争议。该法案旨在增强大模型的安全性和透明度,促进公平和吸引投资,但同时也可能对科技企业和开发者带来负面影响。例如,法案规定,如果有人将Meta的Llama-3等前沿模型用于非法用途,Meta也会受到严重处罚。此外,法案还要求开发者对模型的潜在安全事故负责,并对用户资料进行提交和评估。
吴恩达等AI界泰斗对法案表示抵制,认为其危险范畴定义不合理,对造成的伤害定义也存在问题。他们认为,应该监管的是AI应用程序而不是大模型本身。如果法案通过,可能会扼杀开源大模型的技术创新。Yann LeCun甚至直言,SB-1047法案意味着加州科技产业将面临终结。
普通用户也对法案表示抵制,认为其难以执行,会严重影响开源领域的发展。有人建议将开源大模型交给中国来做,因为中国已经具备与OpenAI等科技巨头竞争的大模型。
总的来说,SB-1047法案在增强大模型安全性的同时,也存在一定的问题和争议。如何平衡监管与创新,是一个值得深思的问题。
文章来源
原文地址: 点我阅读全文
原文作者: AIGC开放社区
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...