李飞飞亲自撰文,数十名科学家签署联名信,反对加州AI限制法案

AI最新资讯2个月前发布 tree
21 0 0

今日应用


今日话题


李飞飞亲自撰文,数十名科学家签署联名信,反对加州AI限制法案
李飞飞亲自撰文,数十名科学家签署联名信,反对加州AI限制法案
 

重点标签 AI监管SB-1047法案李飞飞吴恩达开源社区

文章摘要


在硅谷,AI科学家与监管部门就安全与创新展开辩论。核心是SB-1047法案,旨在为高风险AI模型建立安全标准,防止滥用。但许多科学家认为法案过于严格,会阻碍创新。法案要求模型开发者承担法律责任,证明模型无危险功能,并实施保护措施。新成立的监管机构将制定安全标准。李飞飞等人撰文和签署公开信,指出法案将损害AI生态系统,过度惩罚开发者,束缚开源开发,削弱学术研究,且未解决真正问题。他们呼吁采取更合理的AI治理政策。

详细摘要:

在硅谷,人工智能(AI)科学家们与监管部门展开了一场关于安全与创新的激烈辩论。这场辩论的焦点是SB-1047法案,即《前沿人工智能模型安全创新法案》,该法案试图为高风险的AI模型建立明确的安全标准,以防止其被滥用或引发灾难性后果。然而,许多科学家认为该法案的条款过于严格,将对科技创新造成毁灭性的影响。

SB-1047法案于今年2月份在参议院被提出,随后引起了广泛的争议。法案的具体内容包括对在特定计算和成本阈值之上训练的AI模型进行监管。例如,使用超过10^26次整数或浮点运算的计算能力进行训练的AI模型,其成本超过一亿美元,或者利用等于或大于10^25次整数或浮点运算三倍的计算能力对模型进行微调而创建的AI模型,都将被定义为存在”潜在危险”或需要额外监督。

法案还要求模型开发者对其模型的下游使用或修改承担法律责任。在训练开始之前,开发人员需要证明他们的模型不会启用或提供”危险功能”,并实施一系列保护措施来防止此类使用。此外,法案还提出了建立一个名为”前沿模型部门”的新监管机构,负责制定安全标准并就人工智能法律提供建议。

然而,包括李飞飞和吴恩达在内的许多AI科学家对SB-1047法案表示反对。他们认为,该法案将损害正在萌芽的人工智能生态系统,不必要地惩罚开发人员,扼杀开源社区,并阻碍人工智能学术研究,同时无法解决其旨在解决的真正问题。

李飞飞在《财富》网站上发表文章,抨击SB-1047法案将产生重大而意想不到的后果。她指出,法案将过度惩罚开发者并扼杀创新,束缚开源开发,削弱公共部门和学术人工智能研究,且并未解决人工智能进步的潜在危害。此外,数十位科学家也联名签署了一封公开信,从研究者的角度出发,陈述该法案对加州人工智能研究和教育目标的损害。

这些科学家认为,SB-1047法案会给开源模型的发布带来”寒蝉效应”,损害研究;人工智能风险预测与”能力”评估存在不科学性;对开源模型的保护不足;以及对学生的就业安置和职业成果的担忧。他们呼吁采取更合理的AI治理政策,以赋能开源开发,提出统一且合理的规则,并建立消费者信心。

吴恩达也多次就此事发声,认为监管机构应该监管应用而不是技术。他以电动机为例,指出如果法律规定,当任何人以有害的方式使用电机时,电机制造商都要承担责任,那将导致电机制造商要么停产,要么将电机制造得非常小,以至于对大多数应用来说毫无用处。他认为,如果我们关注特定的应用,就可以更合理地评估风险并判断如何确保它们的安全,甚至禁止某些类型的应用。

这场关于AI监管的辩论仍在继续,留给科学家们的抗议时间已经不多。相关部门将在8月7日举行关于该法案的听证会。AI真的已经危险到要如此监管的地步了吗?这仍然是一个值得深思的问题。

文章来源


原文地址: 点我阅读全文
原文作者: 机器之心

© 版权声明

相关文章

暂无评论

暂无评论...