OpenAI、微软、智谱AI等全球16家公司共同签署前沿人工智能安全承诺

AI最新资讯2个月前发布 tree
26 0 0

今日应用


今日话题


OpenAI、微软、智谱AI等全球16家公司共同签署前沿人工智能安全承诺
OpenAI、微软、智谱AI等全球16家公司共同签署前沿人工智能安全承诺
 

重点标签 AI安全人工智能科技监管伦理道德国际合作

文章摘要


在近期,人工智能(AI)的安全问题引起了全球范围内的广泛关注。OpenAI的联合创始人Ilya Sutskever和超级对齐团队的领导人Jan Leike相继离开OpenAI,Leike公开指责OpenAI及其领导层忽视安全问题,偏爱光鲜亮丽的产品。这一事件在业界引起了广泛关注,凸显了当前AI安全问题的严峻性。

5月21日,图灵奖得主Yoshua Bengio、Geoffrey Hinton和姚期智联合国内外数十位业内专家和学者,在权威科学期刊Science上发表文章,呼吁世界各国领导人针对AI风险采取更有力的行动。他们警告说,近六个月所取得的进展还不够,AI的无节制发展很有可能最终导致生命和生物圈的大规模损失,以及人类的边缘化或灭绝。他们认为,AI模型的安全问题已经上升到足够威胁人类未来生存的水平。

5月22日,OpenAI、谷歌、微软和智谱AI等来自不同国家和地区的公司共同签署了前沿人工智能安全承诺(Frontier AI Safety Commitments),欧盟理事会正式批准了《人工智能法案》(AI Act),全球首部AI全面监管法规即将生效。在人工智能首尔峰会上,来自北美、亚洲、欧洲和中东地区的16家公司就AI开发的安全承诺达成一致,签署了前沿人工智能安全承诺,包括确保前沿AI安全的负责任治理结构和透明度,基于人工智能安全框架,负责任地说明将如何衡量前沿AI模型的风险,建立前沿AI安全模型风险缓解机制的明确流程等。

图灵奖得主Yoshua Bengio认为,前沿人工智能安全承诺的签署标志着在建立国际治理制度以促进人工智能安全方面迈出了重要一步。智谱AI首席执行官张鹏表示,伴随着先进技术而来的是确保AI安全的重要责任。智谱AI也受邀亮相AI顶会ICLR 2024,并在题为“The ChatGLM’s Road to AGI”的主旨演讲中分享了他们针对AI安全的具体做法。他们认为,超级对齐(Superalignment)技术将协助提升大模型的安全性,并已经启动了类似OpenAI的Superalignment计划,希望让机器学会自己学习、自己判断,从而实现学习安全的内容。

欧盟理事会批准的《人工智能法案》是全球首部AI全面监管法规,这一具有里程碑意义的人工智能法规将于下月生效,目前仅适用于欧盟法律范围内的领域,或将为商业和日常生活中使用的技术设定一个潜在的全球基准。这一综合性的AI立法采用“基于风险”的方法,意味着对社会造成伤害的风险越高,规则就越严格。对违反《人工智能法案》中行为的罚款,该法案设定为违规公司前一个财年全球年营业额的百分比或预定的金额,以较高者为准。

总的来说,无论是科技公司还是政府机构,都已经将预防、解决AI安全问题提上日程。正如牛津大学工程科学系教授Philip Torr所言:“在上一次人工智能峰会上,全世界一致认为我们需要采取行动,但现在是时候从模糊的建议转变为具体的承诺了。”

文章来源


原文地址: 点我阅读全文
原文作者: 机器之心

© 版权声明

相关文章

暂无评论

暂无评论...