今日应用
今日话题
ChatGPT如何「思考」?心理学和神经科学破解AI大模型,Nature发文
重点标签 可解释人工智能、机器学习、神经网络、大型语言模型、人工智能监管
文章摘要
XAI的标准方法包括突出显示导致算法做出决策的图像部分,或构建决策树来近似AI的行为。尽管这些努力取得了一些成功,但XAI仍然是一个正在进行的工作。大型语言模型(LLM),如ChatGPT背后的机器学习程序,由于其规模和数千亿个参数,尤其难以理解。这些模型现在被用于提供医疗建议、编写代码、总结新闻、起草学术论文等重要任务,但同时也可能产生错误信息、延续社会刻板印象和泄露私人信息。
为了解释LLM的运作方式,研究人员采用了多种方法,包括使用特殊技术来阐明模型利用的训练数据,以及通过对话疗法和思维链提示来质疑模型的工作原理。此外,一些研究人员借鉴了神经科学的技巧,如观察神经元的激活情况,来探索LLM的内部运作。还有研究人员开发了扫描和编辑人工智能神经网络的方法,包括因果追踪技术。
尽管取得了进展,但仍有许多工作要做,一些研究人员认为,发布LLM的公司应该确保这种情况发生。欧盟的人工智能法案要求高风险人工智能系统具有可解释性,尽管LLM不被归类为高风险,但它们的创建者仍应承担起责任。
文章来源
原文地址: 点我阅读全文
原文作者: 机器之心
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...