标签:大型语言模型

ChatGPT如何「思考」?心理学和神经科学破解AI大模型,Nature发文

XAI的标准方法包括突出显示导致算法做出决策的图像部分,或构建决策树来近似AI的行为。尽管这些努力取得了一些成功,但XAI仍然是一个正在进行的工作。大型语...

AAAI前主席Subbarao Kambhampati:LLM-Modulo框架助力大模型完成规划任务!

Subbarao Kambhampati教授对大型语言模型(LLMs)在规划和推理任务中的作用提出了独到见解。他反对两种极端观点:一种是对LLMs的过分乐观,认为它们能通过适...

ICRA 2024:基于物理常识进行推理

为了在现实世界中推理,机器人必须超越被动地查询LLMs,积极地从环境中收集所需的信息来做出正确的决策。研究人员提出了一种方法,利用LLM和视觉语言模型(VL...

24GB单卡全量微调Llama 3-8B,仅需添加一行代码

研究人员通常基于预训练的大型语言模型进行微调,以适应特定任务的要求。然而,微调具有一定规模的语言模型需要大量的计算资源,显存容量往往成为主要限制因...

面向大语言模型的控制理论

在本文中,作者探讨了大型语言模型(LLMs)在软件系统中的应用,并提出了LLM控制理论的概念。LLMs因其强大的零样本能力而被广泛研究和应用,但同时也因其难以...

检索增强微调(RAFT)简介

本文介绍了一种名为检索增强微调(RAFT)的方法,它是针对大型语言模型(LLMs)的微调方法,旨在提高模型在特定领域内以“开放书本”设置回答问题的性能。开放...