标签:大型语言模型

《Python 机器学习》作者新作:从头开始构建大型语言模型,代码已开源

步骤2:撰写摘要Sebastian Raschka,一位知名的机器学习和人工智能研究员,以及畅销书《Python 机器学习》的作者,最近发布了一本新书《Build a Large Langua...

墙裂推荐!Karpathy大模型培训课LLM101n上线了,非常基础

Andrej Karpathy 最近在 GitHub 上上传了一个名为 'LLM101n' 的课程项目,该项目旨在教授如何构建一个能够创作、提炼和阐释小故事的大型语言模型(LLM),即 ...

这个团队做了OpenAI没Open的技术,开源OpenRLHF让对齐大模型超简单

为了应对这一挑战,OpenLLMAI、字节跳动、网易伏羲AI Lab和阿里巴巴的联合团队提出了一种新的开源框架OpenRLHF,旨在简化大规模RLHF训练的复杂性。该框架通过...

和GPT-4这些大模型玩狼人杀,人类因太蠢被票死,真·反向图灵测试

在一次别开生面的「反向图灵测试」中,AI与人类展开了一场智力较量。视频展示了四个AI NPC和一个人类扮演者,他们通过互相提问,试图找出隐藏的人类。AI NPC...

ChatGPT如何「思考」?心理学和神经科学破解AI大模型,Nature发文

XAI的标准方法包括突出显示导致算法做出决策的图像部分,或构建决策树来近似AI的行为。尽管这些努力取得了一些成功,但XAI仍然是一个正在进行的工作。大型语...

AAAI前主席Subbarao Kambhampati:LLM-Modulo框架助力大模型完成规划任务!

Subbarao Kambhampati教授对大型语言模型(LLMs)在规划和推理任务中的作用提出了独到见解。他反对两种极端观点:一种是对LLMs的过分乐观,认为它们能通过适...

ICRA 2024:基于物理常识进行推理

为了在现实世界中推理,机器人必须超越被动地查询LLMs,积极地从环境中收集所需的信息来做出正确的决策。研究人员提出了一种方法,利用LLM和视觉语言模型(VL...

24GB单卡全量微调Llama 3-8B,仅需添加一行代码

研究人员通常基于预训练的大型语言模型进行微调,以适应特定任务的要求。然而,微调具有一定规模的语言模型需要大量的计算资源,显存容量往往成为主要限制因...

面向大语言模型的控制理论

在本文中,作者探讨了大型语言模型(LLMs)在软件系统中的应用,并提出了LLM控制理论的概念。LLMs因其强大的零样本能力而被广泛研究和应用,但同时也因其难以...

检索增强微调(RAFT)简介

本文介绍了一种名为检索增强微调(RAFT)的方法,它是针对大型语言模型(LLMs)的微调方法,旨在提高模型在特定领域内以“开放书本”设置回答问题的性能。开放...