大模型面经之Agent介绍,一文搞懂agent老大难问题
Agent(智能体)概念最早由人工智能领域的研究者提出,旨在模拟人类的智能行为。最初的Agent系统主要集中在解决特定问题或领域,如专家系统、规则引擎等。20世纪80年代末和90年代初,随着计算机和网络技术的发展,Agent开始融入到各种应用中,如搜索引擎、个人助理等。强化学习等技术的兴起(2014年起,深度强化学习出现)使得Agent能够通过与环境的交互来学习和优化其行为。
LLM(大型语言模型) Agent 是一种能产出不单是简单文本的 AI 系统,使用 LLM 的能力,作为其计算引擎,让自己能够对话、任务执行、推理,实现一定程度的自主行动
可以说,在这个大模型 AI 时代下,大模型应用 or AI Power + 的应用就是大模型 Agent,等同于移动互联时代的 APP。
本篇将开启一个新系列,尽量细节的讲讲大模型中关于Agent的相关知识内容,因为Agent目前尚未完全流行起来,但是已经有人讨论Agent是目前阶段实现AGI的最优方式。
下面是一个快捷目录:
- 什么是大模型(LLM)Agent?
- LLM Agent应用例子。
- LLM Agent流程之一:拆解子目标和任务分解。
什么是大模型(LLM)Agent?
Agent(智能体)概念最早由人工智能领域的研究者提出,旨在模拟人类的智能行为。最初的Agent系统主要集中在解决特定问题或领域,如专家系统、规则引擎等。
20世纪80年代末和90年代初,随着计算机和网络技术的发展,Agent开始融入到各种应用中,如搜索引擎、个人助理等。
强化学习等技术的兴起(2014年起,深度强化学习出现)使得Agent能够通过与环境的交互来学习和优化其行为。
直到现在,基于LLM和深度强化学习结合的Agent已经成为人工智能领域的核心研究方向之一,涉及到智能系统、机器人、游戏、自动化等多个领域。
简而言之,现在的Agent就是LLM + Planning + Memory + Tools,让大模型实现任务自动化,并且能够不断探索、规划和发展新技能。
LLM Agent应用例子
1.西部世界小镇Agent
2023年3月,斯坦福制作了西部世界小镇Agent,构建出了一个虚拟小镇,让25个AI智能体在其中生存、从事复杂行为。如下图所示:
为了生成智能体,研究者提出了一种全新架构,它扩展了大语言模型,能够使用自然语言存储Agent的经历。随着时间的推移,这些记忆会被合成为更高级别的反射,智能体可以动态检索它们,来规划自己的行为。最终,用户可以使用自然语言和全镇的25个Agent都实现交互。
如上,生成式智能体的架构实现了一个记忆「检索」(Retrieve)功能,这一功能将智能体的当前情况/感知(Perceive)作为输入,并返回记忆流(Memory Stream)的一个子集(Retrieved Memories)传递给语言模型,而检索功能有多种可能的实现方式,具体取决于智能体在决定如何行动时考虑的重要因素。
2.BabyAGI
BabyAGI是一个智能个人任务管理和解决工具,它背后的脚本虽然看似简单,但实质上是一个与任务列表交互的语言模型。利用OpenAI GPT-4和Pinecone向量搜索引擎的强大功能,它能自动生成任务、确定任务优先级并执行任务,从而实现任务的自动化管理。
-
BabyAGI从初始任务出发,利用GPT4生成解决方案和新任务,并将这些解决方案存储在Pinecone中以备后续检索。
-
BabyAGI根据先前任务的成果和预设目标制定新任务,并运用Pinecone存储并检索任务结果的上下文。
LLM Agent流程之一:拆解子目标和任务分解
1.规划
生成式智能体通过自上而下递归生成规划,以便创建合理的行动计划。这些规划最初是对当日任务的粗略描述。在执行规划时,智能体持续感知周围环境,并将观察结果存储到记忆流中。利用这些观察结果作为提示,语言模型决定智能体下一步的行动:是继续执行当前规划,还是采取其他反应。规划是Agent重要组成部分,而拆解子目标和任务分解属于规划中的一部分。
2.拆解子目标和任务分解
拆解子目标和任务分解意味着智能体能够将复杂的大型任务拆分成小而易管理的子目标,以实现高效处理。
3.拆解子目标方法
-
Chain of thought要求模型按步骤思考,花更多时间计算,将复杂任务分解成小、简单的步骤。CoT将大任务转化为多个易管理的任务,并解释了模型的思维过程。
-
Tree of Thoughts是对CoT的进一步扩展,通过在每一步骤中探索多种推理可能性来创建一个树形结构。它将问题分解为多个思考步骤,并在每个步骤中生成多个思考。搜索过程可以是BFS或DFS,每个状态由分类器或多数投票原则来决定。
-
Graph of Thoughts支持多种结构的Prompt方案,包括多链、树形和任意图形结构。它实现了各种基于图形的思考转换,如聚合、回溯和循环,这是CoT和ToT无法表达的。通过将复杂问题建模为操作图,以LLM作为引擎自动执行,GoT提供了解决复杂问题的能力,某种程度上,GoT包含了单线条的CoT和多分枝的ToT。
4.任务分解方法
-
给LLM一个简单的提示词“Steps for XYZ.”,“What are the subgoals for achieving XYZ?”
-
使用针对具体任务的指令,例如对一个写小说的任务先给出“Write a story outline.”指令;
-
使用者直接输入;
“雷军曾说过:站在风口,猪都能飞起来”可以说现在大模型就是当下风口,是一个可以改变自身的机会,就看我们能不能抓住了。
那么,我们该如何学习大模型?
作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一、大模型全套的学习路线
学习大型人工智能模型,如GPT-3、BERT或任何其他先进的神经网络模型,需要系统的方法和持续的努力。既然要系统的学习大模型,那么学习路线是必不可少的,下面的这份路线能帮助你快速梳理知识,形成自己的体系。
L1级别:AI大模型时代的华丽登场
L2级别:AI大模型API应用开发工程
L3级别:大模型应用架构进阶实践
L4级别:大模型微调与私有化部署
一般掌握到第四个级别,市场上大多数岗位都是可以胜任,但要还不是天花板,天花板级别要求更加严格,对于算法和实战是非常苛刻的。建议普通人掌握到L4级别即可。
以上的AI大模型学习路线,不知道为什么发出来就有点糊,高清版可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
二、640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
三、大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。
四、AI大模型商业化落地方案
作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,
开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!
更多推荐
所有评论(0)