A-Mem 框架如何支持强大的长上下文内存,以便 LLM 可以承担更复杂的任务
快速阅读: 《VentureBeat 公司》消息,罗格斯大学、蚂蚁集团和Salesforce的研究人员开发了A-MEM框架,使AI代理能通过整合环境信息创建自动链接的记忆,以应对更复杂的任务。A-MEM利用大型语言模型和向量嵌入生成结构化记忆笔记,链接不同记忆,并提供上下文感知的检索。实验表明,A-MEM在多项任务上优于现有技术,且降低了推理成本。A-MEM的代码已在GitHub上发布。
订阅我们的每日和每周通讯,获取行业领先的人工智能报道的最新更新和独家内容。了解更多罗格斯大学、蚂蚁集团和Salesforce研究公司的研究人员提出了一种新的框架,该框架名为A-MEM,使人工智能代理能够通过整合环境中的信息并创建自动链接的记忆来承担更复杂的任务。该框架使用大型语言模型(LLMs)和向量嵌入从代理的交互中提取有用信息,并创建可以高效检索和使用的记忆表示。随着企业寻求将人工智能代理整合到他们的工作流程和应用程序中,一个可靠的内存管理系统可以发挥重要作用。
为什么LLM内存很重要
内存对于LLM和自主应用非常重要,因为它能够实现工具和用户之间的长期互动。然而,当前的内存系统要么效率低下,要么基于可能不符合应用程序及其所面临互动变化性质的预定义模式。研究人员写道:“这种僵化结构与固定的代理工作流程严重限制了这些系统在新环境中泛化的能⼒,并且在长期互动中保持有效性。”。“随着LLM代理处理更复杂、开放的任务,这一挑战变得越来越关键,在这些任务中,灵活的知识组织和持续适应至关重要。”
A-MEM解释
根据研究人员的说法,A-MEM引入了一种自主记忆架构,使LLM代理能够实现自主和灵活的记忆管理。每当LLM代理与其环境互动时——无论是通过访问工具还是与用户交换消息——A-MEM都会生成“结构化记忆笔记”,捕捉显式信息和元数据,如时间、上下文描述、相关关键词和链接记忆。一些细节由LLM在检查互动并创建语义组件时生成。根据研究人员的说法,A-MEM引入了一种自主记忆架构,使LLM代理能够实现自主和灵活的记忆管理。一旦创建了记忆,编码模型就会用于计算所有组件的嵌入值。LLM生成的语义组件和嵌入的结合提供了人类可理解的上下文,以及通过相似性搜索进行高效检索的工具。
随着时间的推移积累记忆
A-MEM框架的一个有趣组成部分是一种无需预定义规则即可链接不同记忆笔记的机制。对于每个新的记忆笔记,A-MEM会根据嵌入值的相似性识别最近的记忆。然后,LLM分析检索到的候选对象的完整内容,以选择最适合链接到新记忆的对象。研究人员写道:“通过使用基于嵌入的检索作为初始过滤器,我们实现了高效的可扩展性,同时保持了语义相关性。”。“即使在大型内存集合中,A-MEM也能快速识别潜在的关联,而不需要详尽比较。更重要的是,LLM驱动的分析允许对关系进行细微的理解,这超越了简单的相似性指标。”
A-MEM框架的一个有趣组成部分是一种无需预定义规则即可链接不同记忆笔记的机制。对于每个新的记忆笔记,A-MEM会根据嵌入值的相似性识别最近的记忆。然后,LLM分析检索到的候选对象的完整内容,以选择最适合链接到新记忆的对象。在为新记忆创建链接后,A-MEM会根据文本信息和新记忆的关系更新检索到的记忆。随着时间的推移,添加更多的记忆会精炼系统的知识结构,使跨记忆发现更高阶的模式和概念成为可能。
A-MEM框架的一个有趣组成部分是一种无需预定义规则即可链接不同记忆笔记的机制。对于每个新的记忆笔记,A-MEM会根据嵌入值的相似性识别最近的记忆。然后,LLM分析检索到的候选对象的完整内容,以选择最适合链接到新记忆的对象。在每次互动中,A-MEM使用上下文感知的记忆检索为代理提供相关的历史信息。给定一个新的提示,A-MEM首先使用与记忆笔记相同的机制计算其嵌入值。系统使用这个嵌入从内存存储中检索最相关的记忆,并用有助于代理更好地理解和回应当前互动的上下文信息增强原始提示。
A-MEM框架的一个有趣组成部分是一种无需预定义规则即可链接不同记忆笔记的机制。对于每个新的记忆笔记,A-MEM会根据嵌入值的相似性识别最近的记忆。然后,LLM分析检索到的候选对象的完整内容,以选择最适合链接到新记忆的对象。研究人员写道:“检索到的上下文通过将当前互动与存储在内存系统中的相关过去经验和知识联系起来,丰富了代理的推理过程。”
A-MEM的实际应用
研究人员在LoCoMo数据集上测试了A-MEM,该数据集包含跨越多个会话的非常长的对话。LoCoMo包含具有挑战性的任务,如需要综合多个聊天会话中的信息的多跳问题和需要理解时间相关信息的推理问题。该数据集还包含需要将对话中的上下文信息与外部知识相结合的知识问题。实验表明,A-MEM在大多数任务类别上优于其他基线自主记忆技术,尤其是在使用开源模型时。值得注意的是,研究人员表示,A-MEM在降低推理成本的同时实现了卓越的性能,回答问题时所需令牌减少高达十倍。随着LLM代理被整合到不同领域和子系统的复杂企业工作流程中,有效的内存管理正成为一个核心需求。A-MEM的代码可以在GitHub上找到,它是使企业能够构建增强内存的LLM代理的几个框架之一。
VB每日商业案例洞察
如果你想给老板留下深刻印象,VB每日可以帮你做到。我们为你提供公司如何使用生成式人工智能的内部信息,从监管变化到实际部署,以便你分享见解以实现最大回报。现在订阅阅读我们的隐私政策感谢订阅。查看更多VB通讯
(以上内容均由Ai生成)