分类: AGI

  • LangChain代理:语言模型的智能行动者

    在人工智能的浪潮中,LangChain代理如同一颗冉冉升起的新星,它不仅仅是一个程序,更是一个智能体,能够执行一系列动作,就如同我们的大脑一般。让我们来揭开LangChain代理的神秘面纱,探索它如何像人类一样思考和行动。

    智能体的诞生

    LangChain代理的核心在于它的语言模型,它能够像大脑一样处理一系列要执行的动作。当你邀请朋友去吃饭时,你会考虑许多问题:他能吃辣吗?喜欢什么食物?去哪里吃?这一系列的思考过程,现在由LangChain的Large Language Models(LLM)来完成。

    LangChain的设计是将一系列动作编码在代码中,就像一条条链链在一起。在代理模型中,语言模型被用作推理引擎,用来决定执行哪些动作,以及这些动作的执行顺序。

    关键组件的构架

    LangChain代理涉及到几个关键组件,每个组件都是实现智能的关键:

    • 代理(Agent):由语言模型和提示词驱动,决定下一步行动。
    • 工具(Tool):代理可以调用的功能,如搜索或数据访问。
    • 工具包(Toolkit):将多个工具组合,共同完成目标。
    • 代理执行器(AgentExecutor):代理的运行平台,负责调用代理及执行动作。

    LangChain提供了多种代理类型,包括Zero-shot ReAct、Structured Input ReAct、OpenAI Functions等,每种代理都有其独特的功能和应用场景。

    工具的智能化

    工具是代理执行任务时调用的功能,它们通常用于与外部世界交互。LangChain官方提供了一个全面的工具列表,从维基百科搜索到资料库访问,应有尽有。

    如何运作?

    LangChain提供了丰富的工具,例如Search工具、AWS工具、Wikipedia工具等。这些工具都是BaseTool的子类,通过执行run函数,可以激活工具的功能。我们可以看到如何实际使用这些工具。安装所需的Python包后,您可以轻松创建工具实例或通过LangChain提供的辅助函数load_tools加载工具。

  • LangChain的记忆组件

    第一部分:什么是记忆组件?

    记忆组件是对话系统中的一项关键技术,它允许系统存储和引用对话历史中的信息。在LangChain中,记忆组件可以作为独立工具使用,也可以整合进链式处理中。记忆组件需要支持两个基本操作:读取和写入。

    第二部分:他们是如何工作的?

    在LangChain与LLM的每次交互中,链将执行两次记忆操作:

    1. 读取:在执行核心逻辑之前,链会从记忆系统中读取信息,以此来增强用户输入。
    2. 写入:在核心逻辑执行后、返回答案前,链会将当前的输入和输出写入记忆中,为将来的运行提供参考。

    记忆组件的设计需考虑两个核心问题:如何存储历史信息,以及如何查询这些信息。

    第三部分:三种基础记忆组件详解

    LangChain提供了三种基本记忆组件类型:

    1. ConversationBufferMemory:直接记录对话历史消息的列表。
    2. ConversationBufferWindowMemory:记录对话历史,但仅保留最近的K个交互。
    3. ConversationSummaryMemory:随时间总结对话内容,并存储当前摘要。

    以下是它们的具体用法示例:

    3.1 ConversationBufferMemory

    from langchain.memory import ConversationBufferMemory
    
    memory = ConversationBufferMemory()
    memory.save_context({"input": "Hi, LangChain!"}, {"output": "Hey!"})
    memory.chat_memory.messages  # 查看消息列表

    调用 load_memory_variables 函数可以获取对话历史的文本:

    memory.load_memory_variables({})

    3.2 ConversationBufferWindowMemory

    这个组件使用滑动窗口机制,确保了记忆的容量管理。

    from langchain.memory import ConversationBufferWindowMemory
    
    memory = ConversationBufferWindowMemory(k=1)
    memory.save_context({"input": "Hi, LangChain!"}, {"output": "Hey!"})
    memory.save_context({"input": "Where are you?"}, {"output": "By your side"})
    memory.load_memory_variables({})
    memory.chat_memory.messages

    3.3 ConversationSummaryMemory

    这种记忆类型利用LLM生成对话的摘要,适合长对话。

    from langchain.memory import ConversationSummaryMemory
    from langchain.llms import OpenAI
    
    memory = ConversationSummaryMemory(llm=OpenAI(temperature=0, openai_api_key="您的有效openai api key"))
    memory.save_context({"input": "Hi, LangChain!"}, {"output": "Hey!"})
    memory.save_context({"input": "How to start with Next.js development?"}, {"output": "You can get started with its official developer guide."})
    memory.save_context({"input": "Show me the link of the guide."}, {"output": "I'm looking for you now. Please stand by!"})
    memory.load_memory_variables({})

    随着交互次数的增加,ConversationSummaryMemory的Token开销相对平稳,这对于有许多交互的对话非常有效。

    另外提到的Summary Buffer Memory结合了Summary和Buffer的优点,但本文未详细介绍。

    以上内容提供了对LangChain记忆组件的概览和具体代码示例,您可以通过访问官方文档来学习更多。

人生梦想 - 关注前沿的计算机技术 acejoy.com 🐾 步子哥の博客 🐾 背多分论坛 🐾 借一步网
Page Stats: PV: 1919 | UV: 1126
Last updated: 2025-06-19 01:29:48
沪ICP备2024052574号-1