LangChain使用之Tools
发表于|更新于|笔记
|浏览量:
文章作者: Yinjin Yao
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 Yinjin Yao的博客!
相关推荐

2025-10-13
LangChain使用之Chains
Chains的基本使用Chain的基本概念Chain:链,用于将多个组件(提示模板、LLM模型、记忆、工具等)连接起来,形成可复用的工作流,完成复杂的任务。 Chain 的核心思想是通过组合不同的模块化单元,实现比单一组件更强大的功能。比如: 将LLM与 Prompt Template (提示模板)结合 将LLM与 输出解析器结合 将LLM与 外部数据结合,例如用于问答 将LLM与 长期记忆结合,例如用于聊天历史记录 通过将 第一个LLM 的输出作为第二个LLM 的输入,…,将多个LLM按顺序结合在一起 LCEL 及其基本构成使用LCEL,可以构造出结构最简单的Chain。 LangChain表达式语言(LCEL,LangChain Expression Language)是一种声明式方法,可以轻松地 将多个组件链接成 AI 工作流。它通过Python原生操作符(如管道符|)将组件连接成可执行流程,显 著简化了AI应用的开发。 LCEL的基本构成:提示(Prompt)+ 模型(Model)+ 输出解析器(OutputParser) 即: 123# 在这个链条中,用...

2025-10-13
LangChain使用之Memory
Memory概述为什么需要Memory大多数的大模型应用程序都会有一个会话接口,允许我们进行多轮的对话,并有一定的上下文记忆能 力。 但实际上,模型本身是 不会记忆任何上下文的,只能依靠用户本身的输入去产生输出。 如何实现记忆功能呢? 实现这个记忆功能,就需要 额外的模块去保存我们和模型对话的上下文信息,然后在下一次请求时,把 所有的历史信息都输入给模型,让模型输出最终结果。 而在 LangChain 中,提供这个功能的模块就称为 Memory(记忆) ,用于存储用户和模型交互的历史信息。 什么是MemoryMemory,是LangChain中用于多轮对话中保存和管理上下文信息(比如文本、图像、音频等)的组件。它让应用能够记住用户之前说了什么,从而实现对话的 感知的链式对话系统提供了基础。 Memory的设计理念 输入问题:({“question”: …}) 读取历史消息:从Memory中READ历史消息({“past_messages”: […]}) 构建提示(Prompt):读取到的历史消息和当前问题会被合并,构建一个新的Prompt 模型处理:构建好的提示会被传递...

2025-09-29
LangChain使用之Model I/O
Model I/O介绍Model I/O 模块是与语言模型(LLMs)进行交互的 核心组件,在整个框架中有着很重要的地位。所谓的Model I/O,包括输入提示(Format)、调用模型(Predict)、输出解析(Parse)。分别对应着Prompt Template , Model 和 Output Parser ==简单来说,就是输⼊、模型处理、输出这三个步骤。== Model I/O之调用模型1类型1:LLMs(非对话模型)LLMs,也叫Text Model、非对话模型,是许多语言模型应用程序的支柱。主要特点如下: 输入:接受 文本字符串或 PromptValue 对象 输出:总是返回 文本字符串 适用场景:仅需单次文本生成任务(如摘要生成、翻译、代码生成、单次问答)或对接不支持消息 结构的旧模型(如部分本地部署模型)( 言外之意,优先推荐ChatModel )不支持多轮对话上下文。每次调用独立处理输入,无法自动关联历史对话(需手动拼接历史文 本)。局限性:无法处理角色分工或复杂对...

2025-09-28
LangChain使用之Retrieval
Retrieval模块的设计意义大模型的幻觉问题拥有记忆后,确实扩展了AI工程的应用场景。 但是在专有领域,LLM无法学习到所有的专业知识细节,因此在 面向专业领域知识的提问时,无法给出 可靠准确的回答,甚至会“胡言乱语”,这种现象称之为 LLM的“幻觉”。 大模型生成内容的不可控,尤其是在金融和医疗领域等领域,一次金额评估的错误,一次医疗诊断的失误,哪怕只出现一次都是致命的。但,对于非专业人士来说可能难以辨识。目前还没有能够百分之百解决这种情况的方案。 当前大家普遍达成共识的一个方案:首先,为大模型提供一定的上下文信息,让其输出会变得更稳定。其次,利用本章的RAG,将检索出来的 文档和提示词输送给大模型,生成更可靠的答案。 RAG的优缺点 RAG的优点 相比提示词工程,RAG有 更丰富的上下文和数据样本,可以不需要用户提供过多的背景描述,就能生 成比较符合用户预期的答案。 相比于模型微调,RAG可以提升问答内容的 时效性和 可靠性 在一定程度上保护了业务数据的 隐私性。 RAG的缺点 由于每次问答都涉及外部系统数据检索,因此RAG的 响应时延相对较高。 引用的外...

2025-09-26
LangChain使用概述
LangChain使用概述LangChain的使用场景 项目名称 技术点 难度 文档问答助手 Prompt + Embedding + RetrievalQA ⭐⭐ 智能日程规划助手 Agent + Tool + Memory ⭐⭐⭐ LLM+数据库问答 SQLDatabaseToolkit + Agent ⭐⭐⭐⭐ 多模型路由对话系统 RouterChain + 多 LLM ⭐⭐⭐⭐ 互联网智能客服 ConversationChain + RAG +Agent ⭐⭐⭐⭐⭐ 企业知识库助手(RAG + 本地模 型) VectorDB + LLM + Streamlit ⭐⭐⭐⭐⭐ LangChain资料介绍 官网地址:https://www.langchain.com/langchain 官网文档:https://python.langchain.com/docs/introduction/ API文档:https://python.langchain.com/api_reference/ github地址:https://git...
