使用Qwen千问大模型和LangChain框架构建高效的RAG系统,从海量数据中提取信息并生成精确回应。

检索增强型生成(RAG)技术的出现,让AI不仅能够生成类人文本,还能实时整合相关信息,提供既丰富又精确的回应。

本文带大家了解如何使用Qwen千问大模型和LangChain框架来构建一个高效的RAG系统。包括导入必要的库和安全地管理敏感信息,比如API密钥。让我们开始搭建这个系统的基础。

1 环境搭建:配置基础

首先,我们需要导入必要的编程库,并配置环境变量以安全地管理敏感信息,比如API密钥。这些步骤是构建任何AI应用的基石,也是确保系统安全性的关键环节。

from torch import cuda   from langchain_community.vectorstores import FAISS   from langchain_core.output_parsers import StrOutputParser   from langchain_core.prompts import ChatPromptTemplate   from langchain_core.runnables import RunnablePassthrough   from langchain_community.embeddings.huggingface import HuggingFaceEmbeddings   from transformers import AutoModelForCausalLM, AutoTokenizer   from langchain_community.llms.huggingface_pipeline import HuggingFacePipeline   from transformers import pipeline   from dotenv import load_dotenv      load_dotenv()   

接下来,详细介绍如何安全地设置环境变量,以及如何通过这些变量来管理我们的Hugging Face API密钥。

安全配置API密钥

使用Hugging Face的AI模型时,通常需要访问Hugging Face API,这需要API密钥。这个密钥是在请求Hugging Face服务时的唯一标识符,让你能够在应用中加载并使用这些模型。

以下是如何安全设置环境:

  • 获取Hugging Face API密钥:创建Hugging Face账户之后,你可以在账户设置下的“访问令牌”部分找到API密钥。

  • 保护API密钥:API密钥是敏感信息,应该保密。不要将其硬编码到你的脚本中,而应该使用环境变量。

  • 创建.env文件:创建一个名为.env的文件。这个文件将存储你的环境变量。

  • 将API密钥添加到.env文件:用文本编辑器打开.env文件,并以以下格式添加Hugging Face API密钥:

HUGGINGFACE_API_KEY=your_api_key_here   

将your_api_key_here替换为你从Hugging Face获得的实际API密钥。

2 定义模型路径和配置

modelPath = "sentence-transformers/all-mpnet-base-v2"   device = 'cuda' if cuda.is_available() else 'cpu'   model_kwargs = {'device': device}   

在这部分代码中,指定了用于生成嵌入向量的预训练模型路径,即sentence-transformers/all-mpnet-base-v2。同时,还设置了计算设备,优先选择GPU以加速计算过程,如果GPU不可用,则回退到CPU。

3 初始化Hugging Face嵌入和FAISS向量存储

embeddings = HuggingFaceEmbeddings(       model_name=modelPath,       model_kwargs=model_kwargs,   )      # 虚构的数据,仅供娱乐   vectorstore = FAISS.from_texts(       ["Harrison worked at Alibaba Cloud"], embedding=embeddings   )      retriever = vectorstore.as_retriever()   

在这一步,根据选定的模型和配置初始化了HuggingFace嵌入的实例。接着,利用FAISS技术,创建了向量库,让我们能在高维空间中进行高效的相似性搜索。此外,还创建了一个检索器,能够根据这些嵌入向量来检索相关信息。

4 设置聊天提示模板

template = """Answer the question based only on the following context:   {context}   Question: {question}   """      prompt = ChatPromptTemplate.from_template(template)   

这里定义了一个聊天提示模板,用于构建与AI的交互。它包括上下文和问题的占位符,这些将在链的执行期间动态填充。

5 配置分词器与语言模型

在人工智能和自然语言处理领域,分词器和语言模型是一对不可或缺的搭档。

分词器负责将文本拆分成模型能够理解的小单元,而语言模型则根据这些输入来预测和生成语言内容。

在我们的应用中,采用了Hugging Face的AutoTokenizer和AutoModelForCausalLM类来实现这些功能。选择语言模型不是一成不变的,需要根据具体需求灵活调整。

5.1 选择合适的模型尺寸与计算资源

在选择模型时,模型的大小是个重要的考量点。大型模型如Qwen-72B拥有海量参数,能够处理和生成更加精细的文本,但同时也需要更强大的计算资源。如果你有高端的GPU和充足的内存,那么这些大型模型能帮助充分发挥其强大的功能。

相对而言,小型模型如Qwen-1.8B则更适合普通的计算环境。这些模型即便在没有高性能GPU的设备上也能运行,虽然可能不如大型模型那样精准捕捉语言的微妙之处,但它们的性能依然出色,尤其适合那些没有专业硬件支持的用户。

5.2 特定任务的模型

另一个需要考虑的点是你的任务性质。如果你正在构建一个会话AI,使用一个特定于聊天的模型,如Qwen-7B-Chat,可能会获得更好的结果,因为这些模型针对对话进行了微调,并且可以比基础模型更好地处理对话的细微差别。

5.3 推理成本

使用大型模型时,除了对硬件要求较高之外,如果通过云服务进行模型推理,还会面临更高的成本问题。

这是因为每次推理过程都会消耗一定的时间和计算资源。随着时间的推移,这些成本会逐渐累积。

因此在选择模型时,我们需要综合考虑性能和经济性。

5.4 Qwen系列

  • Qwen-1.8B:适合需要较少计算能力的小型模型。适合原型制作和在没有强大GPU的机器上运行。

  • Qwen-7B:中等大小的模型,它在性能和计算需求之间取得了平衡。适用于包括文本生成和问答在内的一系列任务。

  • Qwen-14B:更大的模型,能够处理更复杂的任务,具有更大的语言理解和生成的细微差别。

  • Qwen-72B:系列中最大的模型,为需要深度语言理解的高级AI应用提供最先进的性能。

  • Qwen-1.8B-Chat:专为构建聊天机器人和其他对话系统而设计的对话模型。

  • Qwen-7B-Chat:与Qwen-1.8B-Chat类似,但具有处理更复杂对话的增加能力。

  • Qwen-14B-Chat:高端对话模型,能够进行复杂的对话交互。

  • Qwen-72B-Chat:Qwen系列中最高级的对话模型,为要求苛刻的聊天应用提供卓越的性能。

5.5 选择模型

挑选合适的模型时,需要综合考虑大型模型的优势以及你资源和项目的需求。

如果是初学者或者项目规模较小,选择一个小型模型可能更合适。但随着项目需求的增长,或者需要更强大的功能时,可以考虑切换到更大型的模型。

Qwen系列模型都是开源的,所以你可以尝试不同的模型,以找到最适合你项目的那一个。以下是如何根据特定需求和资源,调整脚本中的模型选择部分:

# 这可以根据你的需求和资源更改为任何Qwen模型   tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B", trust_remote_code=True)   model_name_or_path = "Qwen/Qwen-7B"   model = AutoModelForCausalLM.from_pretrained(model_name_or_path,                                                device_map="auto",                                                trust_remote_code=True)   

这里使用Hugging Face的AutoTokenizer和AutoModelForCausalLM类来加载分词器和因果语言模型。这些组件对于处理自然语言输入和生成输出非常关键。

通过这样的设置,你可以灵活地根据项目进展调整模型,确保既能满足功能需求,又不会造成资源浪费。

6 创建文本生成管道

我们的目标是利用已经加载的语言模型和分词器来生成文本。为此,构建了一个管道,并详细解析了各个参数,以便更好地控制文本生成的过程:

`pipe = pipeline(       "text-generation",       model=model,       tokenizer=tokenizer,       max_new_tokens=8192,       do_sample=True,       temperature=0.7,       top_p=0.95,       top_k=40,       repetition_penalty=1.1   )      `hf` = HuggingFacePipeline(pipeline=pipe)   `

文本生成管道参数解释:

  • max_new_tokens (8192):此参数指定输出中可以生成的最大令牌数。令牌可以是单词、字符或子词,这取决于分词器。

  • do_sample (True):当设置为True时,此参数启用模型生成的下一个可能令牌分布的概率采样。这引入了随机性和变化性。如果设置为False,模型总是选择最可能的下一个令牌,导致确定性和变化性较小的输出。

  • temperature (0.7):温度参数控制采样过程中引入的随机性。较低的温度值(接近0)使模型在做出选择时更有信心,导致随机性较小的输出,而较高的温度值(接近1)则鼓励更多的随机性和多样性。

  • top_p (0.95):此参数控制核采样,这是一种只考虑累积概率高于阈值top_p的最可能令牌的技术。它有助于生成多样化且连贯的文本,避免包含可能使文本无意义的非常低概率令牌。

  • top_k (40):Top-k采样将采样池限制为k个最可能的下一个令牌。这进一步细化了模型将考虑生成下一段文本的令牌集,确保输出保持相关性和连贯性。

  • repetition_penalty (1.1):此参数用于避免模型重复生成相同的令牌或短语,从而促进生成更有趣和多样化的文本。其值大于1时,会减少已出现令牌的重复概率。

设置好这些参数后,通过以下代码将管道封装为HuggingFacePipeline对象:

` `hf` = HuggingFacePipeline(pipeline=pipe)    `

这个封装操作使管道能够无缝集成到LangChain框架中,便于构建更复杂的AI应用程序。通过精心选择这些参数,我们可以根据不同应用场景的需求,调整文本生成的行为,无论是追求创造性和多样性,还是追求文本的一致性和连贯性。

7 搭建和执行RAG链

下面的代码展示了一个完整的RAG(Retrieval-Augmented Generation)系统,它通过初始问题触发信息检索,然后用这些信息来丰富生成过程,最终为输入的问题提供有根据且上下文相关的回答。

  1. 构建链结构:
chain = (       {"context": retriever, "question": RunnablePassthrough()}       | prompt       | hf       | StrOutputParser()   )   

这段代码的工作流程如下:

  • 检索器(retriever):负责根据问题检索相关信息。通过扫描数据集或文档集合,检索器能找出与问题最相关的信息片段。为了提高效率,这个过程可能会用到向量数据库。

  • RunnablePassthrough():这个组件简单地将问题原封不动地传递下去。这表明我们的链设计是为了直接处理用户输入的问题。

  • prompt:虽然这里没有详细展示,但它可能作为一个模板或指令集,用来格式化输入的问题和检索到的上下文,以便它们能够适配管道中的下一个阶段,即Hugging Face模型。

  • Hugging Face管道(hf):这个变量代表一个预训练的语言模型,它能够生成响应。该管道接收前一步骤格式化的输入,并利用其生成能力产生答案。

  • StrOutputParser():这是一个输出解析器,它将Hugging Face管道的原始输出转换成更易于用户理解的格式,通常是字符串形式。

代码中使用|(管道)运算符,这表明采用了函数式编程的风格,特别是函数组合或管道模式,其中每个函数的输出直接作为下一个函数的输入。这种设计使得整个处理流程清晰且高效。

  1. 执行链操作:
results = chain.invoke("Where did Harrison work?")   

通过这一行代码,我们向链提出了一个具体的问题:“Where did Harrison work?”。这个问题的提出,启动了链中预设的一连串操作。首先,检索器开始搜索与问题相关的信息。随后,这些信息连同问题本身,通过之前设定的提示模板,被一并送入Hugging Face模型。最后,模型根据接收到的输入信息生成并返回相应的回答。这个过程体现了从信息检索到生成回答的完整工作流。

  1. 输出结果展示:
print(results)   

至此,由StrOutputParser()处理后的生成响应作为最终结果返回,并被打印至控制台或其他输出界面。

通过将检索器、提示模板、Hugging Face模型以及输出解析器串联起来,我们构建了完整的RAG链。我们通过提出问题来调用这个链,并最终将得到的结果展示出来。这一过程不仅体现了技术的整合,也展示了从问题到答案的完整转化。

推荐书单

《LANGCHAIN入门指南:构建高可复用、可扩展的LLM应用程序》

这本书专门为那些对自然语言处理技术感兴趣的读者提供了系统的LLM应用开发指南。全书分为11章,从LLM基础知识开始,通过LangChain这个开源框架为读者解读整个LLM应用开发流程。第1~2章概述LLM技术的发展背景和LangChain框架的设计理念。从第3章开始,分章深入介绍LangChain的6大模块,包括模型I/O、数据增强、链、记忆等,通过大量代码示例让读者了解其原理和用法。第9章通过构建PDF问答程序,帮助读者将之前学习的知识应用于实践。第10章则介绍集成,可拓宽LangChain的用途。第11章为初学者简要解析LLM的基础理论,如Transformer模型等。

本书以LangChain这个让人熟悉的框架为主线,引导读者一步一步掌握LLM应用开发流程,适合对大语言模型感兴趣的开发者、AI应用程序开发者阅读。

那么,如何系统的去学习大模型LLM?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~

篇幅有限,部分资料如下:

👉LLM大模型学习指南+路线汇总👈

💥大模型入门要点,扫盲必看!
在这里插入图片描述
💥既然要系统的学习大模型,那么学习路线是必不可少的,这份路线能帮助你快速梳理知识,形成自己的体系。

路线图很大就不一一展示了 (文末领取)
在这里插入图片描述

👉大模型入门实战训练👈

💥光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

👉国内企业大模型落地应用案例👈

💥两本《中国大模型落地应用案例集》 收录了近两年151个优秀的大模型落地应用案例,这些案例覆盖了金融、医疗、教育、交通、制造等众多领域,无论是对于大模型技术的研究者,还是对于希望了解大模型技术在实际业务中如何应用的业内人士,都具有很高的参考价值。 (文末领取)
在这里插入图片描述

👉GitHub海量高星开源项目👈

💥收集整理了海量的开源项目,地址、代码、文档等等全都下载共享给大家一起学习!
在这里插入图片描述

👉LLM大模型学习视频👈

💥观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。 (文末领取)
在这里插入图片描述

👉640份大模型行业报告(持续更新)👈

💥包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

👉获取方式:

这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐