news 2026/5/1 11:25:04

手把手构建一个完整的 RAG(检索增强生成)系统

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
手把手构建一个完整的 RAG(检索增强生成)系统

RAG(Retrieval-Augmented Generation,检索增强生成)是当前大模型应用中最主流的架构之一。它通过结合外部知识库与大语言模型(LLM),有效缓解了模型幻觉、知识滞后和领域专业性不足等问题。本文将带你从零开始,完整实现一个生产级 RAG 系统。


一、RAG 系统整体架构

一个典型的 RAG 系统包含以下核心模块:

用户提问 → 查询理解 → 向量检索 → 文档重排 → 提示工程 → LLM 生成 → 输出 ↑ ↑ (可选) (可选) 查询改写 重排序模型

我们将逐步实现每个环节。


二、环境准备

pipinstalllangchain==0.2.0\langchain-community\langchain-core\langchain-text-splitters\sentence-transformers\chromadb\rank_bm25\transformers\torch\openai\python-dotenv

建议使用 Python 3.9+,并设置虚拟环境。


三、数据准备:加载与切分文档

1. 加载文档

支持 PDF、Word、TXT、HTML 等格式:

fromlangchain_community.document_loadersimportPyPDFLoader,DirectoryLoader loader=DirectoryLoader("./docs",glob="*.pdf",loader_cls=PyPDFLoader)documents=loader.load()

2. 文本切分(Chunking)

合理切分对检索质量至关重要。推荐使用语义感知切分

fromlangchain_text_splittersimportRecursiveCharacterTextSplitter text_splitter=RecursiveCharacterTextSplitter(chunk_size=512,chunk_overlap=50,separators=["\n\n","\n","。","!","?",";"," ",""])chunks=text_splitter.split_documents(documents)

技巧:chunk_overlap可避免语义割裂;separators按优先级断句。


四、向量化:构建嵌入(Embedding)

1. 选择 Embedding 模型

  • 开源本地模型:BAAI/bge-large-zh-v1.5(中文强)、text-embedding-ada-002(OpenAI)
  • 本地部署推荐sentence-transformers
fromlangchain_community.embeddingsimportHuggingFaceBgeEmbeddings embeddings=HuggingFaceBgeEmbeddings(model_name="BAAI/bge-large-zh-v1.5",model_kwargs={"device":"cuda"},encode_kwargs={"normalize_embeddings":True})

2. 构建向量数据库

使用 Chroma(轻量级)或 Milvus(生产级):

importchromadbfromlangchain_chromaimportChroma vectorstore=Chroma.from_documents(documents=chunks,embedding=embeddings,persist_directory="./chroma_db")retriever=vectorstore.as_retriever(search_kwargs={"k":5})

k=5表示检索 Top-5 相关片段。


五、检索优化(关键!)

原始向量检索可能召回不相关结果,需优化:

1. 查询改写(Query Rewriting)

使用 LLM 对用户问题进行澄清或扩展:

fromlangchain_core.promptsimportPromptTemplatefromlangchain_openaiimportChatOpenAI rewrite_prompt=PromptTemplate.from_template("你是一个查询优化器。请将以下用户问题改写为更清晰、更适合检索的形式:{question}")llm=ChatOpenAI(model="gpt-4o")rewriter=rewrite_prompt|llm rewritten_query=rewriter.invoke({"question":"怎么重启服务?"}).content

2. 混合检索(Hybrid Search)

结合关键词(BM25) + 向量检索:

fromrank_bm25importBM25Okapiimportjieba# 构建 BM25 索引(中文需分词)corpus=[doc.page_contentfordocinchunks]tokenized_corpus=[list(jieba.cut(text))fortextincorpus]bm25=BM25Okapi(tokenized_corpus)defhybrid_search(query,k=5):# 向量检索vec_results=retriever.invoke(query)vec_ids={doc.metadata["id"]fordocinvec_results}# BM25 检索tokenized_query=list(jieba.cut(query))bm25_scores=bm25.get_scores(tokenized_query)top_bm25=sorted(range(len(bm25_scores)),key=lambdai:bm25_scores[i],reverse=True)[:k]# 融合(取并集去重)all_docs=vec_results+[chunks[i]foriintop_bm25ifinotinvec_ids]returnall_docs[:k]

3. 重排序(Re-ranking)

使用 Cross-Encoder 模型对 Top-K 结果重新打分:

fromsentence_transformersimportCrossEncoder reranker=CrossEncoder("BAAI/bge-reranker-large")pairs=[(query,doc.page_content)fordocinretrieved_docs]scores=reranker.predict(pairs)reranked=[docfor_,docinsorted(zip(scores,retrieved_docs),reverse=True)]

六、提示工程与生成

构建高质量 Prompt

template=""" 你是一个专业客服助手,请根据以下上下文回答用户问题。 - 如果答案不在上下文中,请回答“根据现有资料无法回答”。 - 保持回答简洁、准确。 上下文: {context} 问题:{question} 回答: """prompt=ChatPromptTemplate.from_template(template)

构建 RAG 链

fromlangchain_core.runnablesimportRunnablePassthroughfromlangchain_core.output_parsersimportStrOutputParser rag_chain=({"context":retriever,"question":RunnablePassthrough()}|prompt|llm|StrOutputParser())answer=rag_chain.invoke("如何配置 API 密钥?")

七、评估与迭代

RAG 系统需持续评估:

  • 检索质量:MRR
  • 生成质量:ROUGE、BLEU、人工评分
  • 端到端效果:使用 TruLens 或 RAGAS 框架
# 示例:用 RAGAS 评估fromragasimportevaluatefromragas.metricsimportfaithfulness,answer_relevancy result=evaluate(dataset=your_test_set,metrics=[faithfulness,answer_relevancy],llm=llm,embeddings=embeddings)

八、部署建议

  • 本地测试:FastAPI + Uvicorn
  • 生产部署:Docker 容器化,搭配 Redis 缓存、Nginx 负载均衡
  • 监控:记录查询日志、延迟、失败率

总结

一个健壮的 RAG 系统 ≠ 简单拼接“检索 + LLM”。关键在于:

  1. 高质量数据切分
  2. 混合检索 + 重排序
  3. 精准的提示工程
  4. 持续评估与迭代
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/1 6:30:00

27、从 Exchange 2000 或 2003 过渡到 Exchange 2007 指南

从 Exchange 2000 或 2003 过渡到 Exchange 2007 指南 1. Exchange 2003 与 Exchange 2007 共存 在处理 Exchange 2003 和 Exchange 2007 共存的环境时,有几点需要注意: - 全局设置转移 :当在旧版 Exchange 组织中部署第一台 Exchange 2007 服务器时,最初在 Exchange 2…

作者头像 李华
网站建设 2026/5/1 11:11:48

UART协议奇偶校验位插入时序及其影响深度剖析

UART奇偶校验位的时序真相:为什么你的串口通信总在“对的时间”出错?你有没有遇到过这样的情况:两块MCU明明配置一致,波特率也匹配,数据线接得清清楚楚,可就是时不时收到几个莫名其妙的错误帧?调…

作者头像 李华
网站建设 2026/5/1 10:11:03

结合systemd服务使用screen命令的操作说明

如何用 systemd 管理 screen 会话:让命令行应用真正“永生”你有没有过这样的经历?深夜上线一个爬虫脚本,信心满满地关掉 SSH 终端:“这下稳了。”结果第二天一早发现进程没了——SSH 断连触发了SIGHUP,程序悄无声息地…

作者头像 李华
网站建设 2026/5/1 7:32:25

LangFlow Wireshark离线分析PCAP文件

LangFlow 与 Wireshark 融合:用 AI 解锁 PCAP 文件的语义分析能力 在一次红队攻防演练后的复盘中,安全分析师面对一份长达数小时、包含数十万条数据包的 attack.pcap 文件陷入了沉思。传统的 Wireshark 追踪流、过滤表达式和字段提取能告诉他“发生了什么…

作者头像 李华
网站建设 2026/5/1 7:32:35

Mysql事务

Mysql事务1、事务的ACID模型(事务四大特性)1. 原子性(Atomicity):“要么全做,要么全不做”事务是不可分割的最小操作单元,所有操作要么全部成功,要么全部失败是最小的不可分割的操作…

作者头像 李华
网站建设 2026/4/28 13:50:42

CANFD节点初始化流程:手把手教学

CAN FD节点初始化实战指南:从零开始构建可靠通信你有没有遇到过这样的情况?系统上电后,CAN总线“看似正常”,但就是收不到帧;或者发送出去的报文在示波器上看得到波形,对方却说“没收到”。更糟的是&#x…

作者头像 李华