news 2026/4/18 8:34:57

手把手构建一个完整的 RAG(检索增强生成)系统

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
手把手构建一个完整的 RAG(检索增强生成)系统

RAG(Retrieval-Augmented Generation,检索增强生成)是当前大模型应用中最主流的架构之一。它通过结合外部知识库与大语言模型(LLM),有效缓解了模型幻觉、知识滞后和领域专业性不足等问题。本文将带你从零开始,完整实现一个生产级 RAG 系统。


一、RAG 系统整体架构

一个典型的 RAG 系统包含以下核心模块:

用户提问 → 查询理解 → 向量检索 → 文档重排 → 提示工程 → LLM 生成 → 输出 ↑ ↑ (可选) (可选) 查询改写 重排序模型

我们将逐步实现每个环节。


二、环境准备

pipinstalllangchain==0.2.0\langchain-community\langchain-core\langchain-text-splitters\sentence-transformers\chromadb\rank_bm25\transformers\torch\openai\python-dotenv

建议使用 Python 3.9+,并设置虚拟环境。


三、数据准备:加载与切分文档

1. 加载文档

支持 PDF、Word、TXT、HTML 等格式:

fromlangchain_community.document_loadersimportPyPDFLoader,DirectoryLoader loader=DirectoryLoader("./docs",glob="*.pdf",loader_cls=PyPDFLoader)documents=loader.load()

2. 文本切分(Chunking)

合理切分对检索质量至关重要。推荐使用语义感知切分

fromlangchain_text_splittersimportRecursiveCharacterTextSplitter text_splitter=RecursiveCharacterTextSplitter(chunk_size=512,chunk_overlap=50,separators=["\n\n","\n","。","!","?",";"," ",""])chunks=text_splitter.split_documents(documents)

技巧:chunk_overlap可避免语义割裂;separators按优先级断句。


四、向量化:构建嵌入(Embedding)

1. 选择 Embedding 模型

  • 开源本地模型:BAAI/bge-large-zh-v1.5(中文强)、text-embedding-ada-002(OpenAI)
  • 本地部署推荐sentence-transformers
fromlangchain_community.embeddingsimportHuggingFaceBgeEmbeddings embeddings=HuggingFaceBgeEmbeddings(model_name="BAAI/bge-large-zh-v1.5",model_kwargs={"device":"cuda"},encode_kwargs={"normalize_embeddings":True})

2. 构建向量数据库

使用 Chroma(轻量级)或 Milvus(生产级):

importchromadbfromlangchain_chromaimportChroma vectorstore=Chroma.from_documents(documents=chunks,embedding=embeddings,persist_directory="./chroma_db")retriever=vectorstore.as_retriever(search_kwargs={"k":5})

k=5表示检索 Top-5 相关片段。


五、检索优化(关键!)

原始向量检索可能召回不相关结果,需优化:

1. 查询改写(Query Rewriting)

使用 LLM 对用户问题进行澄清或扩展:

fromlangchain_core.promptsimportPromptTemplatefromlangchain_openaiimportChatOpenAI rewrite_prompt=PromptTemplate.from_template("你是一个查询优化器。请将以下用户问题改写为更清晰、更适合检索的形式:{question}")llm=ChatOpenAI(model="gpt-4o")rewriter=rewrite_prompt|llm rewritten_query=rewriter.invoke({"question":"怎么重启服务?"}).content

2. 混合检索(Hybrid Search)

结合关键词(BM25) + 向量检索:

fromrank_bm25importBM25Okapiimportjieba# 构建 BM25 索引(中文需分词)corpus=[doc.page_contentfordocinchunks]tokenized_corpus=[list(jieba.cut(text))fortextincorpus]bm25=BM25Okapi(tokenized_corpus)defhybrid_search(query,k=5):# 向量检索vec_results=retriever.invoke(query)vec_ids={doc.metadata["id"]fordocinvec_results}# BM25 检索tokenized_query=list(jieba.cut(query))bm25_scores=bm25.get_scores(tokenized_query)top_bm25=sorted(range(len(bm25_scores)),key=lambdai:bm25_scores[i],reverse=True)[:k]# 融合(取并集去重)all_docs=vec_results+[chunks[i]foriintop_bm25ifinotinvec_ids]returnall_docs[:k]

3. 重排序(Re-ranking)

使用 Cross-Encoder 模型对 Top-K 结果重新打分:

fromsentence_transformersimportCrossEncoder reranker=CrossEncoder("BAAI/bge-reranker-large")pairs=[(query,doc.page_content)fordocinretrieved_docs]scores=reranker.predict(pairs)reranked=[docfor_,docinsorted(zip(scores,retrieved_docs),reverse=True)]

六、提示工程与生成

构建高质量 Prompt

template=""" 你是一个专业客服助手,请根据以下上下文回答用户问题。 - 如果答案不在上下文中,请回答“根据现有资料无法回答”。 - 保持回答简洁、准确。 上下文: {context} 问题:{question} 回答: """prompt=ChatPromptTemplate.from_template(template)

构建 RAG 链

fromlangchain_core.runnablesimportRunnablePassthroughfromlangchain_core.output_parsersimportStrOutputParser rag_chain=({"context":retriever,"question":RunnablePassthrough()}|prompt|llm|StrOutputParser())answer=rag_chain.invoke("如何配置 API 密钥?")

七、评估与迭代

RAG 系统需持续评估:

  • 检索质量:MRR
  • 生成质量:ROUGE、BLEU、人工评分
  • 端到端效果:使用 TruLens 或 RAGAS 框架
# 示例:用 RAGAS 评估fromragasimportevaluatefromragas.metricsimportfaithfulness,answer_relevancy result=evaluate(dataset=your_test_set,metrics=[faithfulness,answer_relevancy],llm=llm,embeddings=embeddings)

八、部署建议

  • 本地测试:FastAPI + Uvicorn
  • 生产部署:Docker 容器化,搭配 Redis 缓存、Nginx 负载均衡
  • 监控:记录查询日志、延迟、失败率

总结

一个健壮的 RAG 系统 ≠ 简单拼接“检索 + LLM”。关键在于:

  1. 高质量数据切分
  2. 混合检索 + 重排序
  3. 精准的提示工程
  4. 持续评估与迭代
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/12 8:41:31

LangFlow Kismet无线网络嗅探

LangFlow 与 Kismet:构建智能无线嗅探分析系统 在当今复杂的网络安全环境中,攻击手段日益隐蔽且高度伪装。传统的无线网络监控工具虽然能够捕获海量数据,却往往止步于“看得见”,难以做到“看得懂”。面对成千上万的SSID、Probe …

作者头像 李华
网站建设 2026/4/18 6:53:22

虚拟化加速入门必看:HAXM安装全流程

Android模拟器卡顿?一文搞定HAXM安装与性能调优你有没有遇到过这样的场景:在Android Studio里点击启动AVD,结果弹出一个红色警告框——“Intel HAXM is required to run this AVD”?接着模拟器要么根本打不开,要么启动…

作者头像 李华
网站建设 2026/4/16 19:29:48

基于与或非门的一位全加器设计:实战案例

从零搭建一位全加器:用与或非门实现二进制加法的底层逻辑你有没有想过,计算机是怎么做“11”的?在我们看来再简单不过的加法,在硬件层面却是一场精密的逻辑协作。而这一切的起点,正是一位全加器(Full Adder…

作者头像 李华
网站建设 2026/4/18 7:33:21

ECharts 学习

一、ECharts 概念: ECharts 是由百度前端团队开发并维护的开源可视化库,基于 JavaScript 实现,支持涵盖折线图、柱状图、饼图、散点图、地图、雷达图、仪表盘、3D 图表等 20 图表类型,同时提供拖拽重计算、数据刷选、联动交互等高…

作者头像 李华