news 2026/5/1 2:15:45

【RAG知识库】本地搭建chatgpt知识库

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【RAG知识库】本地搭建chatgpt知识库

🤖️ 一种利用 langchain 思想实现的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。

实现原理如下图所示,过程包括加载文件 -> 读取文本 -> 文本分割 -> 文本向量化 -> 问句向量化 -> 在文本向量中匹配出与问句向量最相似的 top k个 -> 匹配出的文本作为上下文和问题一起添加到 prompt中 -> 提交给 LLM生成回答。

环境准备

硬件准备:

win11+wsl2,显卡最好是N卡,我的是2080ti22g(魔改版),这款性价比很高,推荐购买。

软件准备:
  1. 安装python环境管理工具,pyenv或者conda,我这里用的pyenv
  2. 安装好python 3.10版本,
  3. 安装好显卡驱动和cuda,根据显卡来安装版本,在win11下安装就行。
  4. 安装好git
  5. 有梯子的话建议整一个。
验证显卡,python和cuda

方法一、 打开命令提示符或 PowerShell。输入以下命令:nvidia-smi在输出中,可以看到显卡的名称和支持的 CUDA 版本。

import torch if torch.cuda.is_available(): print(f"支持 CUDA,第一个显卡名称:{torch.cuda.get_device_name(0)}") print(f"第一个显卡支持的 CUDA 版本:{torch.cuda.get_device_properties(0).cuda_version}") else: print("不支持 CUDA")

这里可能有个小坑,如果win11里可以看到gpu可用,但是wsl2中无可用cpu,可以把wsl2先停掉,再重新启动。

本地搭建步骤

1、复制项目
git clone https://github.com/chatchat-space/Langchain-Chatchat.git; cd Langchain-Chatchat
2、创建环境

这里不管你用什么虚拟环境管理都可以,一定用一个单独的环境,防止依赖冲突和报错。这里是以pyenv为例子。

python -m venv test_langchain_chat source test_langchain_chat/bin/activate
3、安装依赖

这里安装的适合如果下载的太慢,可以使用安装源,

a、 使用-i参数安装

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple/ package_name

b、全局设置安装源

可以修改 pip 的配置文件 pip.conf 来全局指定 pip 镜像源。pip.conf 文件位于用户目录下的 .config/pip 目录中。 在 pip.conf 文件中,添加以下内容:

[global] index-url = https://pypi.tuna.tsinghua.edu.cn/simple/

保存并关闭 pip.conf 文件后,重启 pip。

c、安装所有依赖
# 安装全部依赖 pip install -r requirements.txt pip install -r requirements_api.txt pip install -r requirements_webui.txt
4、下载模型

在本地或离线环境下运行,需要首先将项目所需的模型下载至本地,通常开源 LLM 与 Embedding 模型可以从 HuggingFace下载。以本项目中默认使用的 LLM 模型 THUDM/ChatGLM3-6B 与 Embedding 模型 BAAI/bge-large-zh 为例:

下载模型常用的网站有以下几个,

  1. huggingface.co/
  2. www.modelscope.cn/models

下载方式有以下几种

a、git lfs下载

先安装git lfs,如下: docs.github.com/zh/reposito…

git lfs install git clone https://huggingface.co/THUDM/chatglm3-6b git clone https://huggingface.co/BAAI/bge-large-zh
b、使用huggingface_hub下载

详细的教程可以参考:hf-mirror.com/docs/huggin…

pip install --upgrade huggingface_hub from huggingface_hub import hf_hub_download hf_hub_download(repo_id="lysandre/arxiv-nlp", filename="config.json")
c、使用modelscope-cli下载
## 安装下载客户端 pip install modelscope-cli ## 下载模型 modelscope download bert-base-chinese
5、修改和初始化配置
a、初始化配置
## 复制配置文件 python copy_config_example.py ## 初始化知识库 python init_database.py --recreate-vs
b、修改模型配置

修改configs/model_config.py建议把所有的模型放到一个文件夹,后续如果玩其他大模型指定以下目录就行了。

MODEL_ROOT_PATH = "/home/xx/soft/ai-models"
6、启动调试

执行命令启动服务;访问http://localhost:8501/

python startup.py -a
7、知识库测试

我这里上传了几本epub书籍,都是金融相关的。搜索什么是指数基金是可以显示知识库来源的。


想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2026 年AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享

👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势

想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI

1. 100+本大模型方向电子书

2. 26 份行业研究报告:覆盖多领域实践与趋势

报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:

  • 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
  • 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
  • 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
  • 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。

3. 600+套技术大会 PPT:听行业大咖讲实战

PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

  • 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
  • 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
  • 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
  • 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。

二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走

想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位

面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析

2. 102 道 AI 大模型真题:直击大模型核心考点

针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题

专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:


三、路线必明: AI 大模型学习路线图,1 张图理清核心内容

刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代

L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

L5阶段:专题集丨特训篇 【录播课】


四、资料领取:全套内容免费抱走,学 AI 不用再找第二份

不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:

👇👇扫码免费领取全部内容👇👇

2026 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/20 6:33:54

专著和编著有啥区别?是一回事吗?

专著和编著有啥区别?专著和编著都是学术著作吗?怎么区分?下面淘淘学术来回答作者的这个疑问。 一、专著和编著的定义 很多作者容易把专著和编著混淆,是因为对于专著和编著的概念不清楚。看到专著和编著就就差一个字&#xff0c…

作者头像 李华
网站建设 2026/4/30 9:03:36

书匠策AI:教育论文数据分析的“智能魔法师”,让数据开口说故事

在学术写作的江湖里,数据是“论据之王”,但如何让数据从“沉默的数字”变成“会说话的证据”?传统方法里,研究者常被SPSS报错、Python代码、Excel函数折磨得焦头烂额,更别提跨学科分析、动态可视化这些“高阶技能”了。…

作者头像 李华
网站建设 2026/4/30 20:45:20

书匠策AI:教育论文的“数据炼金术士”,让你的研究从“数字迷宫”到“逻辑金矿”

在教育研究的江湖里,数据分析是每个学者必经的“闯关游戏”。有人卡在数据清洗的“脏活累活”里,有人迷失在统计方法的“选择恐惧症”中,还有人对着满屏代码抓耳挠腮——直到书匠策AI这位“数据炼金术士”横空出世,用魔法般的智能…

作者头像 李华
网站建设 2026/4/25 9:54:33

书匠策AI:教育论文的“数据炼金术士”,让数字开口说学术故事

在教育研究的江湖里,数据是“金矿”,但如何从杂乱无章的数字中提炼出有价值的结论,却让无数研究者头疼不已。传统数据分析工具像一把笨重的镐头,需要研究者自己挥汗如雨地挖掘;而书匠策AI(官网:…

作者头像 李华
网站建设 2026/4/20 17:24:41

async/await与多进程结合的混合爬虫架构

在现代网络数据采集场景中,爬虫面临着目标站点响应速度不一、反爬策略日趋严格、海量数据并行抓取效率要求高等多重挑战。单一的异步协程或多进程爬虫架构,往往难以兼顾高并发、高稳定性与高资源利用率。基于 async/await 的异步协程模式,能够…

作者头像 李华