news 2026/5/1 7:34:55

RAG技术迎来颠覆性提升!LinkAI发布知识库增强方案,企业级效果实测

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
RAG技术迎来颠覆性提升!LinkAI发布知识库增强方案,企业级效果实测

RAG(Retrieval-Augmented Generation,检索增强生成)技术经过近两年的快速发展,已经从初期的概念验证阶段进入到了大规模企业级应用的关键时期。

在这个过程中,单纯依靠简单的文档切分和基础的向量检索技术已经无法满足企业对于知识库问答质量和AI智能体输出效果的要求。伴随着长期的技术迭代和客户实践,相较于去年介绍的RAG基础优化方案,LinkAI平台对RAG技术和知识库能力的进行了更为深入的优化升级 —— 覆盖了知识导入的还原度和智能性、检索的准确性和高效性、生成的精准性和可追溯,以及评估和反馈机制的可闭环。

LinkAI平台对技术的持续升级,对用户体验的极致追求旨在为客户带来更高质量、更领先的智能体落地体验。本文将详细介绍LinkAI平台对RAG技术和知识库能力的进阶优化之路。

01总览

RAG优化的最终目标是让智能体能够根据知识库中的相关内容准确回答用户问题,并尽可能减少模型幻觉的出现。以下是LinkAI平台的完整RAG链路,在各个关键环节都进行了优化升级:

各个环节的优化目标如下:

  1. 导入:文档解析时尽量保留原始信息、还原排版结构;切分时要尽可能将相对独立的内容划分至一个段落
  2. 检索:知识检索要能够理解用户语义,尽可能查询到所有相关内容,同时减少不相关的噪音影响
  3. 生成:回答时要严格遵循检索上下文,展示文档引用来源和引导问题,优化交互体验
  4. 评估:需要完善的评估体系对回答内容进行度量,并基于反馈不断完善知识库,形成数据循环

02文档导入

文档导入是知识库检索的源头,如果在入库的第一步就丢失了文档中的关键信息,很难保证在后续的检索和生成中获得准确的效果。在已支持多种文档类型的基础上,LinkAI针对复杂格式文档的解析和分段进行了优化,更好还原文档的格式信息和段落结构,并对知识库的导入方式进行了完善升级。

1智能文档解析

文档解析是读取不同类型文件中的内容,供后续切分和入库使用,对于有复杂元素及排版格式的文件,普通的文档解析库或OCR工具很难获取完整信息。

平台新增了基于多模态大模型开发的智能解析模式,可以更好提取文档中的文本、图片、表格、公式等复杂元素,并且可以处理多栏、混排等复杂排版的文档,另外对于清晰度有限的扫描件也能更好识别。

开启智能解析模式后,会将 pdf、word、ppt 等文件类型解析后转为 Markdown 格式,能很好保留原始文档的段落结构,也为后续的切分建立了更好的基础。

2分段策略优化

文档分段也是知识库导入中至关重要的一环,由于模型上下文的限制,需要将文档内容切分成一个个分块,进行向量化后入库,在对话时检索出相似的若干个分块交给大模型处理。所以能否将相对完整的内容划分至一个段落,以及能否建立相邻段落之间的关联,会对最终的检索效果产生直接影响。

LinkAI 面向不同场景提供灵活的分段模式选择:

  • 智能分段: 默认的分段模式,用户可设置最大分段长度,系统会根据不同文件类型智能设置不同的分隔符,让切分后的每段内容少于最大长度,并尽可能保证语句的完整性及分段之间的连贯性
  • 自定义分段: 完全自定义分隔符,支持多个分隔符按顺序递归处理,直到小于最大分段长度;同时支持设置连续分段之间的重叠度,以保证相邻分段的连续
  • **层级分段:**按照文档层级分段,更好保留文档的层级结构,让独立的内容更好拆分到一个段落中。适用于 Markdown文档、网页导入、以及开启了「智能解析」后的 Word、PDF、PPT 文件。

以Markdown文件为例,当分段层级设置为3时,则会将第三层级 (一般用 ### 标记) 下的内容拆分到一个分段中,并且每一段会保留前两级的目录标题,更好还原文档结构:

3更多导入方式

除了针对文档解析和切分的优化,知识库的导入模式也很重要,便捷的导入途径可以让用户更及时的更新知识库内容,保证知识库内容的实时性和准确性。

平台新增了定时更新工作流更新两种触发方式。

定时更新主要针对网站以及在线文档等知识类型,当外部页面和文档发生内容变更的时候可以自动同步至知识库中,省去定期手动维护的步骤,方便知识数据统一管理。例如可以建立一个自动同步企业文档中心的知识库,构建文档答疑智能体并通过「网页嵌入」功能集成到网站中:

工作流更新则是一种更灵活的主动更新方式,可以通过自然语言对话的形式将知识动态写入知识库,可通过渠道接入、API调用等方式进行集成,为知识库的运营维护提供了新的模式。例如知识库维护人员可以在常用办公软件中通过对话的方式进行知识库更新,模型将自动提取信息写入知识库中:

4其他优化方案

在导入阶段还有一些其他优化思路可供选择:

  • 大模型数据清洗: 通过大模型对原始语料进行清洗,例如去除一些特殊符号、无关信息,或是将无结构文档转为QA或表格等结构化知识,提高信息密度。但注意大模型处理可能会有几率导致丢失信息,要注意对提示词的编写和内容的复核。
  • 语义分块: 通过大模型理解文档语义后进行动态分段,将语义独立的内容划分到一个段落中,缺点是成本较高,同时也有改变原始内容的风险。
  • 图片理解和解析: 对于pdf/word/ppt文档中的图片内容,除了以链接形式保存外,还可以通过多模态模型进行图像识别,将关键信息形成描述摘要,和图片链接一同存储,这样在检索时可以根据图片内容检索到相关段落信息。
  • **GraphRAG:**以知识图谱作为底层存储,使用图结构更好存储和表示不同知识之间的关系,适用于医疗诊断、企业洞察、法律咨询等需要建立知识实体之间复杂关联的场景。同时构建知识图谱的成本相比向量数据库更高,需要结合实际场景进行选型。

03知识库检索

知识库检索优化的核心目标是提升检索的准确性,需要能够真正理解用户问题,检索出模型真正需要的知识库内容,同时减少对不相关内容的召回。

1查询改写

在实际应用场景中,用户会与智能体进行多轮的对话,用户查询的问题往往会出现主体不明、关键信息缺失、语义模糊等问题,如果直接用最新一轮的原始问题进行知识库检索,就有可能丢失这些上下文信息,影响检索的准确性。

解决这个问题的方案是通过查询改写结合上下文对用户问题进行补全、完善、扩写,以检索到更多相关内容:

如图所示,用户的第一次提问为"介绍LinkAI平台",第二次提问为 “有哪些行业解决方案”,如果直接以当前最新问题进行检索,很可能因为缺少主语而无法准确检索到结果,通过查询改写后会将问题补全为 “LinkAI平台有哪些行业解决方案”,实现指代消解的效果。

同时还会结合场景对原有问题分解为多个更具体的子问题,通过批量检索子问题获取到更详细的知识内容:

另外平台在常见的查询改写方案上进行了额外优化,不会直接对原始问题进行替换,也不会改变最终发送给大模型的问题,而是使用改写后的问题对知识库进行额外检索,并将附加知识库条目添加到上下文中,减少查询改写可能带来的副作用。

2混合检索和重排

混合检索是指对向量检索关键词检索的组合使用,尽管向量检索能够更好理解用户语义,找到相似的文本语料,但是在针对一些短文本、低频出现、精确匹配的场景 (例如对于姓名、型号、专有名词等的检索) ,传统的关键词检索仍然有不可替代的优势。

目前LinkAI平台默认使用混合检索的方式,同时召回向量检索结果和关键词检索结果,并支持开启重排算法,对两种结果集进行统一的再次排序和打分,将与用户问题更相关的知识库语料放置在模型上下文的前面。

3其他优化方案

在检索阶段的一些其他优化思路:

  • 父子分段: 文档分段对准确性最大的影响就是会把独立的段落分开,导致检索时无法一次性获取到完整内容,父子分段的思路是当检索到较小的分块时,将前后连续的其他分块组成一个更大的分块一并发给模型,从而提升上下文的连续性。
  • 分层索引: 分层索引解决的是当知识库内容太多而无法检索到全部相关信息的问题,思路是通过大模型对连续的多个分块进行摘要后再建立一层索引,当命中摘要索引后再对摘要后的小块进行检索,以提升检索召回率。
  • 元数据过滤: 元数据是指在知识库构建时可以对知识记录设置的元数据标签,在检索时可以根据用户意图或身份信息对元数据进行检索过滤,基于该特性可以实现知识权限控制、意图路由等功能。

04内容生成

内容生成阶段大模型将根据前面检索到的知识库上下文,结合用户问题、系统提示词、历史记忆等,生成最终的答案。在这一步中,主要的优化工作在于设置模型对知识库未命中场景的回复策略,还可以优化输出的展示效果,来提升用户体验和结果的可信度。

1无关内容拒答

对于回答准确性要求较高的场景,例如医疗、金融、政务领域的知识问答,需要能够拒绝回答知识库中不存在的内容,严禁模型自由发挥编造内容。

对于这个问题有两个优化途径,一是优化智能体的系统提示词,着重描述对于无关内容拒答的规则,并将模型温度设置为0。同时平台也提供了提示词一键优化功能,可以快速生成高质量的提示词。

**另外一个方式就是对于未检索到知识库的情况设置明确的处理逻辑,平台提供了知识库未命中策略的配置,支持在模型自由发挥、回复固定文案、转人工 中选择。**其中针对转人工还提供了丰富的规则配置,可选择关键词和意图触发,设置回复策略、通知方式、智能摘要,并支持在对话管理进行统一管理。

2知识库引用来源

知识库的引用来源的展示可以提升输出答案的和可信度和可追溯性,同时也能让模型在生成时更多引用知识库内容作为来源,减少无关内容输出。另外,平台还支持对引用来源的展示设置置信度阈值,只有语料的检索相似度超过某个值时,才展示知识库的引用来源。

3引导问题生成

问题引导开启后会在智能体回复后生成几个推荐问题,以引导用户进一步深入提问,并更好命中知识库。

平台在引导问题的生成上进行了一系列优化,首先会与历史对话具有相关性,针对主题不断递进,让用户能逐步深入地了解更多信息。另外推荐的问题都是基于知识库中已有内容生成的,能够引导用户的下一次提问更好命中知识库,以便从源头上对用户的原始问题质量进行优化。

05评估体系建立

任何问题如果无法度量,就无法被科学的优化,也很难对比评估改进的效果,所以评估体系的建立也是RAG优化中非常关键的一步,好的评估框架可以帮我们指明优化的方向,并形成 “迭代 -> 评估 -> 迭代” 的数据闭环。

1指标设定

首先要确定RAG系统的评估指标,即哪些要素可以来衡量一个RAG系统的效果好坏。由LlamaIndex和Truelens提出的 RAG三元组 是一个业界常用的评估理论:

该理论的核心是通过用户问题(Query)、检索上下文(Context)、生成答案(Response) 三者间的关系来衡量RAG的质量。基于这个思路,我们可以针对两两之间的关系细化出更多指标:

  • 上下文相关度: 评估知识库检索环节的准确性,即检索到的内容与用户问题的相关程度,包括召回率和上下文精度等指标。优化方向包括上文介绍的解析、分段、混合检索等。
  • 真实性: 评估最终生成的答案是否遵循检索上下文,即大模型的幻觉程度。优化方案是系统提示词优化、选择性能更好的模型、拒答策略设置等。
  • 答案相关性: 评估生成的最终答案是否真正满足用户问题,这一指标除了系统打分外还可以引入人工评估。优化思路可以是提示词工程、查询改写等。

2智能体评估中心

目前LinkAI平台在RAG优化过程中以上述指标为指引,建立了多个不同行业和场景的测试集,在每次核心能力迭代后会自动化批量执行测试集,度量RAG系统的指标变化情况。

在后续迭代中,平台会将完整的评估能力开放给客户,建立智能体评估中心,支持客户自助构建测试集并批量执行,通过系统裁判模型生成各项过程指标,并同时支持人工标注打分。

通过对评估结果的统计分析,可以更好进行智能体配置调优及知识库语料迭代,实现端到端的智能体落地优化。

06写在最后

本文从知识库系统的完整链路 (导入、检索、生成、评估) 出发,深入解析了RAG技术的优化方案。LinkAI平台通过对每个环节的升级,尽可能保证原始知识的完整性,提升检索准确性,并生成与用户问题及上下文匹配的答案,再通过评估指标量化整体效果,形成一个可以不断循环提升的RAG优化体系。

在企业实际应用中,智能体的构建与知识库的维护是一个动态演进的过程。LinkAI平台支持从冷启动阶段的小规模知识库搭建,到AI辅助的人机协同,再到基于用户反馈的持续优化,帮助企业不断完善知识库内容与智能体配置,最终实现业务价值的最大化。

在未来,LinkAI将持续致力于为企业提供更加高效、精准、可持续优化的AI智能体解决方案,助力客户实现业务价值的持续提升。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 13:13:23

LTspice 上手教程 —— 仿真 LDO 电源(LT3045)

前言 本文以 Analog Devices LT3045 为例,说明在 LTspice 中如何构建 LDO 电源电路。 LDO 简介 LDO 全称是 Low Dropout Regulator,中文为 低压差线性稳压器 。 它内部由电压基准、误差放大器、反馈电路、以及串联的晶体管(双极型 / CMOS …

作者头像 李华
网站建设 2026/4/26 6:56:52

揭秘Open-AutoGLM国产硬件兼容难题:5大关键调试步骤全公开

第一章:Open-AutoGLM国产硬件适配的背景与挑战随着人工智能技术的快速发展,大模型在自然语言处理、智能推理等领域的应用日益广泛。然而,国际主流AI框架和模型大多依赖于英伟达CUDA生态,在国产计算硬件上存在兼容性差、性能损耗大…

作者头像 李华
网站建设 2026/5/1 4:17:42

为什么90%的企业低估了Open-AutoGLM定制开发成本?,资深架构师亲述真相

第一章:Open-AutoGLM企业定制开发成本的认知误区 许多企业在评估 Open-AutoGLM 定制开发项目时,常陷入对“初始开源即零成本”的误解。尽管 Open-AutoGLM 本身作为开源框架可免费获取,但其在企业级场景中的深度集成、模型微调与系统维护仍需大…

作者头像 李华
网站建设 2026/5/1 4:17:17

大数据产品推荐系统:个性化推荐引擎开发指南

大数据产品推荐系统:个性化推荐引擎开发指南 关键词:推荐系统、协同过滤、内容推荐、矩阵分解、深度学习推荐、A/B测试、实时推荐 摘要:本文全面介绍大数据环境下个性化推荐系统的开发方法。从基础算法原理到实际工程实现,详细讲解协同过滤、内容推荐、矩阵分解等核心算法,…

作者头像 李华