AI 产品经理,如何理解 RAG 技术?简洁版
一、什么是增强检索
LLMs 外挂一个“LLMs 外挂一个“实时更新的知识库”,使用外部数据提高LLMs的准确性专业性。
二、解决了什么问题
模型误导输出/知识缺乏实效性/垂直领域知识不足
三、应用领域
很通用,问答系统/内容摘要/对话系统/文本生成等
四、关键步骤
1. 在接到输入时,检索一组与之相关的文档或信息片段
- 对于于这个输入构建一个或多个查询。
- 这些查询从一个大型的数据存储(如文本数据库或知识库)中检索相关信息。
2. 将这些检索到的信息与输入结合起来,作为生成模型的输入
- 模型通过一个检索系统(通常是预先训练好的检索模型或者是简单的基于关键词的检索系统)在数据存储中搜索相关的文档/信息片段
- 返回一组与查询最相关的文档/信息片段,随后被编码为向量形式。通常使用预训练的语言模型(如BERT、RoBERTa等)来完成。
- 融编码后的文档向量与原始查询的表示被融合,作为生成模型的输入。生成模型(如GPT)然后根据这些信息生成最终的输出文本。
- 生成模型不仅考虑了原始输入的信息,也考虑了检索到的相关信息。
3. 生成更加准确和信息丰富的文本
- 生成模型输出的文本被呈现给用户,作为对原始查询的回答或补充信息。
五、优势
1. 成本低,无需模型训练
通过检索现有的知识库,增强模型的回复质量,相比fine-tune的微调模型而言,成本更低,无需对模型进行重新训练。
2. 增强模型输出的可信度
Reg生成的回答可以附带对应的引用来源,用户点击引用来源后,可以查看对应的引用内容,可以随时验证模型回答的准确性,从而增加对模型输出的信任。
3. 增强模型输出的专业性
通过检索知识库中的信息,可以有效减少模型作出错误判断的可能性,并且通过检索知识库加上提示词的优化可以满足不同行业或者客群的定制话需求
4. 能够始终访问最新的数据
知识库可以实时更新便于调用最新的信息和数据,对于实时需要获取信息的领域尤为重要,比如教育医疗和金融领域。
六、局限性
不能根治LLM的本质局限。
不会改变推理能力,模型参数不变,模型固有能力不变,如果模型本身参数不足,在理解和推理上存在固有的缺陷,单纯用Rag技术,也无法提高模型的输出质量。
作者:wanee有思考的体验派
版权声明
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!