RAG

大型语言模型(LLMs)释放了创造能够基于特定内容提供精确答案的高级问答聊天机器人的潜力。这些系统依赖于一种称为检索增强生成(RAG)的方法,该方法通过将回复植根于相关源材料中来增强其响应。

在本教程中,您将学习如何创建一个基本的问答应用程序,该应用程序能够从给定的文档源中提取问题并给出答案。

该过程可分为两个子过程:

  • 索引

  • 检索

索引

文档存储旨在辅助整个索引流程——从不同来源检索数据、制定分块策略、向向量数据库执行更新或插入操作,以及与更新数据进行同步。

我们支持多种文档加载器,包括Pdf、Word、Google Drive等文件,以及Playwright、Firecrawl、Apify等网页抓取工具。您还可以创建自定义文档加载器。

检索

根据用户的输入,从向量数据库中提取相关文档片段。然后,大型语言模型(LLM)使用检索到的上下文生成响应。

  1. 拖放一个Agent节点,并配置模型以供使用。

  1. 添加一个新的知识库(文档库)并定义其内容。这有助于大型语言模型(LLM)理解何时以及如何检索相关信息。您还可以使用自动生成按钮来辅助这一过程。

成功提示 只能使用已更新(upserted)的文档存储 {% 结束提示 %}

3.(可选)如果数据已经存储在向量数据库中,且未经过文档存储索引管道处理,您也可以直接连接到向量数据库和嵌入模型。

  1. 添加一个系统提示,或使用生成按钮以获取帮助。我们建议您使用该功能,因为它有助于生成更有效、更优化的提示。

  1. 您的RAG代理现已可使用!

资源

Last updated