Memory


记忆功能使你能够与AI聊天,就像AI拥有之前对话的记忆一样。

人类:嗨,我是鲍勃

AI:你好,Bob!很高兴见到你。今天我能为你提供什么帮助吗?

人类:我叫什么名字?

AI:如您之前所述,您的名字是Bob。

在幕后,这些对话被存储在数组或数据库中,并作为上下文提供给大型语言模型(LLM)。例如:

你是一个由OpenAI训练的大型语言模型驱动的人工智能助手。

无论人类是想要就某个具体问题寻求帮助,还是只是想就某个特定话题进行对话,你都会在这里提供协助。

当前对话:
{history}

内存节点:

为多个用户分别进行对话

用户界面与嵌入式聊天

默认情况下,用户界面(UI)和嵌入式聊天功能会自动将不同用户的对话分开。这是通过为每次新交互生成一个唯一的**chatId**来实现的。这一逻辑由Flowise在后台处理。

预测API

您可以通过指定唯一的**sessionId**来区分多个用户的对话

对于每个内存节点,你应该能够看到一个输入参数**Session ID**

  1. /api/v1/prediction/{your-chatflowid} 的 POST 请求体中,在 overrideConfig 中指定 sessionId


/// 译文内容:
---
根据上面的信息,执行如下指令:
缺失译文,请检查输入
{
    “问题”:“你好!”,
    "overrideConfig": {
        "sessionId": "user1"
    }
}

消息API

  • GET /api/v1/chatmessage/{your-chatflowid}

  • 删除 /api/v1/chatmessage/{your-chatflowid}

查询参数
类型

sessionId

字符串

sort

枚举

ASC 或 DESC

startDate

字符串

endDate

字符串

所有对话都可以通过用户界面(UI)进行可视化和管理:

对于OpenAI助手,将使用线程来存储对话。

Last updated