Memory
记忆功能使你能够与AI聊天,就像AI拥有之前对话的记忆一样。
人类:嗨,我是鲍勃
AI:你好,Bob!很高兴见到你。今天我能为你提供什么帮助吗?
人类:我叫什么名字?
AI:如您之前所述,您的名字是Bob。
在幕后,这些对话被存储在数组或数据库中,并作为上下文提供给大型语言模型(LLM)。例如:
你是一个由OpenAI训练的大型语言模型驱动的人工智能助手。
无论人类是想要就某个具体问题寻求帮助,还是只是想就某个特定话题进行对话,你都会在这里提供协助。
当前对话:
{history}内存节点:
为多个用户分别进行对话
用户界面与嵌入式聊天
默认情况下,用户界面(UI)和嵌入式聊天功能会自动将不同用户的对话分开。这是通过为每次新交互生成一个唯一的**chatId**来实现的。这一逻辑由Flowise在后台处理。
预测API
您可以通过指定唯一的**sessionId**来区分多个用户的对话
对于每个内存节点,你应该能够看到一个输入参数**Session ID**


在
/api/v1/prediction/{your-chatflowid}的 POST 请求体中,在overrideConfig中指定sessionId
/// 译文内容:
---
根据上面的信息,执行如下指令:
缺失译文,请检查输入
{
“问题”:“你好!”,
"overrideConfig": {
"sessionId": "user1"
}
}消息API
GET
/api/v1/chatmessage/{your-chatflowid}删除
/api/v1/chatmessage/{your-chatflowid}
查询参数
类型
值
sessionId
字符串
sort
枚举
ASC 或 DESC
startDate
字符串
endDate
字符串
所有对话都可以通过用户界面(UI)进行可视化和管理:

对于OpenAI助手,将使用线程来存储对话。
Last updated