ChatLocalAI
LocalAI设置
LocalAI是一个即插即用的REST API替代品,它与OpenAI API规范兼容,可用于本地推理。它允许您使用消费级硬件在本地或本地部署环境中运行大型语言模型(LLM)(且不仅限于此),支持与ggml格式兼容的多个模型系列。
要在Flowise中使用ChatLocalAI,请按照以下步骤操作:
Bash脚本 使用Git克隆https://github.com/go-skynet/LocalAI
cd LocalAI
例如:
从gpt4all.io下载其中一个模型
# 将gpt4all-j下载到models/目录下
使用wget命令从https://gpt4all.io下载ggml-gpt4all-j.bin模型文件,并将其保存到models/ggml-gpt4all-j目录中在 /models 文件夹中,你应该能看到下载的模型:

请参阅此处以获取支持模型的列表。
Bash脚本 docker compose up -d --pull always
现在,API可以在localhost:8080上访问
# 测试API
使用curl命令访问http://localhost:8080/v1/models
# {"object":"list","data":[{"id":"ggml-gpt4all-j.bin","object":"model"}]}Flowise设置
将一个新的ChatLocalAI组件拖放到画布上:

填写以下字段:
基础路径:LocalAI的基础URL,例如http://localhost:8080/v1
模型名称:您想要使用的模型。请注意,该模型必须位于LocalAI目录的
/models文件夹中。例如:ggml-gpt4all-j.bin
{% 提示 style="信息" %}
如果你同时在Docker上运行Flowise和LocalAI,你可能需要将基础路径更改为http://host.docker.internal:8080/v1。对于基于Linux的系统,由于host.docker.internal不可用,应使用默认的docker网关:http://172.17.0.1:8080/v1
就是这样!如需更多信息,请参阅LocalAI文档。
观看如何在Flowise上使用LocalAI
Last updated