ChatOllama
先决条件
例如,您可以使用以下命令来启动一个安装了llama3的Docker实例
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama docker exec -it ollama ollama run llama3
设置
聊天模型 > 拖动 ChatOllama 节点

填写在Ollama上运行的模型名称。例如:
llama2。您还可以使用其他参数:

看这里🎉,您现在可以在Flowise中使用ChatOllama节点了

附加
如果你在Docker上同时运行Flowise和Ollama,那么你需要更改ChatOllama的Base URL。
对于Windows和MacOS操作系统,请指定http://host.docker.internal:8000。对于基于Linux的系统,由于host.docker.internal不可用,应使用默认的docker网关:http://172.17.0.1:8000

资源
Last updated