ChatOllama

先决条件

  1. 例如,您可以使用以下命令来启动一个安装了llama3的Docker实例

    docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
    docker exec -it ollama ollama run llama3

设置

  1. 聊天模型 > 拖动 ChatOllama 节点

  1. 填写在Ollama上运行的模型名称。例如:llama2。您还可以使用其他参数:

  1. 看这里🎉,您现在可以在Flowise中使用ChatOllama节点

附加

如果你在Docker上同时运行Flowise和Ollama,那么你需要更改ChatOllama的Base URL。

对于Windows和MacOS操作系统,请指定http://host.docker.internal:8000。对于基于Linux的系统,由于host.docker.internal不可用,应使用默认的docker网关:http://172.17.0.1:8000

资源

Last updated