跳到主要内容

Ollama 聊天模型节点#

Ollama 聊天模型节点支持您将本地 Llama 2 模型与对话型智能体结合使用。

凭证配置

该节点的身份验证信息请参阅此文档

子节点参数解析

在使用表达式处理多项数据时,子节点的运行机制与其他节点不同:

  • 大多数节点(包括根节点)会接收任意数量的数据项作为输入,经处理后输出结果。您可通过表达式引用输入数据项,节点会依次解析每个数据项对应的表达式。例如:当输入包含五个name值时,表达式{{ $json.name }}将依次解析每个名称
  • 在子节点中,表达式始终仅解析首项数据。例如:当输入包含五个name值时,表达式{{ $json.name }}将始终解析第一个名称

节点参数#

  • 模型:选择用于生成补全内容的模型。可选值包括:
    • Llama2
    • Llama2 13B
    • Llama2 70B
    • Llama2 无审查版

有关可用模型的详细信息,请参阅 Ollama 模型库文档

节点选项#

  • 采样温度:通过此选项控制采样过程的随机性。较高温度值可产生更多样化的采样结果,但会增加幻觉风险
  • Top K:设置模型生成下一词元时考虑的候选词元数量
  • Top P:设定补全内容应使用的概率阈值。较低数值将忽略概率较低的选项

模板与示例#

使用 n8n 和 Ollama 实现本地大语言模型对话
作者:Mihai Farcas
查看模板详情

🔐🦙🤖 私有化本地部署的 Ollama 自托管AI助手
作者:Joseph LePage
查看模板详情

使用AI自动分类Outlook邮件
作者:Wayne Simpson
查看模板详情

浏览 Ollama 聊天模型集成模板搜索所有模板

相关资源#

有关该服务的更多信息,请参阅 LangChain 的 Ollama 聊天模型文档

查看 n8n 的 高级AI功能 文档。

常见问题#

常见问题及建议解决方案请参阅 常见问题指南

自托管AI入门套件#

初次接触AI并使用自托管n8n?尝试 n8n 的 自托管AI入门套件,通过 Ollama、Qdrant 和 PostgreSQL 快速构建概念验证或演示环境。