跳到主要内容

Hugging Face 推理模型节点#

使用 Hugging Face 推理模型节点可调用 Hugging Face 的模型。

本页将介绍 Hugging Face 推理模型节点的参数配置,并附相关资源链接。

该节点不支持工具调用,因此无法与 AI 代理 节点配合使用。请将其连接至 基础 LLM 链 节点使用。

凭证认证

该节点的身份验证信息请参阅 此处

子节点中的参数解析

在使用表达式处理多项数据时,子节点的运行逻辑与其他节点不同。

大多数节点(包括根节点)会接收任意数量的输入项进行处理并输出结果。您可通过表达式引用输入项,节点会逐项解析表达式。例如:当输入五个 name 值时,表达式 {{ $json.name }} 将依次解析每个名称。

在子节点中,表达式始终仅解析首项数据。例如:当输入五个 name 值时,表达式 {{ $json.name }} 将始终解析第一个名称。

节点参数#

  • 模型:选择用于生成文本补全的模型

节点选项#

  • 自定义推理终端:输入自定义推理终端 URL
  • 频率惩罚:控制模型重复内容的概率。数值越高,模型重复内容的可能性越低
  • 最大令牌数:设置使用的最大令牌数,用于控制补全文本长度
  • 存在惩罚:控制模型涉及新话题的概率。数值越高,模型讨论新话题的可能性越大
  • 采样温度:控制采样过程的随机性。较高温度可产生更多样化输出,但会增加幻觉风险
  • Top K:设置模型生成下一令牌时考虑的候选令牌数量
  • Top P:设置补全内容应满足的概率阈值。较低数值可忽略低概率选项

模板与示例#

浏览 Hugging Face 推理模型集成模板,或搜索所有模板

相关资源#

更多服务信息请参阅 LangChain 的 Hugging Face 推理模型文档

查看 n8n 的 高级 AI 文档