跳到主要内容

OpenAI 聊天模型节点#

使用 OpenAI 聊天模型节点可将 OpenAI 的聊天模型与对话式智能体结合使用。

本页将介绍 OpenAI 聊天模型节点的参数配置,并附相关资源链接。

凭证认证

此节点的身份验证信息请参阅此处

子节点中的参数解析

使用表达式处理多个数据项时,子节点的行为模式与其他节点不同。

多数节点(包括根节点)会接收任意数量的数据项作为输入,经处理后输出结果。您可通过表达式引用输入数据项,节点会依次解析每个数据项对应的表达式。例如:若输入五个name值,表达式{{ $json.name }}将依次解析为每个名称。

在子节点中,表达式始终解析为首个数据项。例如:若输入五个name值,表达式{{ $json.name }}将始终解析为第一个名称。

节点参数#

模型#

选择用于生成补全内容的模型。

n8n 会动态加载 OpenAI 的模型,您仅可查看账户权限范围内的模型。

内置工具#

OpenAI Responses API 提供一系列内置工具以增强模型响应能力:

  • 网络搜索:允许模型在生成响应前检索网络最新信息
  • MCP 服务器:允许模型连接远程 MCP 服务器。详细了解将远程 MCP 服务器作为工具使用的方法
  • 文件搜索:允许模型在生成响应前从已上传文件中检索知识库相关信息。详见 OpenAI 文档
  • 代码解释器:允许模型在沙箱环境中编写并运行 Python 代码

节点选项#

通过这些选项可进一步微调节点行为。

基础网址#

输入网址以覆盖 API 默认地址。

频率惩罚#

控制模型重复内容的概率。数值越高,重复可能性越低。

最大令牌数#

设置使用的最大令牌数,用于控制补全内容长度。

响应格式#

选择文本JSON格式。选择JSON可确保模型返回有效 JSON。

话题新鲜度#

控制模型讨论新话题的倾向。数值越高,谈论新话题的可能性越大。

采样温度#

控制采样过程的随机性。较高温度可产生更多样化输出,但会增加幻觉风险。

超时#

设置最大请求时间(毫秒)。

最大重试次数#

设置请求最大重试次数。

核采样#

设置补全应使用的概率阈值。较低值会忽略低概率选项。

会话ID#

此响应所属的会话。响应完成后,其输入项和输出项将自动添加至该会话。

提示缓存键#

使用此键缓存相似请求以优化缓存命中率。

安全标识符#

应用标识符追踪可能违反使用政策的用户。

服务层级#

选择适合需求的服务层级:自动、弹性、默认或优先。

元数据#

用于存储结构化信息的键值对集合。每个对象最多可附加16对,便于添加可通过API或仪表板搜索的自定义数据。

最高对数概率#

设置0-20之间的整数,指定每个令牌位置返回的最可能令牌数量,每个令牌均附带关联对数概率。

输出格式#

选择响应格式:文本、JSON模式或JSON对象。若需获取JSON格式数据,推荐使用JSON模式。

提示#

配置包含唯一ID、版本号及可替换变量的提示词。

推理强度#

控制AI结果的推理级别:低、中、高。

模板与示例#

AI智能体聊天
由 n8n 团队提供
查看模板详情

构建首个WhatsApp聊天机器人
由 Jimleuk 提供
查看模板详情

使用AI抓取并总结网页
由 n8n 团队提供
查看模板详情

浏览OpenAI聊天模型集成模板搜索所有模板

相关资源#

有关该服务的详细信息,请参阅 LangChain的OpenAI文档

有关参数的详细信息,请参阅 OpenAI文档

查看 n8n 的 高级AI 文档

常见问题#

常见问题/故障及解决方案请参阅 常见问题