OpenAI 聊天模型节点#
使用 OpenAI 聊天模型节点可将 OpenAI 的聊天模型与对话式智能体结合使用。
本页将介绍 OpenAI 聊天模型节点的参数配置,并附相关资源链接。
凭证认证
此节点的身份验证信息请参阅此处。
子节点中的参数解析
使用表达式处理多个数据项时,子节点的行为模式与其他节点不同。
多数节点(包括根节点)会接收任意数量的数据项作为输入,经处理后输出结果。您可通过表达式引用输入数据项,节点会依次解析每个数据项对应的表达式。例如:若输入五个name值,表达式{{ $json.name }}将依次解析为每个名称。
在子节点中,表达式始终解析为首个数据项。例如:若输入五个name值,表达式{{ $json.name }}将始终解析为第一个名称。
节点参数#
模型#
选择用于生成补全内容的模型。
n8n 会动态加载 OpenAI 的模型,您仅可查看账户权限范围内的模型。
内置工具#
OpenAI Responses API 提供一系列内置工具以增强模型响应能力:
- 网络搜索:允许模型在生成响应前检索网络最新信息
- MCP 服务器:允许模型连接远程 MCP 服务器。详细了解将远程 MCP 服务器作为工具使用的方法
- 文件搜索:允许模型在生成响应前从已上传文件中检索知识库相关信息。详见 OpenAI 文档
- 代码解释器:允许模型在沙箱环境中编写并运行 Python 代码
节点选项#
通过这些选项可进一步微调节点行为。