跳到主要内容

Vercel AI Gateway 聊天模型节点#

使用 Vercel AI Gateway 聊天模型节点,可在对话代理中调用 AI Gateway 的聊天模型。

本页将介绍 Vercel AI Gateway 聊天模型节点的参数配置,并附相关资源链接。

凭证认证

该节点的身份验证信息请参阅此文档

子节点中的参数解析

使用表达式处理多项数据时,子节点的运行机制与其他节点不同。

多数节点(包括根节点)会接收任意数量的数据项作为输入,经处理后输出结果。您可通过表达式引用输入数据项,节点会依次解析每个数据项对应的表达式。例如:当输入五个 name 值时,表达式 {{ $json.name }} 将依次解析为每个名称。

在子节点中,表达式始终解析为首个数据项。例如:当输入五个 name 值时,表达式 {{ $json.name }} 将始终解析为第一个名称。

节点参数#

模型#

选择用于生成补全内容的模型。

n8n 会动态加载 AI Gateway 中的模型,您仅可查看账户权限范围内的模型。

节点选项#

通过以下选项可进一步微调节点行为。

频率惩罚#

此选项用于控制模型重复内容的概率。数值越高,模型重复自身内容的可能性越低。

最大令牌数#

设置使用的最大令牌数,该数值决定补全内容的长度。

响应格式#

选择 文本JSON 格式。选择 JSON 可确保模型返回标准化的 JSON 数据。

话题新鲜度#

此选项用于控制模型讨论新话题的倾向性。数值越高,模型引入新话题的可能性越大。

采样温度#

此选项用于控制采样过程的随机性。较高的温度值会带来更多样化的采样结果,但会增加生成虚构内容的概率。

超时设置#

设置请求最长等待时间(毫秒)。

最大重试次数#

设置请求失败后的最大重试次数。

核采样#

此选项用于设定补全内容应覆盖的概率区间。较低数值会排除低概率选项。

模板与示例#

浏览 Vercel AI Gateway 聊天模型集成模板,或搜索所有模板

相关资源#

由于 Vercel AI Gateway 与 OpenAI API 兼容,您可参考 LangChain 的 OpenAI 文档获取更多服务信息。

查看 n8n 的高级 AI 文档