如何调用大模型:通过 HTTP Request 节点调用 Gemini 或 OpenAI API
随着大语言模型(LLM)在自动化和智能化领域的广泛应用,如何在 n8n 工作流中高效集成和调用主流 AI 服务,成为提升业务智能化水平的关键。本章将系统介绍 n8n 如何通过 HTTP Request 节点及内置 AI 节点集成 OpenAI、Google Gemini 等大模型,并结合官方最佳实践,帮助你安全、灵活地实现智能自动化。
调用大模型 API 的通用流程
在 n8n 中集成大模型,最常见方式是通过 HTTP Request 节点调用 REST API。以 OpenAI 和 Google Gemini 为例,流程如下:
- 获取 API 凭证:注册并获取 API Key 或 OAuth 凭证,妥善保存以供认证。
- 配置 HTTP Request 节点:设置 Method 为 POST,填写模型 API 的 URL(如 OpenAI:
https://api.openai.com/v1/chat/completions
,Google Gemini:https://generativelanguage.googleapis.com
),并在 Header 中添加认证信息(如Authorization: Bearer <API_KEY>
)。 - 构造请求 Body:根据模型 API 文档,填写 JSON 参数。例如 OpenAI 需指定
model
和messages
,Google Gemini 需指定prompt
或messages
。 - 处理响应结果:模型返回 JSON,常见结构如 OpenAI 的
choices[0].message.content
,可用 Set 节点或表达式提取内容,供后续流程使用。
在表格、图片或列表展示前,建议用简要说明引导读者理解其用途。例如,展示常见 API 参数时,可先说明“下表列举了主流大模型 API 的关键参数及其作用”。
n8n 内置 AI 节点与高级集成
n8n 近期推出了多种内置 AI 节点(如 OpenAI、Google Gemini、Anthropic Claude、HuggingFace),可直接拖拽使用,无需手动构造 HTTP 请求。内置节点支持更丰富的参数配置和认证方式,并能与 n8n 的数据流无缝衔接。
例如,使用 OpenAI 节点时,只需选择模型、填写消息内容,系统自动处理认证和响应解析。更多细节可参考 n8n 官方文档。
此外,n8n 支持通过 AI Agent 节点集成 LangChain,实现多步推理、工具调用和复杂任务自动化。你可以将向量数据库、RAG 工具、SQL Agent 等作为 AI Agent 的工具,构建智能问答、数据分析等高级场景。相关配置详见 n8n LangChain Agent 文档。
处理模型响应与自动化衔接
模型接口通常返回结构化 JSON。你可以用 Set 节点、Code 节点或表达式提取所需字段。例如:
- OpenAI 响应:
{{$json[\"choices\"][0][\"message\"][\"content\"]}}
- Gemini 响应:
{{$json[\"candidates\"][0][\"content\"]}}
在列表或案例展示前,建议用一两句话说明应用场景。例如:
下列场景展示了模型输出在自动化中的典型应用:
- 自动翻译、摘要、改写文档内容
- 智能数据分析与报告生成
- 基于 AI 输出的流程分支与决策
- 自然语言处理与响应
模型输出可用于写入文件、发送消息、驱动下游节点等,实现智能化业务闭环。
支持的主流 AI 服务与扩展
n8n 支持多种主流 AI 服务,包括:
- OpenAI:GPT-3/4、DALL·E、Whisper 等
- Google Gemini/PaLM:文本、图像生成与分析
- Anthropic Claude:对话与文本处理
- HuggingFace:开源模型 API
- Azure OpenAI Service、本地部署模型(如 llama.cpp、text-generation-webui)
不同服务认证方式和参数略有差异,详细配置可参考 n8n 官方文档。
官方最佳实践与安全建议
- 优先使用 n8n 内置 AI 节点,简化配置与维护
- 控制 API 调用频率,避免高额费用和延迟
- 检查 HTTP 节点返回的错误信息,启用 Retry On Fail 选项提升稳定性
- 妥善管理 API 密钥,避免泄露风险
- 仅保留 n8n 官方文档和 localhost 链接,删除其他外部链接
更多官方建议可参考 n8n AI 集成文档。