如何调用大模型:通过 HTTP Request 节点调用 Gemini 或 OpenAI API
随着大语言模型(LLM)在自动化和智能化领域的广泛应用,如何在 n8n 工作流中高效集成和调用主流 AI 服务,成为提升业务智能化水平的关键。本章将系统介绍 n8n 如何通过 HTTP Request 节点及内置 AI 节点集成 OpenAI、Google Gemini 等大模型,并结合官方最佳实践,帮助你安全、灵活地实现智能自动化。
调用大模型 API 的通用流程
在 n8n 中集成大模型,最常见方式是通过 HTTP Request 节点调用 REST API。以 OpenAI 和 Google Gemini 为例,流程如下:
- 获取 API 凭证:注册并获取 API Key 或 OAuth 凭证,妥善保存以供认证。
- 配置 HTTP Request 节点:设置 Method 为 POST,填写模型 API 的 URL(如 OpenAI:
https://api.openai.com/v1/chat/completions
,Google Gemini:https://generativelanguage.googleapis.com
),并在 Header 中添加认证信息(如Authorization: Bearer <API_KEY>
)。 - 构造请求 Body:根据模型 API 文档,填写 JSON 参数。例如 OpenAI 需指定
model
和messages
,Google Gemini 需指定prompt
或messages
。 - 处理响应结果:模型返回 JSON,常见结构如 OpenAI 的
choices[0].message.content
,可用 Set 节点或表达式提取内容,供后续流程使用。
在表格、图片或列表展示前,建议用简要说明引导读者理解其用途。例如,展示常见 API 参数时,可先说明“下表列举了主流大模型 API 的关键参数及其作用”。
n8n 内置 AI 节点与高级集成
n8n 近期推出了多种内置 AI 节点(如 OpenAI、Google Gemini、Anthropic Claude、HuggingFace),可直接拖拽使用,无需手动构造 HTTP 请求。内置节点支持更丰富的参数配置和认证方式,并能与 n8n 的数据流无缝衔接。
例如,使用 OpenAI 节点时,只需选择模型、填写消息内容,系统自动处理认证和响应解析。更多细节可参考 n8n 官方文档 。
此外,n8n 支持通过 AI Agent 节点集成 LangChain,实现多步推理、工具调用和复杂任务自动化。你可以将向量数据库、RAG 工具、SQL Agent 等作为 AI Agent 的工具,构建智能问答、数据分析等高级场景。相关配置详见 n8n LangChain Agent 文档 。
处理模型响应与自动化衔接
模型接口通常返回结构化 JSON。你可以用 Set 节点、Code 节点或表达式提取所需字段。例如:
- OpenAI 响应:
{{$json[\"choices\"][0][\"message\"][\"content\"]}}
- Gemini 响应:
{{$json[\"candidates\"][0][\"content\"]}}
在列表或案例展示前,建议用一两句话说明应用场景。例如:
下列场景展示了模型输出在自动化中的典型应用:
- 自动翻译、摘要、改写文档内容
- 智能数据分析与报告生成
- 基于 AI 输出的流程分支与决策
- 自然语言处理与响应
模型输出可用于写入文件、发送消息、驱动下游节点等,实现智能化业务闭环。
支持的主流 AI 服务与扩展
n8n 支持多种主流 AI 服务,包括:
- OpenAI:GPT-3/4、DALL·E、Whisper 等
- Google Gemini/PaLM:文本、图像生成与分析
- Anthropic Claude:对话与文本处理
- HuggingFace:开源模型 API
- Azure OpenAI Service、本地部署模型(如 llama.cpp、text-generation-webui)
不同服务认证方式和参数略有差异,详细配置可参考 n8n 官方文档 。
官方最佳实践与安全建议
- 优先使用 n8n 内置 AI 节点,简化配置与维护
- 控制 API 调用频率,避免高额费用和延迟
- 检查 HTTP 节点返回的错误信息,启用 Retry On Fail 选项提升稳定性
- 妥善管理 API 密钥,避免泄露风险
- 仅保留 n8n 官方文档和 localhost 链接,删除其他外部链接
更多官方建议可参考 n8n AI 集成文档 。