在众多自动化工作流产品中,n8n 凭借其开源特性和高度灵活性备受青睐。它不仅支持本地部署,还具备强大的自定义能力,能够轻松应对复杂工作流的编排。本文将详细介绍如何在本地部署 n8n 服务,并结合最新版本的 DeepSeek V3 模型,搭建一个自动化运营 Telegram AI 新闻聚合频道的工作流。
工作流概述
该 AI 工作流旨在实现以下功能:
- 每天早上 8 点自动抓取国外 AI 相关新闻内容;
- 通过 AI 翻译并整理新闻;
- 将整理后的内容自动发送到指定的 Telegram 频道。
整个过程无需人工干预,即可实现一个每日更新的 AI 新闻聚合频道。此外,n8n 支持本地部署 AI 模型,结合 Ollama 可实现零成本运营。
n8n 本地部署
n8n 提供两种主要本地部署方式:Node.js 和 Docker。以下是具体步骤:
1. 使用 Node.js 部署
- 确保已安装 Node.js 和 npm(运行 node -v 和 npm -v 检查版本)。如未安装,可从 Node.js 官网 下载并安装。
- 访问 n8n 的 GitHub 页面,在 Quick Start 部分找到部署命令。
- 复制命令 npx n8n,在命令行执行,启动 n8n 服务。注:npx n8n 适用于快速测试,长期运行建议全局安装(npm install -g n8n)。
- 服务启动后,会输出本地 n8n 服务的 URL,按 O 键自动打开网页(或手动复制 URL 在浏览器打开)。
- 首次使用需注册账号,填写信息后即可进入 n8n 平台。
2. 使用 Docker 部署
- 如未安装 Docker,可从 Docker 官网 下载并安装。国内用户需配置国内 Docker 源(可参考网上教程)。
- 复制 Docker 部署命令,执行前确保停止之前的 Node.js 服务(Ctrl+C)。
- 执行命令后,服务启动,同样按 O 键或手动打开 URL。
- 需注册新账号,因为 Node.js 和 Docker 部署的 n8n 是独立系统,数据互不共享。
搭建 AI 工作流
以下是搭建 Telegram AI 新闻聚合频道工作流的具体步骤:
1. 创建工作流
- 进入 n8n 平台,选择“创建空白项目”开始搭建工作流。
- n8n 的操作界面与 Zapier、Make 等类似,熟悉这些工具的用户可快速上手。
- 点击“+”号添加节点,第一个节点是触发器节点,用于启动工作流。
2. 设置触发器节点
- 选择“定时触发”节点,设置每天早上 8 点触发。
- 默认使用纽约时间,可在 n8n Web 界面点击“设置” > “Time Zone”,选择“Asia/Shanghai”并保存。
- 测试节点,确认时间设置为国内时间。
3. 获取新闻数据
- 添加两个 HTTP 请求 节点,分别调用 News API 和 GNews API 获取 AI 相关新闻。
- News API:
- 获取 API Key(个人开发者通常有每日免费调用额度,建议参考 News API 官网 确认最新政策)。
- 使用提供的 URL,修改查询参数 q=AI。
- 测试节点,确认返回 AI 相关新闻。
- GNews API:
- 获取 API Key,修改查询参数 q=AI。
- 添加 lang=en 参数过滤非英文内容。
- 测试节点,获取英文新闻数据。
- 调整节点关系,确保两个 HTTP 请求节点由同一触发器节点启动。
4. 数据整合
- 两个 API 返回的 JSON 数据结构不同,需统一格式。
- 为每个 HTTP 请求节点添加一个字段编辑节点,将新闻数据转换为字符串。
- 添加一个 Merge 节点,合并两个数据源,测试确认合并结果。
5. AI 翻译与整理
- 添加一个 AI Agent 节点,使用自定义提示词实现以下功能:
- 筛选 15 条与 AI 技术进展或应用相关的新闻;
- 将英文新闻翻译为中文,保留专业术语;
- 附带原文 URL;
- 注明新闻日期;
- 美化排版。
- 配置 DeepSeek V3 模型:
- 获取 DeepSeek API Key,粘贴到节点设置中。
- 选择 deepseek-chat(V3 模型),测试连接。
- 注:DeepSeek V3 借鉴了 DeepSeek R1 的强化学习技术,在推理任务上表现优异,数学和代码评测得分超过 GPT-4.5。
- 将合并后的新闻数据替换提示词中的占位符,测试 AI 处理效果。
6. 发送到 Telegram
- 添加一个 Telegram 节点,选择“发送纯文本消息”。
- 获取 Telegram Bot Token:
- 在 Telegram 搜索 @BotFather,创建新 Bot,名称需以“bot”或“Bot”结尾,获取 Token。
- 获取 Chat ID:
- 搜索 @GetIDBot,输入 /myid 获取。
- 将 Token 和 Chat ID 填入节点,消息内容使用 AI 节点的输出。
- 测试工作流,确认消息成功发送到指定 Telegram 频道。
本地 AI 模型部署(可选)
为实现零成本运营,可使用 Ollama 部署本地 AI 模型:
- 下载并安装 Ollama。
- 在 Ollama 中搜索 DeepSeek R1 模型,选择 7B 参数模型,复制部署命令。
- 执行命令下载并启动模型,运行 ollama list 确认模型已安装。
- 返回 n8n,删除 DeepSeek 节点,重新添加 AI 模型,选择 Ollama 类型。
- 配置地址:
- Node.js 部署使用 127.0.0.1;
- Docker 部署使用 host.docker.internal(macOS/Windows 的 Docker Desktop 适用,Linux 用户需参考 Ollama 文档配置容器网络)。
- 选择本地 DeepSeek R1 模型,测试工作流。
测试与运行
- 测试整个工作流,确认 Telegram 频道收到格式正确的新闻消息。
- 打开工作流开关,启用定时自动执行。
成本分析
- 使用 DeepSeek API 的一次任务成本约为 0.06 元,优惠时段(0:30-8:30)约 0.03 元(基于 DeepSeek V3 模型,具体成本取决于输入/输出 token 量,建议参考 DeepSeek 官网 计费标准)。
- 本地部署 n8n 无额外费用,若使用 Ollama 部署本地模型,则完全免费。
总结
n8n 是一款灵活且经济的自动化工作流工具,通过本地部署和强大的自定义能力,可轻松实现复杂的 AI 工作流。本教程展示了一个无需人工干预的 Telegram AI 新闻聚合频道,兼具高效性和低成本。感兴趣的用户可参考 n8n 官网 和 GitHub 自行部署,体验其强大功能。
修正说明
- npx 命令:明确了 npx n8n 是快速测试方式,并建议长期运行使用全局安装,同时提醒检查 Node.js 和 npm 环境。
- Docker 部署地址:补充 Linux 环境下 host.docker.internal 的替代方案。
- DeepSeek 模型:将“DPCR 1”更正为“DeepSeek R1”,并简化技术描述。
- API 限额:添加建议检查最新政策,避免限额信息过时。
- 时区设置:明确操作路径为 Web 界面设置。
- Telegram Bot:调整名称要求为“bot”或“Bot”结尾。
- 成本计算:补充成本依赖 token 量的说明,并提供 DeepSeek 官网参考。