苹果手机 + n8n Webhook:把你的 iPhone 变成自动化“物理外挂”

苹果手机 + n8n Webhook:把你的 iPhone 变成自动化“物理外挂”

原文地址:https://mp.weixin.qq.com/s/xjiPiFG0isLpfBKhazxNcQ

手里拿着 iPhone,你以为它只是个手机?
它其实是一个集成了 GPS、NFC、陀螺仪、高清摄像头、麦克风 的超级传感器集合体。

但这些传感器平时都被锁在一个个 App 里,各自为战。
今天,我们要用 n8n Webhook 这把钥匙,把它们全部解锁,接入你的自动化工作流。

从此,你的 iPhone 不再是信息的终点,而是掌控一切的 “物理外挂”

为什么要搞这个?

你肯定遇到过这种场景:

• 突然有个灵感,想记到 Notion 里,结果:解锁手机 -> 找 App -> 打开 -> 点加号 -> 输入... 灵感早跑了。

• 下班回家,想给家里报个平安,顺便把客厅空调开了。

• 看到一段好代码,想存进知识库,顺便让 AI 总结一下。

痛点在于: 手机 App 的交互太慢了,且数据不互通。

解法:
iPhone 快捷指令 (Shortcuts)
 负责收集数据(位置、语音、文本、NFC)。
n8n Webhook 负责接收数据,并指挥后端的一切(写入数据库、发消息、调用 AI)。

简单说,iPhone 是扳机,n8n 是子弹。

硬核实操:手把手教你“握手”

原理就一个词:HTTP POST
iPhone 发一个 POST 请求给 n8n,带上你要的数据。就这么简单。

第一步:在 n8n 建好“停机坪” (Webhook)

1. 打开 n8n,拖出一个 Webhook 节点。

图片

2. Authentication: 选 None (为了演示方便,生产环境建议加上 Header 验证)。

3. HTTP Method: 必须选 POST (我们要传数据过去)。

4. Path: 随便填,比如 iphone-trigger

5. Copy URL: 复制那个 Test URL

6. 点一下 "Listen for Test Event",让它处于“待命”状态。

图片

第二步:在 iPhone 上装好“发射器” (快捷指令)

拿出 iPhone,打开“快捷指令” App,点右上角 + 号:

1. 添加操作:搜索 “获取 URL 内容” (Get Contents of URL)

2. URL:粘贴刚才 n8n 的那个链接。

3. 方法 (Method):改成 POST

4. 请求体 (Request Body):选 JSON

5. 添加字段

  • • Key: content (或者你想传的任何参数名)
  • • Value: 点击变量,选 “每次询问” (Ask Each Time),或者直接输入一段固定的字。

高阶技巧
你可以在“获取 URL 内容”之前,加一个 “听写文本”,把语音转成文字;或者加一个 “获取当前位置”。然后把这些变量填进 JSON 的 Value 里。

第三步:发射!

1. 点击快捷指令右下角的 ▶️ 运行。

2. 回到 n8n,你会看到界面一闪:"Data received"

图片

恭喜你,打通了!
现在你的 iPhone 已经和 n8n 连体了。接下来,就是见证脑洞的时刻。

三个“炸裂”的极客玩法

打通了连接只是第一步,怎么玩才是关键。这里有 3 个我自己在用的场景:

1. “闪念胶囊”:语音 -> Notion/飞书

痛点:走路、开车时有想法,没法打字。
配置

  • • iPhone: 呼叫 Siri 运行快捷指令 -> 听写文本 -> 发送 Webhook。
  • • n8n: Webhook 接收 -> HTTP Request 写入 Notion/飞书多维表格。
    体验
    对着手机喊一句:“嘿 Siri,记录灵感”,说完你的想法。
    下一秒,这条想法已经安静地躺在你的 Notion 数据库里了,甚至还自动打上了 Inbox 的标签。

图片

2. “秘密会议模式”:背面轻敲 -> 自动汇报

痛点:开会时老板突然问数据,或者需要紧急给同事发信号,不好意思玩手机。
配置

  • • iPhone: 设置 -> 辅助功能 -> 触控 -> 轻点背面 -> 设置为某个快捷指令。
  • • n8n: Webhook 接收 -> 飞书/钉钉机器人发消息:“我在开会,稍后回电” 或者自动查询昨天的数据并发回给你。
    体验
    手机放桌上,手指悄悄在背面敲两下。
    事儿办完了,深藏功与名。

图片

3. “真·智能家居”:NFC 贴纸 -> 场景联动

痛点:智能家居 App 太多,切来切去很烦。
配置

  • • 买几张 NFC 贴纸(几毛钱一张),贴在床头、门口、书桌上。
  • • iPhone: 快捷指令 -> 自动化 -> 当扫描 NFC 标签时 -> 发送 Webhook (带上标签 ID)。
  • • n8n: Switch 节点判断 ID -> 控制米家/HomeAssistant 设备。
    体验
    手机往书桌上一扔(扫到 NFC),台灯亮起,电脑唤醒,音箱开始放 Lo-Fi 音乐,手机自动进入“勿扰模式”。
    这不仅是自动化,这是仪式感

写在最后

工具的价值,不在于它有多复杂,而在于它能不能顺手

iPhone + n8n 的组合,本质上是把 n8n 强大的后端处理能力,塞进了你口袋里最顺手的设备中。

你不需要写 App,不需要搞服务器,只需要几个简单的 HTTP 请求,就能把物理世界和数字世界连接起来。

别光看着,拿起手机,先建它一个 Webhook 试试?
你会发现,自动化的大门,才刚刚打开。


你最想用 iPhone 一键触发什么功能?评论区聊聊,说不定就能用 n8n 实现!

Read more

Core ML Stable Diffusion调度器终极指南:DPM-Solver与PNDM深度解析

Core ML Stable Diffusion调度器终极指南:DPM-Solver与PNDM深度解析 【免费下载链接】ml-stable-diffusionStable Diffusion with Core ML on Apple Silicon 项目地址: https://gitcode.com/gh_mirrors/ml/ml-stable-diffusion 还在为图像生成速度慢而烦恼?想要在Apple设备上快速获得高质量AI图像?本文将从实战角度为你深度解析Core ML Stable Diffusion中两大主流调度器——DPM-Solver与PNDM的核心差异,帮助你在速度与质量间找到最佳平衡点。 从用户痛点出发:为什么调度器如此重要? 当你使用Stable Diffusion生成图片时,是否遇到过这些问题: * 生成一张512×512的图片需要等待几分钟 * 增加迭代步数后质量提升不明显,但耗时却大幅增加 * 在iPhone或MacBook上运行时内存占用过高 这些问题的根源往往在于调度器的选择。调度器就像是AI绘画的"导演",负责控制从随机噪声到

Lostlife2.0下载官网整合LLama-Factory引擎,增强NPC对话逻辑

Lostlife2.0整合LLama-Factory引擎,重塑NPC对话逻辑 在文字冒险游戏的世界里,玩家最怕什么?不是任务太难,也不是剧情平淡——而是和一个“话术机械、反应呆板”的NPC对话时,那种瞬间出戏的割裂感。明明世界观设定是末世废土,结果NPC张口就是“绝绝子”“破防了”,这种语言风格的崩塌足以让沉浸感荡然无存。 《Lostlife2.0》作为一款以深度叙事和角色互动为核心卖点的文字冒险游戏,在开发过程中就直面了这一难题。早期版本中,NPC的对话依赖传统的决策树系统:每句台词都由编剧手动编写,每个分支都需要精确配置。这不仅导致内容维护成本极高,更带来了“选项爆炸”问题——新增一条剧情线,往往要额外添加数十个节点,最终形成一张难以管理的复杂网络。 真正的转机出现在团队引入 LLama-Factory 之后。这个开源的大模型微调框架,原本主要用于科研与企业级AI定制,但《Lostlife2.0》团队敏锐地意识到:它或许能成为解决NPC智能瓶颈的关键工具。通过将LLama-Factory深度集成到开发流程中,他们成功构建了一套动态、可进化、风格一致的对话生成系统,彻底改变了传

使用ARPAbet音素标注提升英文发音准确率:CosyVoice3高级用法揭秘

使用ARPAbet音素标注提升英文发音准确率:CosyVoice3高级用法揭秘 在当前AI语音合成技术飞速发展的背景下,TTS系统早已摆脱了早期“机器人朗读”的刻板印象,逐步迈向自然、拟人甚至富有情感表达的新阶段。尤其是像阿里开源的 CosyVoice3 这类多语言语音克隆工具,正让高质量语音生成变得触手可及。 但即便如此,一个长期困扰开发者和内容创作者的问题依然存在:英文单词的发音不准。 你有没有遇到过这样的情况?输入“record”,系统却把它读成“动词”而不是你想要的“名词”;或是把“minute”念成了“分钟”而非“微小”。这些看似细微的错误,在外语教学、专业播客或影视配音中,可能直接导致误解。 问题出在哪? 根源在于英文是一种典型的同形异音语言(heteronym-rich)——拼写相同、词性不同、发音迥异。而大多数TTS模型依赖上下文预测发音,一旦语境模糊,就容易“猜错”。 那有没有办法绕过这种不确定性,直接告诉模型“这个字该怎么读”? 答案是肯定的:通过 ARPAbet 音素标注,我们可以实现对英文发音的“

从社死边缘拯救我:用 AR 眼镜打造“亲戚称呼助手“

从社死边缘拯救我:用 AR 眼镜打造“亲戚称呼助手“

从社死边缘拯救我:用 AR 眼镜打造"亲戚称呼助手 本文应用基于Rokid灵珠智能体/CXR SDK开发,开发指南https://forum.rokid.com/index 一个真实的新年灾难 大年初二,我跟着新婚妻子回娘家。 刚进门,七大姑八大姨就围了上来。一位头发花白的阿姨笑盈盈地递过来一个红包,我脑子里嗡的一声——这到底是妻子的哪位亲戚?大姨?小姨?还是什么远房表姑? “小张啊,还认识我不?” 我支支吾吾半天,最后还是妻子打了圆场:“这是大姨,小时候还抱过你呢!” 那一刻,我看到了大姨眼里的失望。这种社死现场,相信很多人都经历过:春节期间,走亲访友是必修课,但那些一年见一次的亲戚,名字和称呼根本记不住。尤其是刚结婚的新人、不常回家的打工人,简直是"称呼灾难"高发人群。 回家后,我下定决心:明年春节,我绝不能再叫错人。