【Agent】那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台

【Agent】那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台

那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台


请添加图片描述

🌌你好!这里是 晓雨的笔记本在所有感兴趣的领域扩展知识,感谢你的陪伴与支持~👋 欢迎添加文末好友,不定期掉落福利资讯


写在最前面

版权声明:本文为原创,遵循 CC 4.0 BY-SA 协议。转载请注明出处。

最近一段时间,“AI 操作电脑”这件事越来越火。很多人第一次看到这类演示时,都会觉得有点神奇:原来 AI 不只是会聊天、会写文案,居然真的开始会“用电脑”了。

也正因为这样,很多人会下意识觉得,所有“AI 控电脑”的东西,应该都差不多。无非就是让 AI 帮你点点鼠标、输输文字、开开网页、跑跑流程。

但真往下看,其实不是这么回事。

因为有的方案,本质上更像是让 AI 在当前这台电脑上学会干活;而有的方案,更像是把一整套远程控制能力直接交给 AI,让它不只是操作眼前这一台电脑,而是能去连接、查看、操作更多设备。

向日葵 MCP 更接近后者。它真正值得关注的地方,也不只是“向日葵也做 AI 了”,而是那个大家熟悉的远程控制工具,开始让 AI 真正接手远程设备操作这件事了。

比openclaw更简单的配置过程,没有特定环境的需求

很多人一听到“AI + 远程控制”,第一反应就是复杂。

是不是要额外买设备?

是不是要单独搭环境?

是不是要学很多配置?

是不是只有技术人员才能用?

但向日葵 MCP 比较有吸引力的一点,就是它不是让你为了 AI 再重建一套远程控制系统,而是把原本已有的远控能力,直接接到了 AI 这一侧。

这件事的意义其实很现实:普通用户最怕的,不是功能不够多,而是门槛太高。一旦某个东西上来就要求你买一堆设备、改一堆环境、理解一堆概念,很多人其实第一步就放弃了。

如果只是先体验一次,我更建议直接接入 OpenCode。路径比较直观,也更容易快速看到效果。

参考配置链接:https://service.oray.com/question/50091.html?utm_source=client&utm_medium=redirect&utm_campaign=slrc&utm_term=mcp_help&redirect_id=1991

  • 打开向日葵客户端,进入「设置」> 「MCP服务器」。点击「启用MCP服务器」

根据使用场景选择适合的通信方式:

  • Stdio(推荐):本地进程通信,适用于本地运行的 AI 客户端
  • Streamable HTTP:基于 HTTP 的远程通信,适用于需要跨网络调用的场景

可将如下提示词和上述通信方式发送给AI,让AI来完成配置工作。

AI完成配置后,手动检查对应的配置文件是否写入完毕。

确保配置文件写入完毕后,需要先重启OpenCode客户端才能生效,按如下步骤执行操作验证。

  • 重启 OpenCode 客户端
  • 在输入框输入指令 /mcp 检查MCP服务器连接状态

如上所示,如果显示awesun-mcp-server已连接,并且处理开启状态,则配置完成。

整套流程更像是在已有远控能力上,多接了一层 AI 可以调用的接口,而不是重新搭一套很重的系统。这也是它对普通用户更友好的地方。

真正实用的地方,是它更接近现实场景

很多 AI 控电脑的演示都很酷,但对普通用户来说,真正重要的不是演示有多炫,而是它能不能进入日常场景。

向日葵 MCP 的优势就在这里。因为它本来就是从远程设备控制出发的,所以更适合处理那些和“另一台电脑”有关的事情。

比如你人在外面,但文件、软件、资料都在另一台电脑上。以前要自己远程连回去,一步步找、一点点操作。现在如果 AI 能直接接入这套远程控制能力,很多事情就有机会从“我亲自操作”,变成“我告诉 AI 要做什么,它先替我去做”。

再比如,不少人手上本来就不止一台设备。有主力电脑,也有备用电脑;有时还会有挂着程序的机器。真到要看状态、确认界面、做一些基础操作时,最麻烦的就是来回切换。向日葵 MCP 这种能力,正好能让 AI 接手一部分原本必须人反复折腾的远程操作。

还有一种很实用的场景,就是**“先帮我看一眼”** 。很多时候,我们不是马上要做复杂操作,只是想知道另一台设备现在是什么状态:开着没有、卡在哪个界面、有没有报错。AI 如果能先去看、先去判断、先把情况整理出来,人再决定要不要接手,整个体验会轻很多。

  • 发送一句简单指令,比如:帮我查询下设备列表中XXX
  • 设备的配置信息

多平台、可查看、可接手,才是它更适合大众的原因

很多 AI 产品在演示里看起来都很顺,是因为环境通常很理想:一台电脑、一个系统、一个固定流程。

但真实世界不是这样。有人用 Windows,有人用 macOS;有的人有办公电脑,也有家里电脑;有时候甚至还会碰到 Linux 设备、安卓终端。设备一多、平台一杂,很多看起来简单的自动化就会突然变得麻烦。向日葵 MCP 的价值就在于,它不是只盯着单一环境,而是尽量把更多真实设备场景纳入进来。

另外,很多人对 AI 自动化感兴趣,但也会担心:如果它乱点怎么办?如果它看错了怎么办?

这也是为什么**“可查看、可接手”** 很重要。向日葵 MCP 这类能力的一个优势,就是操作过程更容易被看到和监管。用户可以随时查看过程,必要时也能介入。这样一来,AI 不再是一个完全黑盒的执行者,而更像一个可以先帮你做事、你随时能接回来的助手。

awesun-mcp-example-claude/CLAUDE.md记忆文件,预设系统提示词写的很有意思,感兴趣的朋友可以去看看他实际的逻辑。

结语

所以,那个“搞远程的向日葵也出 AI 了”这件事,真正值得看的,不只是它赶上了 AI 这波热度。

更重要的是,它本来就擅长远程控制设备,现在又把这套能力正式开放给了 AI。这样一来,AI 不只是会在你眼前这台电脑上干活,还有机会开始接手更多远程设备相关的事情。

如果你只是想让 AI 帮你处理本机任务,市面上已经有很多很吸引人的方案;但如果你关心的是跨设备、跨地点、多平台、可查看、可接手的远程操作体验,那向日葵 MCP 这条路,确实会更值得普通用户认真看一眼。


hello,这里是 晓雨的笔记本 。如果你喜欢我的文章,欢迎三连给我鼓励和支持:👍点赞 📁 关注 💬评论,我会给大家带来更多有用有趣的文章。
原文链接 👉 ,⚡️更新更及时。

欢迎大家点开下面名片,添加好友交流。

Read more

Spec-Kit+Copilot打造AI规格驱动开发

Spec-Kit+Copilot打造AI规格驱动开发

作者:算力魔方创始人/英特尔创新大使 刘力 一,什么是Spec-Kit? 在传统的软件开发中,通常先有需求→ 写规格 → 再写代码;规格多数是“指导性文档”,而真正的业务逻辑和边界由程序员“翻译”出来。Spec-Driven Development(规格驱动开发)的理念是,将规格(spec)从“仅供参考”提升为可执行、可驱动的核心工件,直接引导后续设计、计划、任务拆解、实现等流程。spec-kit 是 GitHub 提供的一个工具集 / CLI / 模板库,用来在项目中落地这种流程! Github: https://github.com/github/spec-kit 二,搭建运行环境 本节将指导您从零开发搭建Spec-Kit的运行环境。 第一步:在Ubuntu24.04上安装uv: curl -LsSf

新手避坑指南:使用Llama-Factory常见的十个错误及解决方案

新手避坑指南:使用 Llama-Factory 常见的十个错误及解决方案 在大模型时代,越来越多的研究者和开发者希望将预训练语言模型应用于垂直领域——比如客服问答、法律咨询或医疗辅助。然而,直接从零开始训练一个大模型既不现实也不经济。于是,微调(Fine-tuning) 成为最主流的方式。 但问题来了:传统微调需要写复杂的训练脚本、管理分布式环境、处理显存瓶颈……这对新手来说简直是“劝退三连”。直到 Llama-Factory 的出现。 这个开源项目像是一站式自助餐厅,把数据预处理、模型加载、LoRA/QLoRA 配置、训练监控、权重合并全都打包好了,甚至提供了可视化界面,点点鼠标就能启动训练。听起来很美好?没错,但它也有自己的“隐藏规则”——稍有不慎,就会遇到训练崩溃、显存溢出、权重无效等问题。 下面我们就来盘点一下,使用 Llama-Factory 时新手最容易踩的十个坑,并结合底层机制给出真正能落地的解决建议。 为什么你明明用了 LoRA 还是爆显存? 这是最常见的第一问:

本地大模型:如何在内网部署 Llama/Qwen 等安全增强模型

本地大模型:如何在内网部署 Llama/Qwen 等安全增强模型 你好,我是陈涉川,欢迎你来到我的专栏。在上一篇《架构设计:安全 AI 产品的全生命周期(MLSecOps)》中,我们走出了“霍格沃茨的实验室”,直面血肉横飞的真实工程战场,拆解了从需求定义到模型退役的全生命周期(MLSecOps)七阶蓝图。我们明白了,安全 AI 的落地绝不是丢一个 Python 脚本进 Docker 那么简单,而是一场融合了算法、运维与合规的系统级工程。 既然掌握了宏观架构,本篇我们将直接拔剑出鞘,扎进生成式 AI 落地最硬核、最逼仄的深水区——物理隔离的内网环境。如何在严守数据安全与合规红线的前提下,在算力捉襟见肘的企业内网中,将百亿参数的 Llama 或 Qwen 部署上线,并将其微调成一个拥有坚定防守立场、断网也能满血运行的“企业专属安全大脑”! 引言:跨越红线,

新手用AI写文章,AI味太重了?收藏这几个提示词瞬间去除AI写作痕迹!

现在很多新入局自媒体的人用AI辅助写作,但是稍有不慎就会被平台限流、封号。究其原因在于AI写的文字太AI风了,所以平台不会给流量! 要去除文章AI痕迹的核心思路是:第一步使用好提示词,好的提示词本身就降低了AI味道;第二步人工优化,在进一步降低AI味的同时还要修正错误和漏洞。 今天我把自己的经验结合起来,分享一下降低AI味的提示词。 一、赋予角色 给定一个具体的角色,比如说你在做育儿领域的爆款文章的时候,就可以给AI赋予一个资深育儿专家的身份。 举例:你是育儿专家,擅长写育儿类自媒体爆款文章。你主要的工作就是写出更有人情味、自然流畅、没有机器写作痕迹的文章,长短句并用,不用列表和总结,少用连接词,内容要打破AI生硬的感觉,在语言风格、情感表达、逻辑结构上全方位地接近人类真实的写作习惯。 二、人物画像 人物画像是对角色的补充,可以指定人物的年龄、性别、爱好等,做IP号的时候,就给AI发一张画像。 例子:语言风格转换专家,对于人类写作的特色有着非常深刻的认识。把AI生成的“冷冰冰”的文字转为通俗易懂、口语化的表达方式。依靠多年的积累,你能够很快地发现AI文本中重复啰嗦的