【Agent】那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台

【Agent】那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台

那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台


请添加图片描述

🌌你好!这里是 晓雨的笔记本在所有感兴趣的领域扩展知识,感谢你的陪伴与支持~👋 欢迎添加文末好友,不定期掉落福利资讯


写在最前面

版权声明:本文为原创,遵循 CC 4.0 BY-SA 协议。转载请注明出处。

最近一段时间,“AI 操作电脑”这件事越来越火。很多人第一次看到这类演示时,都会觉得有点神奇:原来 AI 不只是会聊天、会写文案,居然真的开始会“用电脑”了。

也正因为这样,很多人会下意识觉得,所有“AI 控电脑”的东西,应该都差不多。无非就是让 AI 帮你点点鼠标、输输文字、开开网页、跑跑流程。

但真往下看,其实不是这么回事。

因为有的方案,本质上更像是让 AI 在当前这台电脑上学会干活;而有的方案,更像是把一整套远程控制能力直接交给 AI,让它不只是操作眼前这一台电脑,而是能去连接、查看、操作更多设备。

向日葵 MCP 更接近后者。它真正值得关注的地方,也不只是“向日葵也做 AI 了”,而是那个大家熟悉的远程控制工具,开始让 AI 真正接手远程设备操作这件事了。

比openclaw更简单的配置过程,没有特定环境的需求

很多人一听到“AI + 远程控制”,第一反应就是复杂。

是不是要额外买设备?

是不是要单独搭环境?

是不是要学很多配置?

是不是只有技术人员才能用?

但向日葵 MCP 比较有吸引力的一点,就是它不是让你为了 AI 再重建一套远程控制系统,而是把原本已有的远控能力,直接接到了 AI 这一侧。

这件事的意义其实很现实:普通用户最怕的,不是功能不够多,而是门槛太高。一旦某个东西上来就要求你买一堆设备、改一堆环境、理解一堆概念,很多人其实第一步就放弃了。

如果只是先体验一次,我更建议直接接入 OpenCode。路径比较直观,也更容易快速看到效果。

参考配置链接:https://service.oray.com/question/50091.html?utm_source=client&utm_medium=redirect&utm_campaign=slrc&utm_term=mcp_help&redirect_id=1991

  • 打开向日葵客户端,进入「设置」> 「MCP服务器」。点击「启用MCP服务器」

根据使用场景选择适合的通信方式:

  • Stdio(推荐):本地进程通信,适用于本地运行的 AI 客户端
  • Streamable HTTP:基于 HTTP 的远程通信,适用于需要跨网络调用的场景

可将如下提示词和上述通信方式发送给AI,让AI来完成配置工作。

AI完成配置后,手动检查对应的配置文件是否写入完毕。

确保配置文件写入完毕后,需要先重启OpenCode客户端才能生效,按如下步骤执行操作验证。

  • 重启 OpenCode 客户端
  • 在输入框输入指令 /mcp 检查MCP服务器连接状态

如上所示,如果显示awesun-mcp-server已连接,并且处理开启状态,则配置完成。

整套流程更像是在已有远控能力上,多接了一层 AI 可以调用的接口,而不是重新搭一套很重的系统。这也是它对普通用户更友好的地方。

真正实用的地方,是它更接近现实场景

很多 AI 控电脑的演示都很酷,但对普通用户来说,真正重要的不是演示有多炫,而是它能不能进入日常场景。

向日葵 MCP 的优势就在这里。因为它本来就是从远程设备控制出发的,所以更适合处理那些和“另一台电脑”有关的事情。

比如你人在外面,但文件、软件、资料都在另一台电脑上。以前要自己远程连回去,一步步找、一点点操作。现在如果 AI 能直接接入这套远程控制能力,很多事情就有机会从“我亲自操作”,变成“我告诉 AI 要做什么,它先替我去做”。

再比如,不少人手上本来就不止一台设备。有主力电脑,也有备用电脑;有时还会有挂着程序的机器。真到要看状态、确认界面、做一些基础操作时,最麻烦的就是来回切换。向日葵 MCP 这种能力,正好能让 AI 接手一部分原本必须人反复折腾的远程操作。

还有一种很实用的场景,就是**“先帮我看一眼”** 。很多时候,我们不是马上要做复杂操作,只是想知道另一台设备现在是什么状态:开着没有、卡在哪个界面、有没有报错。AI 如果能先去看、先去判断、先把情况整理出来,人再决定要不要接手,整个体验会轻很多。

  • 发送一句简单指令,比如:帮我查询下设备列表中XXX
  • 设备的配置信息

多平台、可查看、可接手,才是它更适合大众的原因

很多 AI 产品在演示里看起来都很顺,是因为环境通常很理想:一台电脑、一个系统、一个固定流程。

但真实世界不是这样。有人用 Windows,有人用 macOS;有的人有办公电脑,也有家里电脑;有时候甚至还会碰到 Linux 设备、安卓终端。设备一多、平台一杂,很多看起来简单的自动化就会突然变得麻烦。向日葵 MCP 的价值就在于,它不是只盯着单一环境,而是尽量把更多真实设备场景纳入进来。

另外,很多人对 AI 自动化感兴趣,但也会担心:如果它乱点怎么办?如果它看错了怎么办?

这也是为什么**“可查看、可接手”** 很重要。向日葵 MCP 这类能力的一个优势,就是操作过程更容易被看到和监管。用户可以随时查看过程,必要时也能介入。这样一来,AI 不再是一个完全黑盒的执行者,而更像一个可以先帮你做事、你随时能接回来的助手。

awesun-mcp-example-claude/CLAUDE.md记忆文件,预设系统提示词写的很有意思,感兴趣的朋友可以去看看他实际的逻辑。

结语

所以,那个“搞远程的向日葵也出 AI 了”这件事,真正值得看的,不只是它赶上了 AI 这波热度。

更重要的是,它本来就擅长远程控制设备,现在又把这套能力正式开放给了 AI。这样一来,AI 不只是会在你眼前这台电脑上干活,还有机会开始接手更多远程设备相关的事情。

如果你只是想让 AI 帮你处理本机任务,市面上已经有很多很吸引人的方案;但如果你关心的是跨设备、跨地点、多平台、可查看、可接手的远程操作体验,那向日葵 MCP 这条路,确实会更值得普通用户认真看一眼。


hello,这里是 晓雨的笔记本 。如果你喜欢我的文章,欢迎三连给我鼓励和支持:👍点赞 📁 关注 💬评论,我会给大家带来更多有用有趣的文章。
原文链接 👉 ,⚡️更新更及时。

欢迎大家点开下面名片,添加好友交流。

Read more

实战指南:用Whisper构建企业级语音转录系统

在当前数字化办公环境中,语音识别技术正成为提升工作效率的关键工具。通过OpenAI开源的Whisper模型,企业可以在本地环境中搭建完整的离线语音转录系统,既保障数据安全又降低长期使用成本。本文将从实际问题出发,详细介绍如何利用Whisper-tiny.en模型快速构建实用的语音转录解决方案。 【免费下载链接】whisper-tiny.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-tiny.en 企业语音处理面临的挑战 数据安全与隐私保护难题 🌐 传统云服务需要将敏感语音数据传输到第三方服务器,存在数据泄露风险。特别是涉及商业机密、客户信息或内部讨论的会议录音,企业往往对数据安全有严格要求。同时,网络环境不稳定也会影响转录服务的连续性,导致关键业务中断。 成本控制与效率平衡困境 商业语音识别服务通常按使用量计费,长期使用成本较高。对于需要大量转录的企业来说,本地化部署能够显著降低运营开支。此外,不同硬件配置下的性能差异也需要合理规划,避免资源浪费。 多场景适应性需求 企业内部的语音数据来源多样,包

还在手打Prompt?这份2025最新AI绘画关键词+教程+报告资料包直接拿走

正文 前言:为什么2026年还在卷Prompt? 2025年过去,AIGC工具已经迭代了好几轮: * Midjourney V6.1 / V7 alpha * Stable Diffusion 3.5 / Flux.1 / SDXL Turbo 衍生模型 * NovelAI、Pony、AutismMix 等社区fine-tune大热 * ChatGPT-4o / Claude 3.5 / Gemini 2.0 辅助写Prompt效率翻倍 但无论模型怎么更新,核心竞争力依然是Prompt工程。 一个精心设计的Prompt,能让出图质量提升3-10倍,节省N倍迭代时间。 反之,乱写一通,模型再强也只能出“随机抽象画”。 本文将系统拆解 Midjourney / Stable Diffusion 目前最主流的Prompt写法结构,并附上2025-2026年实测有效的进阶技巧。最后在文末放出我收集整理的一批高质量学习资料(夸克网盘直链),包括: * 12000+

部署Qwen3-VL-32b的踩坑实录:多卡跑大模型为何vLLM卡死而llama.cpp却能“大力出奇迹”?

部署Qwen3-VL-32b的踩坑实录:多卡跑大模型为何vLLM卡死而llama.cpp却能“大力出奇迹”?

踩坑实录:多卡跑大模型Qwen-VL,为何vLLM模型加载卡死而llama.cpp奇迹跑通还更快? 前言:部署经历 针对 Qwen2.5-32B-VL-Instruct 满血版模型的部署实战。 手头的环境是一台配备了 4张 NVIDIA A30(24GB显存) 的服务器。按理说,96GB的总显存足以吞下 FP16 精度的 32B 模型(约65GB权重)。然而,在使用业界标杆 vLLM 进行部署时,系统却陷入了诡异的“死锁”——显存占满,但推理毫无反应,最终超时报错。 尝试切换到 Ollama(底层基于 llama.cpp),奇迹发生了:不仅部署成功,而且运行流畅。这引发了我深深的思考:同样的硬件,同样模型,为何两个主流框架的表现天差地别? 本文将围绕PCIe通信瓶颈、Tensor Parallelism(张量并行) 与 Pipeline

知网AIGC检测怎么过?2026最新降AI率全流程攻略

知网AIGC检测怎么过?2026最新降AI率全流程攻略

知网AIGC检测怎么过?2026最新降AI率全流程攻略 今年答辩季最让人头疼的事,不是论文写不出来,而是写出来过不了AIGC检测。 尤其是知网。 2026年知网的AIGC检测系统又升级了,身边好几个同学的论文,之前在其他平台检测AI率只有10%出头,结果到知网一测直接飙到40%以上。搞得整个宿舍楼都弥漫着一股焦虑的气息。 我自己也经历了这个过程,最后顺利过了检测。今天把整个流程整理出来,从理解检测原理到实际操作步骤,争取让你看完就知道该怎么做。 先搞懂:知网AIGC检测到底在查什么 很多人一听"AI检测"就慌,但其实搞明白它的检测逻辑之后,你会发现它并没有那么神秘。 知网的AIGC检测大致是从这几个维度来判断的: 语言模型的困惑度。 简单说就是,一段文字如果太"通顺"了,AI检测系统反而会觉得可疑。因为AI生成的文字有一个特点——它总是选择概率最高的下一个词。这就导致AI写的内容在语言模型看来"毫不意外",困惑度很低。而人写的东西偶尔会蹦出一些意想不到的表达,困惑度相对高一些。 文本的统计特征。 包括词汇丰富度、句子长度分布、段落结构等。AI生成的文字在这些统计指标