微软 Copilot Cowork 深度解析:用 Kotlin + 147API 手搓一个 AI Agent

微软 Copilot Cowork 深度解析:用 Kotlin + 147API 手搓一个 AI Agent

微软最近发布的 Copilot Cowork 在技术圈炸开了锅。它变了。它不再是那个只会补全代码的插件,而是变成了你的 “Coworker”(同事)。基于 Anthropic 的 Claude 构建,它现在能像真人一样处理复杂任务。

作为开发者,我们不仅要会用,更要懂得背后的原理。今天我们就来拆解一下 Copilot Cowork 的核心逻辑,并教你如何利用 Kotlin147API 构建一个属于自己的简易 AI Agent。

从 Chatbot 到 Agent

传统的 Copilot 就像一个实习生,你给它一个指令,它执行一个动作。而 Copilot Cowork 更像是一个成熟的合作伙伴。它具备了 感知(Perception)规划(Planning)执行(Execution) 的完整闭环。

  • 感知:读取邮件、文档、代码仓库。
  • 规划:拆解任务,决定先做什么后做什么。
  • 执行:调用工具,生成内容,发送反馈。

这种能力的背后,是大模型的进化。微软这次选择了 Claude,看中的就是它在长文本处理和逻辑推理上的优势。

实战:用 Kotlin 手搓一个 AI Agent

Copilot Cowork 是闭源的,但我们可以利用大模型 API 来模拟它的工作流。为了保证调用的稳定性和成本控制,我推荐使用 147API

为什么选择 147API?

构建 Agent 需要频繁调用大模型进行推理。147API 是我目前的首选:

  1. 接口兼容:你可以直接使用标准的 OpenAI SDK,迁移成本几乎为零。
  2. 模型全:不仅支持 GPT-5.4,还支持 Claude 4.6 Sonnet(Copilot Cowork 同款核心),让你在同一个接口下体验不同模型的优势。
  3. 专线优化:Agent 的运行依赖于多次连续的 API 调用,任何一次失败都可能导致任务中断。147API 的专线优化能有效保障复杂任务链的执行。

代码实现

下面是一个简单的 Kotlin 示例,展示如何通过 147API 调用 Claude 模型来模拟一个简单的任务规划 Agent。

import okhttp3.MediaType.Companion.toMediaType import okhttp3.OkHttpClient import okhttp3.Request import okhttp3.RequestBody.Companion.toRequestBody import org.json.JSONObject import java.util.concurrent.TimeUnit // 配置 147APIconstval API_KEY ="sk-xxxxxxxxxxxxxxxxxxxxxxxx"// 替换为你的 147API Keyconstval BASE_URL ="https://api.147api.com/v1/chat/completions"// 147API 地址val client = OkHttpClient.Builder().connectTimeout(60, TimeUnit.SECONDS).readTimeout(60, TimeUnit.SECONDS).build()funmain(){val task ="帮我分析一下项目代码,并写一份重构计划"println("收到任务: $task")// 模拟 Agent 的思考过程val plan =think(task)println("Agent 规划如下:\n$plan")}funthink(task: String): String {val prompt =""" 你是一个高级软件工程师 Agent。请针对以下任务制定详细的执行步骤: 任务:$task 请以 JSON 格式输出步骤列表。 """.trimIndent()val jsonBody =JSONObject().apply{put("model","claude-3-5-sonnet-20240620")// 使用 Copilot Cowork 同款模型put("messages", org.json.JSONArray().put(JSONObject().apply{put("role","user")put("content", prompt)}))}.toString()val request = Request.Builder().url(BASE_URL).addHeader("Authorization","Bearer $API_KEY").addHeader("Content-Type","application/json").post(jsonBody.toRequestBody("application/json".toMediaType())).build() client.newCall(request).execute().use{ response ->if(!response.isSuccessful)throwRuntimeException("API 调用失败: ${response.code}")val responseBody = response.body?.string()val jsonResponse =JSONObject(responseBody)return jsonResponse.getJSONArray("choices").getJSONObject(0).getJSONObject("message").getString("content")}}

这段代码展示了如何利用 147API 快速接入 Claude 模型。通过简单的 Prompt Engineering,我们就能让模型输出结构化的执行计划。

总结

Copilot Cowork 的出现预示着 AI 开发的新范式。通过 147API 这样稳定且高性价比的中转服务,我们个人开发者也能以极低的门槛构建出具备 “Cowork” 能力的智能应用。与其担心被 AI 取代,不如现在就开始动手,打造你的 AI 队友。

Read more

OpenClaw 刚配好就完了?5 步调教,让你的 AI 助手真正“能干活”

OpenClaw 刚配好就完了?5 步调教,让你的 AI 助手真正“能干活”

很多人装完 OpenClaw,接上 Discord 或 Telegram,发现能聊天了就觉得“搞定了”。 但我自己踩坑一圈后,越来越确定一件事:默认状态的 OpenClaw,可能只发挥了 20% 的能力。剩下的 80%,藏在一些你没太注意的配置文件里——而且改起来并不难。 下面我按“收益从高到低”的顺序,把我自己最有效的 5 步调教方法整理出来。新手照着做,大概率能立刻感受到差别。 默认状态 vs 调教后:差别到底在哪? 先给你一个直观对比,方便建立预期: 项目默认状态调教后回复风格客服味:“我很乐意帮助您!”更像懂你的搭档记忆每次对话都像陌生人记得你们之前聊过什么能力只能聊天能下载视频、查股票、做 PPT、巡检服务器…主动性你不说它不动会定期检查状态,主动提醒成本/效率所有任务都用同一个模型复杂任务用强模型,简单活用便宜模型 如果你只做一件事:先把第 1 步和第 2 步做了,

OpenClaw 接入 QVeris:让你的 AI 助手拥有实时数据查询能力

OpenClaw 接入 QVeris:让你的 AI 助手拥有实时数据查询能力

摘要:本文详细介绍如何在 OpenClaw 中配置和使用 QVeris API,让 AI 助手能够查询实时股票行情、天气数据、新闻资讯等外部信息。通过实际案例演示,帮助你快速上手这个强大的工具集成方案。 一、为什么需要 QVeris? 1.1 AI 助手的数据困境 使用过 AI 助手的朋友都知道,大模型有一个天然的局限性:训练数据有截止时间,无法获取实时信息。 比如你想问: * "今天 A 股涨幅榜前 10 的股票有哪些?" * "北京现在的天气怎么样?" * "特斯拉最新的股价是多少?" 如果没有外部数据源,AI 助手只能基于训练数据"猜"一个答案,准确性可想而知。 1.2

非科班转码者的AI学习路径:从0到1

非科班转码者的AI学习路径:从0到1 前言 大家好,我是第一程序员(名字大,人很菜)。作为一个非科班转码、正在学习Rust的萌新,最近我开始学习AI。今天我想分享一下我作为非科班转码者的AI学习路径,希望能帮助到和我一样的同学。 一、非科班转码者学习AI的挑战 1.1 基础薄弱 作为非科班转码者,学习AI面临以下挑战: * 数学基础:AI涉及线性代数、微积分、概率论等数学知识 * 编程基础:需要掌握Python等编程语言 * 计算机基础:需要了解计算机系统、数据结构等基础知识 * 领域知识:需要了解AI的基本概念和术语 1.2 学习资源选择 市场上的AI学习资源琳琅满目,如何选择适合自己的资源是一个挑战: * 入门门槛:有些资源过于理论化,难以理解 * 实践机会:缺乏实际项目经验 * 学习路径:不知道从哪里开始,如何进阶 二、从0到1的AI学习路径 2.1 第一阶段:基础准备(1-2个月)

Llama 与 PyTorch:大模型开发的黄金组合

Llama 与 PyTorch:大模型开发的黄金组合

Llama 与 PyTorch:大模型开发的黄金组合 近年来,大型语言模型(LLM)迅速成为人工智能领域的核心驱动力。Meta 开源的 Llama 系列模型(包括 Llama、Llama2、Llama3)凭借其卓越的性能和开放策略,成为学术界与工业界广泛采用的基础模型。而 PyTorch 作为当前最主流的深度学习框架之一,以其动态计算图、易用性和强大的社区生态,成为训练和部署 LLM 的首选工具。 本文将深入探讨 Llama 模型与 PyTorch 之间的紧密关系,解析为何 PyTorch 成为 Llama 开发与优化的“天然搭档”,并介绍如何基于 PyTorch 构建、微调和部署 Llama 模型。 一、Llama 模型简介 Llama(Large Language Model