【AI智能体】基于OpenCode 搭建Skills环境与项目实战开发详解

【AI智能体】基于OpenCode 搭建Skills环境与项目实战开发详解

目录

一、前言

二、OpenCode 介绍与环境搭建

2.1 OpenCode 介绍

2.1.1 OpenCode 是什么

2.1.2 OpenCode 主要特点

2.1.3 OpenCode 使用场景

2.2 OpenCode 本地环境搭建

2.2.1 安装ndoejs

2.2.2 使用npm安装OpenCode

2.2.3 效果测试

2.2.4 opencode 基本使用技巧

三、OpenCode 配置大模型

3.1 OpenCode 配置大模型过程

3.1.1 前置准备

3.1.2 进入模型配置窗口

四、OpenCode 配置和使用Skills

4.1 skills介绍

4.1.1 skills是什么

4.1.2 为什么需要 Skills?它解决了什么问题?

4.1.3 Skills 工作原理

4.1.4 Skills 与其他能力的协作关系

4.1.5 Skills 核心组成

4.2 使用模板Skills

4.2.1 前置问题

4.2.2 获取skills包

4.2.3 模板skills效果验证

4.3 开发自己的Skills

4.3.1 编写生成自媒体文案Skills

4.3.2 效果验证

4.3.3 常用的Skill 推荐

五、写在文末


一、前言

Agent Skills 最近非常火,它是既 MCP 后 Anthropic 推出的又一个 Agent 领域的行业标准。它的成长路线和 MCP 也非常像,25 年 10 月份发布时只有 Anthropic 自家产品支持,后来 Cursor、Codex、Opencode、Gemini CLI 等产品看到了 Skills 的优势于是纷纷开始支持。再后来社区开始涌现大量的开源 Skills 以及 Skills 开放市场,当下大家已经默认 Skills 成为了又一个扩展 Agent 能力的标准实践。

简单来说,Skills 的作用就是将那些重复性的、专业的流程进行打包封装。当你需要使用某种能力时,不再需要像过去那样每次都去查阅手册或重新输入冗长的提示词,而是像调用工具一样直接使用。

二、OpenCode 介绍与环境搭建

Read more

从零到一:Ubuntu上llama.cpp的编译艺术与性能调优实战

从零到一:Ubuntu上llama.cpp的编译艺术与性能调优实战 在人工智能技术快速发展的今天,大型语言模型(LLM)已成为开发者工具箱中不可或缺的一部分。而llama.cpp作为一款高效、轻量级的LLM推理框架,因其出色的性能和跨平台支持,越来越受到开发者的青睐。本文将带您深入探索在Ubuntu环境下编译和优化llama.cpp的全过程,从基础环境搭建到高级性能调优,为您呈现一套完整的解决方案。 1. 环境准备与基础编译 在开始编译llama.cpp之前,我们需要确保系统环境满足基本要求。Ubuntu 22.04 LTS是最推荐的系统版本,它提供了稳定的软件包支持和良好的兼容性。 首先更新系统并安装必要的开发工具: sudo apt update && sudo apt upgrade -y sudo apt install -y build-essential cmake git curl libcurl4-openssl-dev 对于希望使用CUDA加速的用户,还需要安装NVIDIA驱动和CUDA工具包: sudo apt install

深入 llama.cpp:llama-server-- 从命令行到HTTP Server(2)

深入 llama.cpp:llama-server-- 从命令行到HTTP Server(2)

前言        llama-server是llama.cpp中用于发布大模型服务的工具。它通过极简的命令行配置,将复杂的模型推理过程封装为通用的 HTTP 接口;在底层,它选择以纯 C++ 编写的 cpp-httplib 作为服务框架的底层。本章分为应用实战与底层架构两部分。首先,我们将介绍不同参数下的大模型服务发布;接着,我们将详细解析 cpp-httplib 在项目中的具体实现,帮助读者掌握该服务端在网络调度层面的运行逻辑。 目录 * 1 应用实战:启动大模型服务 * 2 架构解析:基于cpp-httplib的运行机制 1 应用实战:启动大模型服务        llama-server是一款轻量级、兼容 OpenAI API、用于提供大语言模型服务的 HTTP 服务器。在上节中,我们启动了llama-server,构建了本地的大模型服务。本节将在此基础上,进一步深入llama-server启动过程的参数设置,同时演示如何利用curl工具发起网络请求,以实测并验证服务的接口响应。 1.1 模型服务参数设置        llama-server支持自定义

Codex,Copilot 是什么

Codex,Copilot 是什么

Codex是什么 Codex 是 OpenAI 研发的一款专注于代码生成的大型语言模型,它可以根据自然语言描述自动编写程序代码,在软件开发、自动化测试等领域展现出了强大的应用潜力。下面为你详细介绍: 1. 核心功能 * 代码生成:Codex 能够依据自然语言指令生成代码,像函数、类或者完整的应用程序都不在话下。它支持多种编程语言,例如 Python、JavaScript、Java、C++ 等。 * 代码补全:和编辑器的自动补全功能类似,但 Codex 更加强大,它可以基于上下文理解开发者的意图,进而补全复杂的代码片段。 * 代码翻译:Codex 可以把一种编程语言编写的代码翻译成另一种语言,大大降低了技术栈迁移的难度。 * 解释代码:它能够将代码转换为自然语言,帮助开发者理解现有项目。 2. 技术原理 * 基于 GPT 架构:Codex 是基于 GPT(Generative Pre-trained Transformer)架构开发的,并且针对代码生成任务进行了优化。

Mac Mini M4 跑 AI 模型全攻略:从 Ollama 到 Stable Diffusion 的保姆级配置指南

Mac Mini M4 本地AI模型实战:从零构建你的个人智能工作站 最近身边不少朋友都在讨论,能不能用一台小巧的Mac Mini M4,搭建一个属于自己的AI开发环境。毕竟,不是每个人都有预算去租用云端的高性能GPU,也不是所有项目都适合把数据传到云端处理。我折腾了大概两周,从Ollama到Stable Diffusion,把整个流程走了一遍,发现M4芯片的潜力远超预期。这篇文章,就是把我踩过的坑、验证过的有效配置,以及一些提升效率的小技巧,毫无保留地分享给你。无论你是想本地运行大语言模型进行对话和创作,还是想离线生成高质量的AI图像,这篇指南都能帮你把Mac Mini M4变成一个得力的AI伙伴。 1. 环境准备与基础配置 在开始安装任何AI工具之前,确保你的系统环境是干净且高效的,这能避免后续无数莫名其妙的依赖冲突。Mac Mini M4出厂预装的是较新的macOS版本,但这还不够。 首先,打开“系统设置” -> “通用” -> “软件更新”,确保你的macOS已经更新到可用的最新版本。苹果对Metal图形API和神经网络引擎的优化通常会随着系统更新而提升,这对于后续运