带可二次开发的管理配置端 + 非低代码 + 原生支持标准化 Skill框架选择

「带可二次开发的管理配置端 + 非低代码 + 原生支持标准化 Skill」的开源 Agent 框架,筛选 3款完全匹配的框架(均为代码级可扩展、自带 Skill 管理后台、支持 SKILL.md/MCP 标准),附核心特性、二次开发要点和部署步骤,都是企业级/开发者友好的选型:


一、首选:LangGraph + LangServe(LangChain 官方生态,Python 栈,极致可扩展)

核心定位

LangChain 官方推出的「Agent 编排 + 服务化」框架,自带可二次开发的 Skill/Tool 管理后台(LangServe Dashboard),纯代码开发、无低代码封装,是 Python 生态的最佳选择。

关键特性

  1. Skill 管理能力
    • 原生支持 StructuredTool(对应 SKILL.md 标准),可通过代码/API 注册、禁用、版本管理;
    • 内置 MCP 协议适配,可直接加载 SKILL.md + scripts 格式的 Skill;
  2. 管理配置端
    • 自带 LangServe Dashboard(Web 管理后台),支持 Skill 列表、调用日志、参数配置;
    • 后台基于 FastAPI + React 开发,前端/后端均可完全二次开发;
  3. 二次开发友好
    • 纯 Python 代码编写 Agent 逻辑,无低代码拖拽;
    • 模块化设计(Skill 加载器、Agent 执行器、权限控制可拆分扩展);
    • 支持自定义 Skill 元数据、调度规则、沙箱运行环境。

部署 & 二次开发步骤

1. 基础部署
# 安装核心依赖 pip install langgraph langserve langchain-openai fastapi uvicorn # 启动带 Dashboard 的 LangServe 服务 langserve start --host 0.0.0.0 --port 8000 --dashboard 

访问 http://localhost:8000/docs(API 管理)、http://localhost:8000/dashboard(可视化管理后台)。

2. 二次开发 Skill 管理模块
# 示例:扩展 Skill 管理 API(可直接集成到自有后台)from fastapi import FastAPI, APIRouter, Depends from langserve import add_routes from langgraph.graph import StateGraph, END from langchain_core.tools import StructuredTool from pydantic import BaseModel import yaml from pathlib import Path # 1. 自定义 Skill 加载器(解析 SKILL.md)defload_skill_from_dir(skill_dir:str)-> StructuredTool: skill_path = Path(skill_dir)# 解析 SKILL.md 的 YAML 头withopen(skill_path /"SKILL.md","r", encoding="utf-8")as f: yaml_head = f.read().split("---")[1].strip() skill_meta = yaml.safe_load(yaml_head)# 构建执行函数(调用 scripts 脚本)defskill_executor(**kwargs):import subprocess cmd =["python",str(skill_path / skill_meta["mcp"]["script_path"])]for k, v in kwargs.items(): cmd +=[f"--{k}",str(v)] result = subprocess.run(cmd, capture_output=True, text=True)return result.stdout.strip()# 构建 StructuredTool param_fields ={p["name"]:(eval(p["type"]),...)for p in skill_meta["parameters"]} ParamModel = BaseModel(**param_fields)return StructuredTool.from_function( func=skill_executor, name=skill_meta["name"], description=skill_meta["description"], args_schema=ParamModel )# 2. 扩展 Skill 管理 API(注册/删除/列表) app = FastAPI(title="Agent Skill 管理平台") skill_router = APIRouter(prefix="/admin/skills") registered_skills ={}@skill_router.post("/register")defregister_skill(skill_dir:str):"""注册 SKILL.md 格式的 Skill""" skill = load_skill_from_dir(skill_dir) registered_skills[skill.name]= skill # 添加到 LangServe 路由 add_routes(app, skill, path=f"/skills/{skill.name}")return{"code":0,"msg":f"Skill {skill.name} 注册成功"}@skill_router.get("/list")deflist_skills():"""获取所有已注册的 Skill"""return{"code":0,"data":[{"name": k,"description": v.description}for k, v in registered_skills.items()]} app.include_router(skill_router)# 3. 启动服务(集成自定义管理 API)if __name__ =="__main__":import uvicorn uvicorn.run(app, host="0.0.0.0", port=8000)
3. 前端二次开发

LangServe Dashboard 的前端源码在 langchain/langserve/dashboard,基于 React + TypeScript 开发:

  • 克隆源码后,可修改 src/components/SkillList.tsx 扩展 Skill 配置项;
  • 可添加「导入 SKILL.md」「批量注册 Skill」等功能;
  • 编译后替换原 Dashboard 静态资源即可。

二、次选:AgentScope(阿里云开源,多 Agent 管理,Go/Python 双栈)

核心定位

阿里云开源的 Agent 开发框架,自带「Agent 管理控制台」,支持 Skill 标准化注册/配置,纯代码开发、无低代码,适合多 Agent 协作场景。

关键特性

  1. Skill 管理能力
    • 内置 Skill 抽象类,可直接映射 SKILL.md 标准(name/description/parameters);
    • 支持 Skill 版本管理、权限控制、沙箱运行;
  2. 管理配置端
    • 自带 Web 控制台(Go 开发),支持 Skill 列表、调用监控、参数配置;
    • 控制台 API 开放,可二次开发自定义配置项;
  3. 二次开发友好
    • 支持 Python/Go 双语言开发,模块化设计;
    • 提供 Skill 加载器、执行器的扩展接口;
    • 支持自定义 MCP 协议适配。

快速部署

# 安装 pip install agentscope # 启动管理控制台 agentscope dashboard start --port 9000# 注册 Skill(代码/控制台均可) python -m agentscope skill register ./calculator-skill 

访问 http://localhost:9000 即可进入管理后台,支持 Skill 配置、Agent 编排、调用日志查看。


三、备选:OpenAGI(清华开源,全栈可扩展,Skill 市场)

核心定位

清华大学开源的 Agent 框架,自带「Skill 管理平台」,纯代码开发,支持 SKILL.md/MCP 标准,适合复杂场景的二次开发。

关键特性

  1. Skill 管理能力
    • 原生支持 Skill 标准化注册(匹配 SKILL.md 元数据);
    • 支持 Skill 市场、版本迭代、依赖管理;
  2. 管理配置端
    • 自带 Web 管理后台(FastAPI + Vue),可二次开发;
    • 支持 Skill 在线编辑、参数配置、调用测试;
  3. 二次开发友好
    • 纯 Python 代码编写,无低代码封装;
    • 提供 Skill 加载器、执行器的扩展接口;
    • 支持自定义 Agent 调度规则、Skill 路由策略。

部署步骤

# 克隆源码git clone https://github.com/agiresearch/OpenAGI.git cd OpenAGI # 安装依赖 pip install -r requirements.txt # 启动服务(含管理后台) python run.py --web --port 7000

访问 http://localhost:7000 进入管理后台,可直接导入 SKILL.md 格式的 Skill,支持在线配置参数、测试调用。


四、核心选型对比(适配需求)

框架开发语言管理后台Skill 标准支持二次开发难度适用场景
LangGraph + LangServePythonReact + FastAPI(可全量二次开发)完美适配 SKILL.md/MCP低(Python 生态成熟)中小规模、Python 栈、快速扩展
AgentScopePython/GoGo + React(API 开放)适配 SKILL.md/MCP中(双语言)多 Agent 协作、企业级部署
OpenAGIPythonVue + FastAPI(源码开放)原生支持 SKILL.md中(功能丰富,需理解框架)复杂场景、Skill 市场、团队协作

总结

核心关键点回顾

  1. 首选 LangGraph + LangServe:Python 栈、生态最成熟、管理后台可完全二次开发,完美适配 SKILL.md + scripts 标准,无需低代码;
  2. 管理端扩展思路
    • 后端:基于 FastAPI 扩展 Skill 注册/配置 API,对接数据库存储 Skill 元数据;
    • 前端:基于 React/Vue 开发自定义配置页面,调用扩展 API 实现 Skill 在线配置、导入导出;
  3. Skill 适配核心:所有框架都可通过「解析 SKILL.md YAML 头 → 构建标准 Tool/Skill 对象 → 注册到框架」的方式,无缝加载标准化 Skill。

Read more

Flutter for OpenHarmony:Flutter 三方库 dart_openai — 激发鸿蒙应用的 AIGC (AI 大模型/ChatGPT、Deepseek等) 无限创意(适配鸿蒙

Flutter for OpenHarmony:Flutter 三方库 dart_openai — 激发鸿蒙应用的 AIGC (AI 大模型/ChatGPT、Deepseek等) 无限创意(适配鸿蒙

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net。 Flutter for OpenHarmony:Flutter 三方库 dart_openai — 激发鸿蒙应用的 AIGC (AI 大模型/ChatGPT、Deepseek等) 无限创意(适配鸿蒙 HarmonyOS Next ohos) 前言 随着生成式 AI(AIGC)浪潮席卷全球,将大语言模型(LLM)的智慧集成到移动应用中已成为大势所趋。无论是智能对话、代码生成,还是图像创作,AI 正在重塑我们的交互方式。 在 Flutter for OpenHarmony 开发中,我们如何让鸿蒙应用直接对话全球顶尖的 AI 模型?dart_openai 库通过对 OpenAI API 的完美封装,

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程 1. 为什么需要GPU加速?——从“能跑”到“跑得快”的关键跃迁 你可能已经用Ollama成功拉起了Llama-3.2-3B,输入几句话就能看到回复,一切看似顺利。但当你连续提问、生成稍长文本,或者尝试多轮对话时,会明显感觉到响应变慢——几秒甚至十几秒的等待,让原本流畅的交互体验打了折扣。 这不是模型能力的问题,而是默认情况下Ollama在CPU上运行。Llama-3.2-3B虽是3B参数量的轻量级模型,但其Transformer结构天然适合并行计算。一块中端消费级显卡(比如RTX 3060或更高),在GPU模式下推理速度可比CPU快3~5倍,显存占用更合理,还能释放出CPU资源去做其他事。 更重要的是,Ollama官方明确支持CUDA加速,且无需手动编译模型或修改源码。整个过程不涉及复杂配置文件编辑,也不要求你成为CUDA专家——只要你的机器有NVIDIA显卡、驱动正常、CUDA环境基础就绪,就能完成切换。本文将带你从零开始,一步步验证环境、启用加速、实测对比,并解决你最可能卡

VSCode + Copilot下:配置并使用 DeepSeek

以下是关于在 VSCode + Copilot 中,通过 OAI Compatible Provider for Copilot 插件配置使用 DeepSeek 系列模型 (deepseek-chat, deepseek-reasoner, deepseek-coder) 的完整汇总指南。 🎯 核心目标 通过该插件,将支持 OpenAI API 格式的第三方大模型(此处为 DeepSeek)接入 VSCode 的官方 Copilot 聊天侧边栏,实现调用。 📦 第一步:准备工作 在开始配置前,确保完成以下准备: 步骤操作说明1. 安装插件在 VSCode 扩展商店搜索并安装 OAI Compatible Provider for Copilot。这是连接 Copilot 与第三方模型的核心桥梁。2. 获取 API