带可二次开发的管理配置端 + 非低代码 + 原生支持标准化 Skill框架选择

「带可二次开发的管理配置端 + 非低代码 + 原生支持标准化 Skill」的开源 Agent 框架,筛选 3款完全匹配的框架(均为代码级可扩展、自带 Skill 管理后台、支持 SKILL.md/MCP 标准),附核心特性、二次开发要点和部署步骤,都是企业级/开发者友好的选型:


一、首选:LangGraph + LangServe(LangChain 官方生态,Python 栈,极致可扩展)

核心定位

LangChain 官方推出的「Agent 编排 + 服务化」框架,自带可二次开发的 Skill/Tool 管理后台(LangServe Dashboard),纯代码开发、无低代码封装,是 Python 生态的最佳选择。

关键特性

  1. Skill 管理能力
    • 原生支持 StructuredTool(对应 SKILL.md 标准),可通过代码/API 注册、禁用、版本管理;
    • 内置 MCP 协议适配,可直接加载 SKILL.md + scripts 格式的 Skill;
  2. 管理配置端
    • 自带 LangServe Dashboard(Web 管理后台),支持 Skill 列表、调用日志、参数配置;
    • 后台基于 FastAPI + React 开发,前端/后端均可完全二次开发;
  3. 二次开发友好
    • 纯 Python 代码编写 Agent 逻辑,无低代码拖拽;
    • 模块化设计(Skill 加载器、Agent 执行器、权限控制可拆分扩展);
    • 支持自定义 Skill 元数据、调度规则、沙箱运行环境。

部署 & 二次开发步骤

1. 基础部署
# 安装核心依赖 pip install langgraph langserve langchain-openai fastapi uvicorn # 启动带 Dashboard 的 LangServe 服务 langserve start --host 0.0.0.0 --port 8000 --dashboard 

访问 http://localhost:8000/docs(API 管理)、http://localhost:8000/dashboard(可视化管理后台)。

2. 二次开发 Skill 管理模块
# 示例:扩展 Skill 管理 API(可直接集成到自有后台)from fastapi import FastAPI, APIRouter, Depends from langserve import add_routes from langgraph.graph import StateGraph, END from langchain_core.tools import StructuredTool from pydantic import BaseModel import yaml from pathlib import Path # 1. 自定义 Skill 加载器(解析 SKILL.md)defload_skill_from_dir(skill_dir:str)-> StructuredTool: skill_path = Path(skill_dir)# 解析 SKILL.md 的 YAML 头withopen(skill_path /"SKILL.md","r", encoding="utf-8")as f: yaml_head = f.read().split("---")[1].strip() skill_meta = yaml.safe_load(yaml_head)# 构建执行函数(调用 scripts 脚本)defskill_executor(**kwargs):import subprocess cmd =["python",str(skill_path / skill_meta["mcp"]["script_path"])]for k, v in kwargs.items(): cmd +=[f"--{k}",str(v)] result = subprocess.run(cmd, capture_output=True, text=True)return result.stdout.strip()# 构建 StructuredTool param_fields ={p["name"]:(eval(p["type"]),...)for p in skill_meta["parameters"]} ParamModel = BaseModel(**param_fields)return StructuredTool.from_function( func=skill_executor, name=skill_meta["name"], description=skill_meta["description"], args_schema=ParamModel )# 2. 扩展 Skill 管理 API(注册/删除/列表) app = FastAPI(title="Agent Skill 管理平台") skill_router = APIRouter(prefix="/admin/skills") registered_skills ={}@skill_router.post("/register")defregister_skill(skill_dir:str):"""注册 SKILL.md 格式的 Skill""" skill = load_skill_from_dir(skill_dir) registered_skills[skill.name]= skill # 添加到 LangServe 路由 add_routes(app, skill, path=f"/skills/{skill.name}")return{"code":0,"msg":f"Skill {skill.name} 注册成功"}@skill_router.get("/list")deflist_skills():"""获取所有已注册的 Skill"""return{"code":0,"data":[{"name": k,"description": v.description}for k, v in registered_skills.items()]} app.include_router(skill_router)# 3. 启动服务(集成自定义管理 API)if __name__ =="__main__":import uvicorn uvicorn.run(app, host="0.0.0.0", port=8000)
3. 前端二次开发

LangServe Dashboard 的前端源码在 langchain/langserve/dashboard,基于 React + TypeScript 开发:

  • 克隆源码后,可修改 src/components/SkillList.tsx 扩展 Skill 配置项;
  • 可添加「导入 SKILL.md」「批量注册 Skill」等功能;
  • 编译后替换原 Dashboard 静态资源即可。

二、次选:AgentScope(阿里云开源,多 Agent 管理,Go/Python 双栈)

核心定位

阿里云开源的 Agent 开发框架,自带「Agent 管理控制台」,支持 Skill 标准化注册/配置,纯代码开发、无低代码,适合多 Agent 协作场景。

关键特性

  1. Skill 管理能力
    • 内置 Skill 抽象类,可直接映射 SKILL.md 标准(name/description/parameters);
    • 支持 Skill 版本管理、权限控制、沙箱运行;
  2. 管理配置端
    • 自带 Web 控制台(Go 开发),支持 Skill 列表、调用监控、参数配置;
    • 控制台 API 开放,可二次开发自定义配置项;
  3. 二次开发友好
    • 支持 Python/Go 双语言开发,模块化设计;
    • 提供 Skill 加载器、执行器的扩展接口;
    • 支持自定义 MCP 协议适配。

快速部署

# 安装 pip install agentscope # 启动管理控制台 agentscope dashboard start --port 9000# 注册 Skill(代码/控制台均可) python -m agentscope skill register ./calculator-skill 

访问 http://localhost:9000 即可进入管理后台,支持 Skill 配置、Agent 编排、调用日志查看。


三、备选:OpenAGI(清华开源,全栈可扩展,Skill 市场)

核心定位

清华大学开源的 Agent 框架,自带「Skill 管理平台」,纯代码开发,支持 SKILL.md/MCP 标准,适合复杂场景的二次开发。

关键特性

  1. Skill 管理能力
    • 原生支持 Skill 标准化注册(匹配 SKILL.md 元数据);
    • 支持 Skill 市场、版本迭代、依赖管理;
  2. 管理配置端
    • 自带 Web 管理后台(FastAPI + Vue),可二次开发;
    • 支持 Skill 在线编辑、参数配置、调用测试;
  3. 二次开发友好
    • 纯 Python 代码编写,无低代码封装;
    • 提供 Skill 加载器、执行器的扩展接口;
    • 支持自定义 Agent 调度规则、Skill 路由策略。

部署步骤

# 克隆源码git clone https://github.com/agiresearch/OpenAGI.git cd OpenAGI # 安装依赖 pip install -r requirements.txt # 启动服务(含管理后台) python run.py --web --port 7000

访问 http://localhost:7000 进入管理后台,可直接导入 SKILL.md 格式的 Skill,支持在线配置参数、测试调用。


四、核心选型对比(适配需求)

框架开发语言管理后台Skill 标准支持二次开发难度适用场景
LangGraph + LangServePythonReact + FastAPI(可全量二次开发)完美适配 SKILL.md/MCP低(Python 生态成熟)中小规模、Python 栈、快速扩展
AgentScopePython/GoGo + React(API 开放)适配 SKILL.md/MCP中(双语言)多 Agent 协作、企业级部署
OpenAGIPythonVue + FastAPI(源码开放)原生支持 SKILL.md中(功能丰富,需理解框架)复杂场景、Skill 市场、团队协作

总结

核心关键点回顾

  1. 首选 LangGraph + LangServe:Python 栈、生态最成熟、管理后台可完全二次开发,完美适配 SKILL.md + scripts 标准,无需低代码;
  2. 管理端扩展思路
    • 后端:基于 FastAPI 扩展 Skill 注册/配置 API,对接数据库存储 Skill 元数据;
    • 前端:基于 React/Vue 开发自定义配置页面,调用扩展 API 实现 Skill 在线配置、导入导出;
  3. Skill 适配核心:所有框架都可通过「解析 SKILL.md YAML 头 → 构建标准 Tool/Skill 对象 → 注册到框架」的方式,无缝加载标准化 Skill。

Read more

Flutter 三方库 tiktoken 鸿蒙端侧 AI 重载计算环境适配指南:极尽压榨设备级 BPE 分词器吞吐量边界,打造工业级精控的大模型高昂运算成本阀门-适配鸿蒙 HarmonyOS ohos

Flutter 三方库 tiktoken 鸿蒙端侧 AI 重载计算环境适配指南:极尽压榨设备级 BPE 分词器吞吐量边界,打造工业级精控的大模型高昂运算成本阀门-适配鸿蒙 HarmonyOS ohos

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 tiktoken 鸿蒙端侧 AI 重载计算环境适配指南:极尽压榨设备级 BPE 分词器吞吐量边界,打造工业级精控的大模型高昂运算成本阀门防线 在开发鸿蒙平台的生成式 AI 应用(如大模型助手、智能写作或 Rerank 逻辑)时,如何精确预估 Prompt 的消耗?如何实现窗口精度的截断?tiktoken 提供了一套完整的 OpenAI BPE(字节对编码)分词算法实现。本文将详解该库在 OpenHarmony 上的适配要点。 前言 什么是 tiktoken?它是 OpenAI 为其 GPT 系列模型推出的高性能 BPE 分词器。不同于常规的字符计数,Token 是模型处理文本的最小单位。在鸿蒙操作系统强调的“

斯坦福HAI官网完整版《2025 AI Index Report》全面解读

斯坦福HAI官网完整版《2025 AI Index Report》全面解读

一、这份报告真正想说什么 如果把整份《2025 AI Index Report》压缩成一句话,我会这样概括:AI 已经从“技术突破期”进入“系统扩散期”。它一边继续提升性能,一边迅速降本、普及、商业化、制度化;与此同时,风险事件、治理压力、数据约束、社会信任问题也同步上升。换句话说,2025年的AI不是“更神奇了”这么简单,而是开始变成一种会重塑产业结构、教育体系、监管逻辑和公众心理预期的基础能力。这个判断基本贯穿斯坦福官网总览页的 12 条结论与各章节摘要。(斯坦福人工智能研究所) 斯坦福自己对AI Index的定位也很明确:它不是某家公司的宣传册,也不是对未来的主观想象,而是一个收集、整理、浓缩并可视化 AI 数据趋势的观测框架,目的是为政策制定者、研究者、企业与公众提供更全面、客观的判断基础。也正因为如此,这份报告最重要的价值,

技术拆解:P2P组网如何一键远程AI

技术拆解:P2P组网如何一键远程AI

文章目录 * **远程访问AI服务的核心是什么?** * **从暴露服务到连接设备** * **核心组件与交互解析** * **安全架构深度剖析** * **一键安装脚本的技术实现** * **# Windows** * **#macOS** * **#Linux** * **与AI工作流的结合实践** 远程访问AI服务的核心是什么? 你自己在电脑或者服务器上装了AI服务,比如大语言模型、Stable Diffusion这些,但是有个头疼的事儿:外面的人或者你在别的地方,怎么既安全又方便地连上这些本地的服务?以前的办法要么得有公网IP,还得敲一堆命令行用SSH隧道,要么就是直接开端口映射,等于把服务直接晾在公网上,太不安全了。 今天咱们就好好说说一种靠P2P虚拟组网的办法,还拿个叫节点小宝的工具举例子,看看它怎么做到不用改啥东西,点一下就装好,还能建个加密的通道,实现那种“服务藏得好好的,想连就能直接连上”的安全远程访问方式。 从暴露服务到连接设备 核心思路转变在于:不再尝试将内网服务端口暴露到公网(一个危险的攻击面),而是将外部访问设

Flutter 组件 sse_stream 的适配 鸿蒙Harmony 深度进阶 - 驾驭高并发 Server-Sent Events 背压处理、实现鸿蒙端工业级 AI 响应流与长效链路治理方案

Flutter 组件 sse_stream 的适配 鸿蒙Harmony 深度进阶 - 驾驭高并发 Server-Sent Events 背压处理、实现鸿蒙端工业级 AI 响应流与长效链路治理方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 sse_stream 的适配 鸿蒙Harmony 深度进阶 - 驾驭高并发 Server-Sent Events 背压处理、实现鸿蒙端工业级 AI 响应流与长效链路治理方案 前言 在前文我们初步探讨了 sse_stream 在鸿蒙(OpenHarmony)端的连接实战。但在面临真正的工业级挑战——例如在大模型 AI(如 DeepSeek)生成每秒数百字的超高频反馈,或者是在证券系统中上千个标的实时价格跳动时,简单的“连接并监听”会导致鸿蒙 UI 线程由于疯狂的事件回调而瞬间进入 ANR(应用无响应)黑洞。 如何处理流式数据中的“背压(Backpressure)”?如何在鸿蒙有限的移动端内存中实现高效的报文分拣? 本文将作为 sse_stream 适配的进阶篇,