带可二次开发的管理配置端 + 非低代码 + 原生支持标准化 Skill框架选择

「带可二次开发的管理配置端 + 非低代码 + 原生支持标准化 Skill」的开源 Agent 框架,筛选 3款完全匹配的框架(均为代码级可扩展、自带 Skill 管理后台、支持 SKILL.md/MCP 标准),附核心特性、二次开发要点和部署步骤,都是企业级/开发者友好的选型:


一、首选:LangGraph + LangServe(LangChain 官方生态,Python 栈,极致可扩展)

核心定位

LangChain 官方推出的「Agent 编排 + 服务化」框架,自带可二次开发的 Skill/Tool 管理后台(LangServe Dashboard),纯代码开发、无低代码封装,是 Python 生态的最佳选择。

关键特性

  1. Skill 管理能力
    • 原生支持 StructuredTool(对应 SKILL.md 标准),可通过代码/API 注册、禁用、版本管理;
    • 内置 MCP 协议适配,可直接加载 SKILL.md + scripts 格式的 Skill;
  2. 管理配置端
    • 自带 LangServe Dashboard(Web 管理后台),支持 Skill 列表、调用日志、参数配置;
    • 后台基于 FastAPI + React 开发,前端/后端均可完全二次开发;
  3. 二次开发友好
    • 纯 Python 代码编写 Agent 逻辑,无低代码拖拽;
    • 模块化设计(Skill 加载器、Agent 执行器、权限控制可拆分扩展);
    • 支持自定义 Skill 元数据、调度规则、沙箱运行环境。

部署 & 二次开发步骤

1. 基础部署
# 安装核心依赖 pip install langgraph langserve langchain-openai fastapi uvicorn # 启动带 Dashboard 的 LangServe 服务 langserve start --host 0.0.0.0 --port 8000 --dashboard 

访问 http://localhost:8000/docs(API 管理)、http://localhost:8000/dashboard(可视化管理后台)。

2. 二次开发 Skill 管理模块
# 示例:扩展 Skill 管理 API(可直接集成到自有后台)from fastapi import FastAPI, APIRouter, Depends from langserve import add_routes from langgraph.graph import StateGraph, END from langchain_core.tools import StructuredTool from pydantic import BaseModel import yaml from pathlib import Path # 1. 自定义 Skill 加载器(解析 SKILL.md)defload_skill_from_dir(skill_dir:str)-> StructuredTool: skill_path = Path(skill_dir)# 解析 SKILL.md 的 YAML 头withopen(skill_path /"SKILL.md","r", encoding="utf-8")as f: yaml_head = f.read().split("---")[1].strip() skill_meta = yaml.safe_load(yaml_head)# 构建执行函数(调用 scripts 脚本)defskill_executor(**kwargs):import subprocess cmd =["python",str(skill_path / skill_meta["mcp"]["script_path"])]for k, v in kwargs.items(): cmd +=[f"--{k}",str(v)] result = subprocess.run(cmd, capture_output=True, text=True)return result.stdout.strip()# 构建 StructuredTool param_fields ={p["name"]:(eval(p["type"]),...)for p in skill_meta["parameters"]} ParamModel = BaseModel(**param_fields)return StructuredTool.from_function( func=skill_executor, name=skill_meta["name"], description=skill_meta["description"], args_schema=ParamModel )# 2. 扩展 Skill 管理 API(注册/删除/列表) app = FastAPI(title="Agent Skill 管理平台") skill_router = APIRouter(prefix="/admin/skills") registered_skills ={}@skill_router.post("/register")defregister_skill(skill_dir:str):"""注册 SKILL.md 格式的 Skill""" skill = load_skill_from_dir(skill_dir) registered_skills[skill.name]= skill # 添加到 LangServe 路由 add_routes(app, skill, path=f"/skills/{skill.name}")return{"code":0,"msg":f"Skill {skill.name} 注册成功"}@skill_router.get("/list")deflist_skills():"""获取所有已注册的 Skill"""return{"code":0,"data":[{"name": k,"description": v.description}for k, v in registered_skills.items()]} app.include_router(skill_router)# 3. 启动服务(集成自定义管理 API)if __name__ =="__main__":import uvicorn uvicorn.run(app, host="0.0.0.0", port=8000)
3. 前端二次开发

LangServe Dashboard 的前端源码在 langchain/langserve/dashboard,基于 React + TypeScript 开发:

  • 克隆源码后,可修改 src/components/SkillList.tsx 扩展 Skill 配置项;
  • 可添加「导入 SKILL.md」「批量注册 Skill」等功能;
  • 编译后替换原 Dashboard 静态资源即可。

二、次选:AgentScope(阿里云开源,多 Agent 管理,Go/Python 双栈)

核心定位

阿里云开源的 Agent 开发框架,自带「Agent 管理控制台」,支持 Skill 标准化注册/配置,纯代码开发、无低代码,适合多 Agent 协作场景。

关键特性

  1. Skill 管理能力
    • 内置 Skill 抽象类,可直接映射 SKILL.md 标准(name/description/parameters);
    • 支持 Skill 版本管理、权限控制、沙箱运行;
  2. 管理配置端
    • 自带 Web 控制台(Go 开发),支持 Skill 列表、调用监控、参数配置;
    • 控制台 API 开放,可二次开发自定义配置项;
  3. 二次开发友好
    • 支持 Python/Go 双语言开发,模块化设计;
    • 提供 Skill 加载器、执行器的扩展接口;
    • 支持自定义 MCP 协议适配。

快速部署

# 安装 pip install agentscope # 启动管理控制台 agentscope dashboard start --port 9000# 注册 Skill(代码/控制台均可) python -m agentscope skill register ./calculator-skill 

访问 http://localhost:9000 即可进入管理后台,支持 Skill 配置、Agent 编排、调用日志查看。


三、备选:OpenAGI(清华开源,全栈可扩展,Skill 市场)

核心定位

清华大学开源的 Agent 框架,自带「Skill 管理平台」,纯代码开发,支持 SKILL.md/MCP 标准,适合复杂场景的二次开发。

关键特性

  1. Skill 管理能力
    • 原生支持 Skill 标准化注册(匹配 SKILL.md 元数据);
    • 支持 Skill 市场、版本迭代、依赖管理;
  2. 管理配置端
    • 自带 Web 管理后台(FastAPI + Vue),可二次开发;
    • 支持 Skill 在线编辑、参数配置、调用测试;
  3. 二次开发友好
    • 纯 Python 代码编写,无低代码封装;
    • 提供 Skill 加载器、执行器的扩展接口;
    • 支持自定义 Agent 调度规则、Skill 路由策略。

部署步骤

# 克隆源码git clone https://github.com/agiresearch/OpenAGI.git cd OpenAGI # 安装依赖 pip install -r requirements.txt # 启动服务(含管理后台) python run.py --web --port 7000

访问 http://localhost:7000 进入管理后台,可直接导入 SKILL.md 格式的 Skill,支持在线配置参数、测试调用。


四、核心选型对比(适配需求)

框架开发语言管理后台Skill 标准支持二次开发难度适用场景
LangGraph + LangServePythonReact + FastAPI(可全量二次开发)完美适配 SKILL.md/MCP低(Python 生态成熟)中小规模、Python 栈、快速扩展
AgentScopePython/GoGo + React(API 开放)适配 SKILL.md/MCP中(双语言)多 Agent 协作、企业级部署
OpenAGIPythonVue + FastAPI(源码开放)原生支持 SKILL.md中(功能丰富,需理解框架)复杂场景、Skill 市场、团队协作

总结

核心关键点回顾

  1. 首选 LangGraph + LangServe:Python 栈、生态最成熟、管理后台可完全二次开发,完美适配 SKILL.md + scripts 标准,无需低代码;
  2. 管理端扩展思路
    • 后端:基于 FastAPI 扩展 Skill 注册/配置 API,对接数据库存储 Skill 元数据;
    • 前端:基于 React/Vue 开发自定义配置页面,调用扩展 API 实现 Skill 在线配置、导入导出;
  3. Skill 适配核心:所有框架都可通过「解析 SKILL.md YAML 头 → 构建标准 Tool/Skill 对象 → 注册到框架」的方式,无缝加载标准化 Skill。

Read more

记录一下使用llama.cpp过程中遇到的一些问题和解决方法

写在前面: 什么未操作即同意的条款?我写的东西免费分享也不是你能随意搬运的理由啊 特此声明,若该文章被搬运到除ZEEKLOG(www.ZEEKLOG.net)以外的其他社区如2048 AI社区,则视为该社区同意将所有收益无偿捐赠给我所有 此外,我写的所有分享都是免费的,如有VIP文章也是ZEEKLOG干的,请私信我修改成免费 起因:使用LMStudio调用AI模型时发现显存占用率一直不超过80%,询问AI解决办法无果后一怒之下换用llama.cpp,遇到了一堆AI解决不了的问题,遂记录 llama.cpp下载地址如下 https://github.com/ggml-org/llama.cpp/releases 以防万一 我老年痴呆说一下如何使用llama.cpp调用模型,把下面的代码保存成bat,放在和llama-server.exe同目录下,然后运行这个bat(确保模型位置选对,GPU_LAYERS和THREADS根据机器能力) @echo off setlocal set "MODEL_PATH=F:\Models\Yakyu&

ComfyUI是什么?当AI绘画遇上“连连看”,专业创作原来可以如此简单!

目录 一、开篇明义:什么是ComfyUI? 二、核心设计哲学:为什么选择节点式工作流? 1. 完全透明化的生成过程 2. 可保存、可分享、可复用的工作流 3. 精细到极致的参数控制 三、ComfyUI技术架构剖析 1.核心组件详解 2.性能优势解析 四、实际应用场景:谁需要ComfyUI? 1. AI艺术创作者 2. 产品设计与原型开发 3. 教育与研究 4. 商业内容生产 用流程图玩转Stable Diffusion,揭开AI绘画的神秘面纱 一、开篇明义:什么是ComfyUI? 如果你曾对AI绘画感到好奇,或已经尝试过Midjourney、Stable Diffusion WebUI等工具,那么ComfyUI将为你打开一扇全新的门。这不是又一个“输入文字出图片”的简单工具,而是一个可视化节点编辑器,专门为Stable Diffusion设计。

Llama-2-7b在昇腾NPU上的六大核心场景性能基准报告

Llama-2-7b在昇腾NPU上的六大核心场景性能基准报告

引言 随着大语言模型(LLM)技术的飞速发展,其底层算力支撑硬件的重要性日益凸显。传统的GPU方案之外,以华为昇腾(Ascend)为代表的NPU(神经网络处理单元)正成为业界关注的焦点。为了全面、深入地评估昇腾NPU在实际LLM应用中的性能表现,我们进行了一项针对性的深度测评。本次测评选用业界广泛应用的开源模型Llama-2-7b,在 Atlas 800T A2 训练卡 平台上进行部署、测试与分析,旨在为开发者和决策者提供一份详实的核心性能数据、深度的场景性能剖析、以及可靠的硬件选型与部署策略参考。 模型资源链接:本项目测评使用的模型权重及相关资源可在 GitCode 社区获取:https://gitcode.com/NousResearch/Llama-2-7b-hf 一、 测评环境搭建与准备 扎实的前期准备是确保测评数据准确可靠的基石。本章节将详细记录从激活昇腾NPU计算环境到完成所有依赖库安装的全过程,确保测试流程的透明与可复现性。 1.1 激活NPU Notebook实例 我们通过GitCode平台进行本次操作。首先,需要进入项目环境并激活一个Notebook实例,这

CosyVoice环境安装报错:安装openai-whisper时出现ModuleNotFoundError: No module named ‘pkg_resources‘的原因

先说如何解决,我个人采用源码安装,安装时禁用构建隔离: git clone https://github.com/openai/whisper.git cd whisper git checkout v20231117 pip install -e . --no-build-isolation 再说该问题产生的原因,下面是大D老师的回答,自行参考。 太棒了!你找到了正确的解决方案。让我详细解释为什么会出现这个问题,以及为什么 --no-build-isolation 能解决它。 🔍 问题根源分析 问题的关键在于 PEP 517/518 构建隔离机制和你的 setup.py 实现方式。 1. 构建隔离机制 (Build Isolation) 的工作原理 当你执行 pip install -e .(不带 --no-build-isolation)时,