WHAT - 前端请求分层和自动接口生成

文章目录

一、为什么要做「前端请求分层」?

先看一个没有分层的典型问题:

// 页面里const res =awaitrequest('/api/user/list',{  method:'POST', data:{  page:1}})setData(res.data.list)

❌ 问题:

  • 接口地址散落在页面
  • data / params 结构不统一
  • 返回值类型靠猜
  • 后端字段改一次 → 全站崩
  • mock / 真接口切换痛苦

目标

页面不关心 HTTP,只关心“业务能力”
const users =awaitgetUserList({  page:1})

二、经典的前端请求分层结构

一个成熟前端项目,请求通常分 3~4 层:

src/ ├── api/ ← 业务接口层(给页面用) ├── services/ ← 原子请求层(HTTP 细节) ├── request/ ← axios / fetch 封装 ├── types/ ← 接口类型定义(自动生成) 

下面逐层解释。

request 层(HTTP 基础设施)

只干一件事:稳定、可控地发请求

// request/index.tsimport axios from'axios'exportconst http = axios.create({  baseURL:'/api', timeout:10000}) http.interceptors.response.

Read more

LLM - 10分钟安装 OpenClaw:把 AI 管家跑在你自己的电脑上

LLM - 10分钟安装 OpenClaw:把 AI 管家跑在你自己的电脑上

文章目录 * 概述 * 一句话安装(推荐) * 1)安装前检查(避坑) * 2)安装后验证:确认"真的跑起来了" * 2.1 诊断(强烈建议) * 2.2 查看运行状态 * 2.3 打开仪表盘 * 3)备选安装方式 * 方式 A:手动全局安装(你已经有 Node/npm) * macOS 上 `sharp` 相关报错怎么办? * 方式 B:从源码安装(适合贡献/二开) * 4)常见问题排错(最常见就这一个) * "安装成功但提示 openclaw: command not found"

ChatGPT替代品?LocalAI+CPolar打造你的隐私保护AI实验室

ChatGPT替代品?LocalAI+CPolar打造你的隐私保护AI实验室

文章目录 * 前言 * 【视频教程】 * 1. Docker部署 * 2. 简单使用演示 * 3. 安装cpolar内网穿透 * 4. 配置公网地址 * 5. 配置固定公网地址 前言 当你用AI处理客户合同却担心数据被训练时,当企业因合规要求禁止使用云端API时——LocalAI的出现就像给数据安全上了"双重保险"。这款开源工具能让Llama、Phi等大模型直接跑在你的笔记本上,全程不上传任何数据,还完美兼容OpenAI API。特别适合处理商业机密的律师、需要离线工作的科研人员,以及对"数据主权"有执念的技术极客。最惊艳的是它的CPU推理能力:我的老旧ThinkPad都能流畅运行7B模型,彻底打破"AI必须依赖GPU"的神话 🖥️ 作为经常处理敏感数据的程序员,我被它的"隐形模式"彻底征服。上周帮医疗团队分析病例文本,LocalAI在本地完成实体识别,原始数据从未离开医院内网——这种"

2026最新保姆级教程:手把手教你零基础安装与配置本地 AI 智能体 OpenClaw

2026最新保姆级教程:手把手教你零基础安装与配置本地 AI 智能体 OpenClaw

文章目录 * 前言 * 一、下载并安装 OpenClaw * 二、启动配置向导与绑定 AI 大脑 * 1. 启动向导 * 2. 确认账户类型 * 3. 选择快速入门模式 * 4. 选择大模型 (AI 大脑) * 5. 选择 API 接口区域 * 6. 填入你的专属 API Key * 三、连接通讯渠道 (Telegram) * 1. 选择 Telegram * 2. 绑定机器人的 Token * 第四步:安装扩展插件与重启服务 * 1. 技能插件 (Skills) * 2. 附加功能 (Hooks) * 3. 重启并应用配置 * 第五步:设备安全授权与最终测试 (见证奇迹!) * 1.

2026年 Trae 收费模式改变 —— AI 编程“免费午餐”终结后的生存法则

2026年 Trae 收费模式改变 —— AI 编程“免费午餐”终结后的生存法则

关键词:Trae, Cursor, AI 编程成本, Token 计费, Agent 模式, 职业转型 大家好,我是飞哥!👋 2026年,AI编辑器Trae 也将收费模式改为按 Token 收费。 有些开发者开始动摇:“AI 编辑器越来越贵,是不是应该放弃使用,回归纯手写代码?” 对于用户来说,这无疑是一次涨价。但在飞哥看来,这次涨价背后释放了两个非常关键的信号: 1. AI 技术已进入稳定成熟期: 厂商不再需要通过“免费/低价补贴”来换取用户数据进行模型迭代。产品已经足够成熟,有底气接受市场真实定价的检验。 2. 倒逼用户进化,优胜劣汰: 涨价是一道筛子。它在要求用户大幅提升自己的 AI 使用水平(如 Prompt 技巧、Context 管理)。 * 低级使用者(只会问“怎么写代码”