【工具】无需Token!WebAI2API将网页AI转为API使用

【工具】无需Token!WebAI2API将网页AI转为API使用
转载请注明出处:小锋学长生活大爆炸[xfxuezhagn.cn]

如果本文帮助到了你,欢迎[点赞、收藏、关注]哦~

背景介绍

        想用OpenClaw、想在自己工具里集成API,但Token太贵了?不过,各大商家不是都提供了免费的网页版吗?比如doubao、ChatGPT,网页版是不限量还免费的!

        所以这次介绍的工具,就是将网页版的AI转成了兼容OpenAI协议的API。以前也有web2api、chat2apt,不过都不更新了。而这次的WebAI2API非常好用。

使用效果

        亲测效果挺好,原理就是:对外提供API接口,接收到请求后默认人工操作去内置浏览器上发送内容,然后将结果再返回给接口。

还提供了一个后端管理系统,可以方便的查看系统状态、管理配置等等。

不只是文字,图片生成也是能实现的。

如果你部署在服务器上,还能远程查看屏幕。

目前支持的AI厂商列表:

网站名称文本生成图片生成视频生成
LMArena🚫
Gemini Enterprise Business
Nano Banana Free🚫🚫
zAI🚫
Google Gemini✅💧✅💧
ZenMux🚫
ChatGPT🚫
DeepSeek🚫🚫
Sora🚫🚫✅💧
Google Flow🚫
豆包
待续...---

部署教程

项目链接:https://github.com/foxhui/WebAI2API

方式一:手动部署

 克隆项目

git clone https://github.com/foxhui/WebAI2API.git cd WebAI2API

调整配置文件

程序初次运行会从config.example.yaml复制配置文件到data/config.yaml。我建议先配置好。

server: # 监听端口 port: 3000 # 鉴权 API Token (可使用 npm run genkey 生成) # 该配置会对 API 接口和 WebUI 生效 auth: sk-change-me-to-your-secure-key

安装与配置

# 1. 安装 NPM 依赖 pnpm install # 2. 安装浏览器等预编译依赖 # ⚠️ 该脚本需连接 GitHub 下载资源。若网络受限,请使用代理 npm run init # 使用代理 # 直接使用 -proxy 可交互式输入代理配置 npm run init -- -proxy=http://username:passwd@host:port # 3. Linux 依赖安装 # 其他发行版请前往文档中心查找或者自行搜索 apt install -y xvfb x11vnc libgtk-3-0 libx11-xcb1 libasound2

启动服务

# 标准启动 npm start # Linux 系统 - 虚拟显示启动 npm start -- -xvfb -vnc # 登录模式 (会临时强行禁用无头模式和自动化) npm start -- -login (-xvfb -vnc)

方式二:Docker 部署

安全提醒:

  • Docker 镜像默认开启虚拟显示器 (Xvfb) 和 VNC 服务
  • 可通过 WebUI 的虚拟显示器板块连接
  • WebUI 传输过程未加密, 公网环境请使用 SSH 隧道或 HTTPS

Docker CLI 启动

docker run -d --name webai-2api \ -p 3000:3000 \ -v "$(pwd)/data:/app/data" \ --shm-size=2gb \ foxhui/webai-2api:latest

Docker Compose 启动

docker-compose up -d

更多配置内容和用法可看官方文档:https://foxhui.github.io/WebAI2API/

Read more

以为AI开发就是调接口?一场25K的面试让我看到真相,原来真正的技术深度在这!

以为AI开发就是调接口?一场25K的面试让我看到真相,原来真正的技术深度在这!

以为AI开发就是调接口?一场25K的面试让我看到真相,原来真正的技术深度在这! 核心观点:AI应用开发绝非简单的API调用,而是融合算法理解、系统架构、工程实践、业务洞察的综合性技术领域。 随着人工智能技术的爆发式增长,越来越多的企业和开发者涌入AI应用开发赛道。然而,一个普遍存在的认知偏见依然困扰着这个领域——**很多人认为AI应用开发本质上就是调用大模型API,难度系数不高。**这种表象化的理解,恰恰忽视了AI应用开发的深层技术复杂度。 通过一次极具代表性的技术面试,我们可以清晰地看到AI应用开发的真实技术图谱。同时,我们也将深入探讨这个领域的技术演进、最佳实践以及未来发展趋势。 文章目录 * 以为AI开发就是调接口?一场25K的面试让我看到真相,原来真正的技术深度在这! * 技术背景重构 * 面试者画像可视化 * AI应用开发的技术现状与挑战 * 技术生态的演进路径 * 提示词工程的深层逻辑 * 提示词工程的系统性方法论 * 1. 场景分类体系 * 2. 提示词模板管理 *

Flutter 组件 deepseek 的适配 鸿蒙Harmony 实战 - 驾驭国产最强大模型 API、实现鸿蒙端 AI 原生对话与流式渲染的高效集成方案

Flutter 组件 deepseek 的适配 鸿蒙Harmony 实战 - 驾驭国产最强大模型 API、实现鸿蒙端 AI 原生对话与流式渲染的高效集成方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 deepseek 的适配 鸿蒙Harmony 实战 - 驾驭国产最强大模型 API、实现鸿蒙端 AI 原生对话与流式渲染的高效集成方案 前言 在 AI 浪潮席卷全球的今天,大模型(LLM)已成为移动应用创新的核心引擎。而在众多的国产模型中,DeepSeek 凭借其卓越的算法效率和极致的性价比,正成为开发者们的“真香”选择。 将 DeepSeek 这种顶尖的认知能力,植入到全面拥抱智能化、万物互联的鸿蒙(OpenHarmony)系统中,将碰撞出怎样的火花? deepseek 库为 Flutter 提供了极简的 API 封装,它完美支持了 SSE(流式事件流)响应,能让你的鸿蒙 App

5个关键步骤解决Llama 3.3 70B模型输出异常问题

5个关键步骤解决Llama 3.3 70B模型输出异常问题 【免费下载链接】text-generation-inferencetext-generation-inference - 一个用于部署和提供大型语言模型(LLMs)服务的工具包,支持多种流行的开源 LLMs,适合需要高性能文本生成服务的开发者。 项目地址: https://gitcode.com/GitHub_Trending/te/text-generation-inference 当你部署Llama 3.3 70B这样的大模型时,是否遇到过输出乱码、重复生成或推理中断的困扰?本文将通过真实案例剖析,为你提供一套系统化的排查方案。作为text-generation-inference框架下的重要模型,Llama 3.3 70B的异常输出往往源于硬件配置、模型加载和推理参数的综合因素。 问题场景:从混乱输出到精准推理 想象这样一个场景:你按照文档配置好所有参数,启动服务后却发现模型输出完全不符合预期——要么是重复的短语,要么是毫无意义的字符组合,甚至直接中断响应。这不是个例,而是许多开发者在部署大模型时面临的共同挑战

阿里云「RDS AI助手」正式上线:大模型驱动的数据库智能运维Copilot

阿里云「RDS AI助手」正式上线:大模型驱动的数据库智能运维Copilot

还在为数据库慢、配置难、巡检烦而头疼? 现在,RDS AI助手正式上线,只需用自然语言提问,就能帮你查问题、做诊断、出报告、调参数——就像有个数据库资深专家随时待命,24小时在线答疑! 它不是冷冰冰的对话窗口,而是深度跟数据库控制台交互融合,在你需要的地方出现一个RDS AI助手小图标,点击即用。 它是懂你业务、会看日志、能写建议的“智能运维搭子”。今天就带你快速了解它的几大核心能力。 知识问答,秒变数据库“百事通” 想知道某个功能怎么用?或者不确定当前实例是否支持某项特性? 直接问 RDS AI 助手就行! 比如:“我需要给这个实例的千万级数据量的表加字段,应该怎么操作避免锁表?” AI 会自动检索官方文档,并结合你的实例版本、配置等信息,告诉你是否满足条件,还能附上操作指引。再也不用翻手册、查限制,一问即答! 点此立即观看精彩演示 实例巡检,一键生成巡检报告 在实例详情页点击【AI实例巡检】,RDS