手把手教你免费获取豆包 AI API Key 并接入前端项目

文章目录

手把手教你免费获取豆包 AI API Key 并接入前端项目(超详细图文版)

大家好,最近在做 Vue 前端项目时,需要做一个在线智能客服功能,直接接入了字节的豆包 AI,体验非常流畅。很多同学问我豆包 AI 的 API Key 到底怎么拿,今天就出一篇保姆级教程,从零到一教会你,全程免费、可直接用于项目开发。


一、先说清楚:豆包 AI API 在哪里申请?

豆包 AI 的大模型能力,统一在 火山引擎·火山方舟(ARK) 平台开放。
✅ 个人可申请
✅ 支持实名认证
✅ 新用户有免费调用额度
✅ 支持前端直接调用(配合代理更安全)


二、准备工作(2 分钟完成)

  1. 打开火山引擎官网:https://www.volcengine.com/
  2. 手机号注册并登录
  3. 进入右上角「账号管理」→ 完成实名认证(个人即可,秒通过)
不实名认证无法使用 API 能力。

三、正式获取 API Key(5 分钟搞定)

步骤 1:进入火山方舟平台

登录后,顶部搜索框搜:火山方舟
或直接访问:https://console.volcengine.com/ark

在这里插入图片描述

步骤 2:创建 API Key(最重要)

  1. 左侧菜单找到:API 密钥管理
  2. 点击 创建 API Key
  3. 起个名字,例如:my-doubao-customer-service

创建成功后,立即复制保存 API Key
这个 key 只会显示一次!

在这里插入图片描述

格式示例:

ek-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx 

步骤 3:开通豆包 AI 模型

  1. 进入 模型管理中心
  2. 找到 豆包系列
  3. 推荐开通:
    • Doubao-lite-128k(轻量、免费额度足、适合客服)
    • Doubao-pro-256k(效果更好)

点击开通即可,无需复杂配置。

在这里插入图片描述

步骤 4:创建「推理接入点」获取 Endpoint ID

这是很多人卡壳的地方,我讲清楚:
API Key 是身份凭证
Endpoint ID 是你要调用的模型地址

  1. 点击 创建推理接入点
  2. 填写名称:doubao-chat
  3. 选择刚才开通的豆包模型
  4. 地区选择:cn-beijing

创建 → 等待状态变为 运行中

在这里插入图片描述

左侧进入:在线推理

在这里插入图片描述

创建完成后,复制:

ep-xxxxxxxxxxxxxxx 

这就是你的 Endpoint ID。


四、拿到这两个东西就成功了

你最终会获得:

  1. API Key
  2. Endpoint ID

把它们填进前端代码就能直接调用豆包 AI!


五、前端接入代码示例(Vue3 可直接用)

// 豆包 AI 接口请求constreplyFromDoubaoAI=async(userText)=>{try{const res =await axios.post('https://ark.cn-beijing.volces.com/api/v3/chat/completions',{model:"你的EndpointID",messages:[{role:"user",content: userText }]},{headers:{"Content-Type":"application/json","Authorization":"Bearer 你的APIKey"}})return res.data.choices[0].message.content }catch(err){return'AI 服务暂时不可用'}}

六、常见问题(必看)

1. 调用报错 401

API Key 错误、未复制全、未开通模型。

2. 报错 404 / Model not found

Endpoint ID 不对,或模型未运行。

3. 免费额度能用多久?

个人新用户一般足够开发与小型项目使用

4. 可以直接前端调用吗?

学习、演示可以;
正式上线建议 通过后端中转,避免 API Key 泄露。


七、总结

今天这篇文章带你完成了:
✅ 了解豆包 AI API 申请平台
✅ 5 分钟获取 API Key
✅ 开通豆包模型
✅ 创建推理接入点
✅ 获取 Endpoint ID
✅ 前端接入代码示例

整个流程非常简单,只要跟着做,10 分钟内一定能跑通!


Read more

手把手教你用Whisper-large-v3搭建个人语音转文字服务

手把手教你用Whisper-large-v3搭建个人语音转文字服务 1. 为什么你需要一个自己的语音转文字服务 你有没有遇到过这些场景: * 开完一场两小时的线上会议,想快速整理会议纪要,却要花半天时间听录音打字; * 收到客户发来的5分钟语音咨询,一边回消息一边反复暂停播放,手忙脚乱; * 做自媒体剪辑时,反复听口播素材写字幕,耳朵累、效率低、还容易漏字。 市面上的在线语音识别工具看似方便,但存在几个现实问题:音频上传慢、隐私有风险、中文识别不准、长语音断句混乱、不支持本地部署——尤其当你处理的是内部会议、客户沟通或敏感内容时,把语音传到别人服务器上,真的安心吗? 而今天要带你搭的这个服务,就解决了所有痛点:它跑在你自己的机器上,99种语言自动识别,中文准确率高,支持实时录音和批量上传,GPU加速后30秒音频2秒出结果,全程不联网、不上传、不依赖第三方API。 这不是概念演示,而是已经稳定运行的完整Web服务——镜像名称叫“Whisper语音识别-多语言-large-v3语音识别模型 二次开发构建by113小贝”,基于OpenAI最新版Whisper Large

3步搞定llama.cpp在Linux上的GPU加速编译

3步搞定llama.cpp在Linux上的GPU加速编译 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 还在为llama.cpp的编译失败而头疼吗?😫 想让你心爱的Intel显卡在Linux系统上跑出飞一般的推理速度?今天我就带你用最简单的方法,从零开始搞定llama.cpp的GPU加速编译!无论你是AI新手还是资深开发者,都能在30分钟内完成部署。 1 问题诊断:为什么你的编译总是失败? 你有没有遇到过这样的情况:满怀期待地下载了llama.cpp源码,执行make命令后却看到一堆看不懂的错误信息?别担心,这几乎是每个Linux用户的必经之路! 常见编译失败的三大症状: * "Command not found" - 缺少关键编译器 * "Permission

从 LLaMA-Factory 微调到高通 NPU 部署: Qwen-0.6B 全链路移植指南

前言 在大模型端侧化部署的趋势下,如何将微调后的 LLM 跑在手机 NPU 上是很多开发者的痛点。本文将手把手教你如何将使用 LLaMA-Factory 微调后的 Qwen-0.6B 模型,一步步移植到高通(Qualcomm)骁龙平台的 NPU 上,实现低功耗、高速度的本地化推理。 一、 导出微调模型 首先,在 LLaMA-Factory 界面中选择好微调后的检查点(Checkpoint),填写导出路径,点击 “开始导出” 。 导出成功后,你会在目录下看到如下文件: * model.safetensors(模型权重) * config.json(模型配置) * tokenizer.json 等(分词器相关) 要将微调后的 Qwen-0.6B 模型移植到高通 NPU,第一步就是格式转换。safetensors 是目前