如何前端对接豆包api并在抖音直播间实现互动(1/3):注册豆包apikey

如何前端对接豆包api并在抖音直播间实现互动(1/3):注册豆包apikey

       前段时间,我女朋友公司正忙着抖音直播买红酒的业务,头疼的是,直播间的在线人数一直少得可怜,每次开播都是寥寥无几的观众,愁得唉声叹气。正好那段时间我手头没什么急事,闲着也是闲着,突然蹦出一个想法,能不能做个插件帮她盘活直播间的氛围。

        核心思路就是用前端技术打通几个关键环节:一方面对接豆包的智能对话接口,另一方面嵌入计时器功能,再加上网页元素捕捉的模块。

        我去市面上搜了一圈,发现好像还真没有类似的工具。其实这个插件的技术难度不算高,无非是把前端的页面交互、接口调用和网页抓取这些基础技能整合到一起,但感觉特别有意思,看到插件在直播间里正常运转,那种成就感真的很难得。更重要的是,这个小玩意儿能帮到她,让她不用再为直播间没说话而发愁,这就足够了。

首先我们要先去豆包api的官网,进行相关注册和申请权限。

1.访问官网进行相关注册

火山引擎-你的AI云https://www.volcengine.com/

2.注册完成后点击上面产品找到豆包大模型

3.进入控制台后点击进入apikey管理并创建apikey

此时我们已经完成apikey的创建,但是这时候还不能使用这个秘钥直接调用api接口,调用会说你没权限,因为我们还没有开通豆包接口权限,意味着我们只有钥匙,还没有权限。

4.进入开通管理,我们可以看到这里面有很多豆包的接口服务,还有deepseek的接口(我感觉是代理的)        

5.我们点击第一个Doubao-Seed-1.8,选择后面的开通服务

6.记得选择安心模式,否则后面如果你要是免费额度使用完了会自动扣费。(默认就是安心模式)选择后开启实名认证(这玩意不实名也不可能)

之后会让选择微信或抖音扫脸,这个看个人喜好,都一样的(涉及隐私,这里就不过多展示了)

7.扫脸完成后刷新页面,即可看见开通服务变成了关闭服务,这样就开通完成了。

8.验证调用是否成功

(1)打开postman(postman都有吧,没有去下载一个,地址如下)

Download Postman | Get Started for Freehttps://www.postman.com/downloads/(2)导入以下代码,我都给整理好了别乱改,里面Bearer后面有个空格,空格后面写你刚才申请的apikey,空格后面写你刚才申请的apikey,空格后面写你刚才申请的apikey,重要事情说三遍,别直接复制过去不改调用失败哈。

        (注意:豆包给的示例代码里的model跟你实际申请的不一样,调用会报错,所以用我这个就行,注意的是如果你申请的model不是1.8,那需要去修改成对应的model才可以调用,否则会提示报错。)

curl --location --request POST 'https://ark.cn-beijing.volces.com/api/v3/chat/completions' \ --header 'Content-Type: application/json' \ --header 'Authorization: Bearer 这里写你的apikey' \ --data-raw '{ "model": "doubao-seed-1-8-251228", "messages": [ { "role": "user", "content": "你好" } ] }'

        2.1导入方式:选择左上角的import

        2.2按图中操作步骤进行导入

(3)导入完成后点击body,检查是否导入成功,如果如图所示有东西那就是成功了,然后点击send进行报文发送测试。

注意:postman有时候会出现导入curl后无法修改body内容,可以点击右上方保存报文,然后重启软件就可以了

(4)返回对应的回答就是成功了哈

注意:豆包思考过程稍微有点久,就像网页你问问题之后他思考之后才会回复你,所以会感觉点击send之后像没有收到相应一样,是正常现象,等待10秒左右就会回复,另外问题越难,回复的也越慢。

(5)对于想了解其他功能的开发,也可以在火山引擎api文档查看其他调用模式,这里就不过多介绍了,具体文档地址:对话(Chat) API--火山方舟大模型服务平台-火山引擎https://www.volcengine.com/docs/82379/1494384?lang=zh

9.本章节后记:如何让豆包回答的问题像真人,且不要加那么多修饰语呢?

提问话术:随机生成一个适合直播间互动的问题,表现的像一个正常人首次进入直播间,20字以内,不要说其他的。

注意:提问的话术不要太长,因为豆包的api不是按照次数去扣减的,而是token量,就是你问的越长,他扣减的越多,所以如果是个人开发者,自己不想花钱,就尽量缩短提问,精简回答。

OK,本章到此就结束了,本来想小写一下的,结果操作步骤还是挺多的,下一章我介绍一下如何将豆包写入网页插件,并实现直播间自动提问。

Read more

解锁DeepSeek-R1大模型微调:从训练到部署,打造定制化AI会话系统

解锁DeepSeek-R1大模型微调:从训练到部署,打造定制化AI会话系统

目录 1. 前言 2.大模型微调概念简述 2.1. 按学习范式分类 2.2. 按参数更新范围分类 2.3. 大模型微调框架简介 3. DeepSeek R1大模型微调实战 3.1.LLaMA-Factory基础环境安装 3.1大模型下载 3.2. 大模型训练 3.3. 大模型部署 3.4. 微调大模型融合基于SpirngBoot+Vue2开发的AI会话系统 4.源码获取 5.结语 1. 前言 在如今快速发展的AI技术领域,越来越多的企业正在将AI应用于各个场景。然而,尽管大模型(如GPT、DeepSpeek等)在多个任务上已取得显著进展,但是普通的大模型在面对特定行业或任务时,往往会出现一个问题——AI幻觉。所谓AI幻觉,是指模型生成的内容不符合实际需求,

私人 AI 随身带!OpenClaw+cpolar 外网访问完整教程

私人 AI 随身带!OpenClaw+cpolar 外网访问完整教程

前言 在人人都用 AI 的时代,拥有一台完全私有、本地运行、数据不泄露的私人 AI,已经成为很多人的刚需。OpenClaw 就是这样一款宝藏工具,可绝大多数人都用错了方式 —— 只把它放在家里电脑上,出门就用不了。结果就是:部署时兴致勃勃,用几天后慢慢闲置,明明花了时间搭建,却没能发挥一半价值。我自己踩过这个坑,也试过各种办法突破局域网限制,要么配置复杂,要么不稳定,直到遇见 cpolar。它能轻松把本地服务映射到公网,安全加密、多平台兼容、新手友好。把 OpenClaw 和 cpolar 组合在一起,就等于把私人 AI 装进口袋,上班、出差、旅行,只要有网就能用。这篇文章不讲难懂原理,只给可直接复制的操作,带你从零完成外网访问,让私人 AI 真正随身带、随时用。 1 OpenClaw和cpolar是什么?

IntelliJ IDEA AI Assistant 携带OpenCode保姆级安装教程来了

IntelliJ IDEA AI Assistant 携带OpenCode保姆级安装教程来了

01 引言 AI Assistant 是 JetBrains 官方推出的 AI 驱动插件,专为软件开发设计。但是之前由于需要订阅才能使用,安装了之后又卸载了。 上一节简单介绍了一下IDEA 2026.1的简单功能,没有实际使用AI Assistant推出的ACP自定义模型。本节将通过安装opencode了解其使用过程。 02 安装 安装上一节已经介绍了,这里不在赘述。但是在安装过程中可能会出现一些问题。 2.1 安装后无法使用 明显显示已经安安装好了,几乎秒级安装,怎么感觉都有点离谱。 但是在对话框无法使用,无法发出信息,也没有选择模型的地方。 其实这个时候是后台在下载opencode的安装包,只不过界面没有明确的提示。可能由于网络原因下载失败,导致对话框无法使用。如果有网络原因,也可以从GitHub手动下载。 真正下载完成之后保存的位置: C:\Users\{user.name}\AppData\Local\JetBrains\acp-agents\.downloads\opencode 重启IDEA编辑器,

亚马逊云科技 EC2 部署 Dify,集成 Amazon Bedrock 构建生成式 AI 应用

亚马逊云科技 EC2 部署 Dify,集成 Amazon Bedrock 构建生成式 AI 应用

亚马逊云科技 EC2 部署 Dify,集成 Amazon Bedrock 构建生成式 AI 应用 文章目录 * 亚马逊云科技 EC2 部署 Dify,集成 Amazon Bedrock 构建生成式 AI 应用 * 前言 * 前提准备:亚马逊云科技注册流程 * Step.1 登录官网 * Step.2 选择账户计划 * Step.3 填写联系人信息 * Step.4 绑定信息 * Step.5 电话验证 * Step.6 售后支持 * Dify 集成 Amazon Bedrock 构建生成式 AI 应用 * Amazon