安装 Node.js 22+,配置 OpenAI Node.js 库、Vercel AI SDK 基础环境

文章目录

一、安装 Node.js 22+

  1. 官网下载:访问 Node.js 官网,选择 v22.x 稳定版(LTS 或 Current 均可),按系统(Windows/Mac/Linux)安装。
  2. 验证安装:终端执行 node -vnpm -v,输出 v22.x.x 即成功(npm 会随 Node 自动安装)。

二、初始化项目与安装依赖

1. 新建项目文件夹,终端进入目录,执行初始化命令:

npm init -y # 快速生成 package.json

2. 安装核心依赖:

# OpenAI Node.js 库(官方最新版)npminstall openai@latest # Vercel AI SDK(含基础工具链)npminstall ai@latest 

三、基础配置(关键步骤)

1. 配置 OpenAI 库

  • 在项目根目录创建 .env 文件,添加 API 密钥(需提前在 OpenAI 官网获取):
OPENAI_API_KEY=your-api-key-here # 替换为真实密钥 
  • 基础使用示例(创建 index.js):
import OpenAI from'openai';const openai =newOpenAI({ apiKey: process.env.OPENAI_API_KEY});// 测试调用(示例:生成文本)asyncfunctiontestOpenAI(){const response =await openai.chat.completions.create({ model:"gpt-3.5-turbo", messages:[{ role:"user", content:"Hello World"}]}); console.log(response.choices[0].message.content);}testOpenAI();

2. 配置 Vercel AI SDK

  • 无需额外密钥配置(依赖 OpenAI 密钥),基础流式调用示例(修改 index.js):
import{ openai }from'@ai-sdk/openai';import{ streamText }from'ai';asyncfunctiontestVercelAI(){const result =awaitstreamText({ model:openai('gpt-3.5-turbo'), prompt:"Hello World"});// 流式输出结果forawait(const chunk of result.textStream){ process.stdout.write(chunk);}}testVercelAI();

四、运行测试

  1. 安装 dotenv 加载环境变量:npm install dotenv --save-dev
  2. 修改 package.json 添加启动脚本:
"scripts":{"start":"node -r dotenv/config index.js"}
  1. 终端执行 npm start,成功输出 AI 回复即配置完成。

完整的项目目录结构 和 调试常见报错

Read more

前端真的能防录屏?EME(加密媒体扩展) DRM 反录屏原理 + 实战代码

前端真的能防录屏?EME(加密媒体扩展) DRM 反录屏原理 + 实战代码

🌷 古之立大事者,不惟有超世之才,亦必有坚忍不拔之志 🎐 个人CSND主页——Micro麦可乐的博客 🐥《Docker实操教程》专栏以最新的Centos版本为基础进行Docker实操教程,入门到实战 🌺《RabbitMQ》专栏19年编写主要介绍使用JAVA开发RabbitMQ的系列教程,从基础知识到项目实战 🌸《设计模式》专栏以实际的生活场景为案例进行讲解,让大家对设计模式有一个更清晰的理解 🌛《开源项目》本专栏主要介绍目前热门的开源项目,带大家快速了解并轻松上手使用 🍎 《前端技术》专栏以实战为主介绍日常开发中前端应用的一些功能以及技巧,均附有完整的代码示例 ✨《开发技巧》本专栏包含了各种系统的设计原理以及注意事项,并分享一些日常开发的功能小技巧 💕《Jenkins实战》专栏主要介绍Jenkins+Docker的实战教程,让你快速掌握项目CI/CD,是2024年最新的实战教程 🌞《Spring Boot》专栏主要介绍我们日常工作项目中经常应用到的功能以及技巧,代码样例完整 👍《Spring Security》专栏中我们将逐步深入Spring Security的各个

使用STM32CubeMX部署AI模型流程

使用STM32CubeMX部署AI模型流程

内容简介 本文章主要介绍如何将AI模型部署到单片机上,并实现一些基础的逻辑功能,本次文章主要从模型获取,模型部署以及模型使用三个层次进行介绍 模型获取 在模型部署的前期阶段我们并没有独立制造模型的能力,但本阶段我们的目标是去使用模型而非创造模型,只要能够成功部署并调用模型本阶段的任务就圆满完成了,因此本阶段我们的模型只能自己想办法去获取,主要途径如下 意法半导体官方获取 在STM32CubeMXAI的官方下载页面中下拉就可以找到对应的官方模型库 网址如下 https://stm32ai.st.com/zh/stm32-cube-ai/ 下拉后可以看到对应的STM32 Model Zoo的相关信息,点击了解更多信息 在新弹出的页面中选择前往Model Zoo 随后我们便跳转到了意法半导体官方在GitHub上提供的模型仓库, 下拉即可找到不同类型的开源模型 通过观察不难发现官方提供的AI模型大多用于进行图像处理相关操作,这对开发板的板载芯片性能要求较高,且需要使用到对应的摄像头模块,最重要的部署难度也很高,因此对本阶段的学习并不友好,如果后面大家熟练掌握

Rust WebAssembly开发实战:构建高性能前端应用

Rust WebAssembly开发实战:构建高性能前端应用

Rust WebAssembly开发实战:构建高性能前端应用 一、引言 💡WebAssembly(Wasm)是一种二进制指令格式,旨在提供一种可移植的、高效的编译目标,允许开发者使用多种语言(如C、C++、Rust)编写代码,并在Web浏览器中以接近原生速度运行。它填补了JavaScript在性能密集型任务上的空白,使得在Web端开发高性能应用成为可能。 Rust语言以其内存安全、零成本抽象、高性能和良好的工具链支持,成为开发WebAssembly的首选语言之一。Rust编译器可以直接将Rust代码编译成WebAssembly,并且Rust的标准库提供了对WebAssembly的良好支持。此外,Rust生态系统中还有许多专门为WebAssembly开发的库和工具,使得开发过程更加简单。 本章将深入探讨Rust WebAssembly开发的核心原理,介绍WebAssembly的概念、优势和应用场景,讲解如何使用Rust编译器将Rust代码编译成WebAssembly,以及如何在Web浏览器中调用WebAssembly模块。同时,本章还将通过实战项目演示如何构建一个高性能的前端

飞算JavaAI全流程实操指南:从需求到部署的智能开发体验

飞算JavaAI全流程实操指南:从需求到部署的智能开发体验

引言 作为Java开发者,你是否也曾陷入这样的循环:需求文档翻来覆去读半天,接口设计改了又改,代码敲到手指发麻,调试时还得对着SQL报错抓头发?传统开发中80%的时间都耗在重复编码、逻辑校验、文档撰写上,真正留给业务创新的精力少得可怜。而今天,飞算JavaAI的出现正在重构这一切——从自然语言需求到可部署工程,全流程智能化让开发效率实现质的飞跃。接下来,我们就通过实战案例带你体验这场开发革命。 文章目录 * 引言 * 一、智能引导设计实战:3步完成需求到代码的转化 * 二、代码生成与调优:从基础框架到企业级实践 * 三、工程构建与文档生成:一键完成项目交付 * 四、同类产品对比:飞算JavaAI的核心优势 * 结语: 一、智能引导设计实战:3步完成需求到代码的转化 当产品经理甩来一句“做个员工绩效查询功能”时,你不用再纠结“接口参数怎么定”“分页逻辑放哪层”。飞算JavaAI的智能引导设计,让需求到代码的转化像聊天一样简单。 1.1 自然语言描述和需求理解:怎么说,AI就怎么懂 不用写规范的PRD,