小白入门:前端前端调用 AI 接口全流程(附具体案例)

很多前端新手在调用 AI 接口时会犯怵:不知道 “怎么怎么传参数?”“流式响应怎么处理?”“不同功能(润色 / 扩写)调用方式不一样吗?”

其实很简单!本文以 “智能文本处理工具” 为例,手把手教你从 0 到 1 调用 AI 接口,包含润色、扩写等功能,看完就能上手。


准备工作:先看懂这 3 个核心文件

在开始前,我们需要明确项目中 3 个关键文件的作用(这些文件你可能已经有了,只是不知道怎么用):

  • vite.config.js:配置后端接口代理,解决跨域问题
  • apiClient.js:封装好的 HTTP 请求工具,帮你发请求
  • aiService.js:封装好的 AI 功能函数(润色 / 扩写等)
配置文件(vite.config.js)

这个文件告诉前端:" 调用 /writer_api 开头的接口时,自动转发到后端服务器 "。

// vite.config.js exportdefaultdefineConfig({ server:{ proxy:{// AI功能接口代理(润色/扩写等) '/writer_api':{ target:'http://192.168.0.1:3000',// 后端服务器地址  changeOrigin:true,// 解决跨域 rewrite:path=> path.replace(/^\/writer_api/,'')// 去掉前缀 }}}});
请求工具(apiClient.js)

这个文件封装了发送请求的逻辑,你不用关心 fetchaxios 的细节,直接调用即可。

// apiClient.js classHttpClient{asyncpost(url, data){returnfetch(url,{ method:'POST', headers:{'Content-Type':'application/json'}, body:JSON.stringify(data)});}}exportdefaultnewHttpClient();
AI 功能封装(aiService.js)

这里已经帮你写好了调用各种 AI 功能的函数,直接用就行!

// aiService.js import apiClient from'./apiClient.js';// 润色功能 exportconstpolishText=async(text, style)=>{return apiClient.post('/writer_api/generate/',{ writing_mode:`润色${style}`, text: text });};// 扩写功能 exportconstexpandText=async(text)=>{return apiClient.post('/writer_api/generate/',{ writing_mode:'扩写', text: text });};// 处理流式响应(AI逐字返回结果时用) exportconstreadStreamResponse=async(response, onUpdate)=>{const reader = response.body.getReader();const decoder =newTextDecoder();let result ='';while(true){const{ done, value }=await reader.read();if(done)break; result += decoder.decode(value);onUpdate(result);// 实时更新结果 }return result;};

实战案例:做一个 AI 文本处理工具

我们来做一个简单的页面,包含:

  • 输入框(用户输入文本)
  • 功能按钮(润色 / 扩写)
  • 结果展示区(显示 AI 处理后的内容)
页面结构(Vue 组件为例)

先写好 HTML 结构,让用户能输入文本、选择功能、看到结果。

<template> <div> <!-- 输入区域 --> <textarea v-model="userText" placeholder="请输入需要处理的文本..." ></textarea> <!-- 功能按钮 --> <div> <button @click="handlePolish">润色</button> <button @click="handleExpand">扩写</button> </div> <!-- 结果展示 --> <div> <h3>处理结果:</h3> <p>{{ resultText }}</p> </div> </div> </template> 
核心逻辑:调用 AI 接口

重点看 JavaScript 部分,这是调用接口的核心代码。

<script setup> import { ref } from 'vue'; // 导入AI功能函数 import { polishText, expandText, readStreamResponse } from './aiService.js'; // 定义变量 const userText = ref(''); // 用户输入的文本 const resultText = ref(''); // AI返回的结果 // 1. 调用润色功能 const handlePolish = async () => { // 先检查用户有没有输入内容 if (!userText.value) { alert('请输入文本!'); return; } try { // 调用润色接口,传入文本和风格(这里固定用"更正式") const response = await polishText(userText.value, '更正式'); // 处理AI的流式响应(实时更新结果) await readStreamResponse(response, (partialResult) => { resultText.value = partialResult; // 实时显示到页面 }); } catch (error) { alert('润色失败,请重试!'); console.error(error); } }; // 2. 调用扩写功能(和润色几乎一样) const handleExpand = async () => { if (!userText.value) { alert('请输入文本!'); return; } try { // 调用扩写接口,只需要传入文本 const response = await expandText(userText.value); // 同样用流式响应处理结果 await readStreamResponse(response, (partialResult) => { resultText.value = partialResult; }); } catch (error) { alert('扩写失败,请重试!'); } }; </script> 
样式美化(可选)

加一点 CSS 让页面好看点:

<style scoped> .ai-tool { max-width: 800px; margin: 20px auto; padding: 20px; } textarea { width: 100%; height: 150px; padding: 10px; margin-bottom: 10px; } .buttons { margin-bottom: 20px; } button { margin-right: 10px; padding: 8px 16px; cursor: pointer; } .result { padding: 10px; border: 1px solid #eee; } </style> 

关键步骤总结

不管调用哪种 AI 功能,步骤都是固定的:

  1. 获取用户输入:从输入框拿到 userText
  2. 调用对应函数
    • 润色用 polishText(文本, 风格)
    • 扩写用 expandText(文本)
  3. 处理流式响应:用 readStreamResponse 实时显示结果
  4. 错误处理:用 try/catch 捕获异常,提示用户

常见问题解答

Q:为什么要处理流式响应?
A:AI 生成内容时是逐字返回的(比如 “你好→你好,→你好,我是→…”),流式处理能让用户实时看到结果,体验更好。

Q:想加翻译功能怎么办?
A:在 aiService.js 里加一个 translateText 函数,然后在页面加个按钮调用它,逻辑和扩写完全一样。

Q:后端接口地址变了怎么办?
A:只需要改 vite.config.js 里的 target 地址,不用改业务代码。

通过这个例子,你应该能明白:调用 AI 接口其实就是 “传参数→等结果→显示结果” 这三步。不管是润色、扩写还是其他功能,都是同样的套路,换个函数名就行~

如果还有疑问,欢迎在评论区留言!

Read more

Llama-3.2-3B部署优化:Ollama配置context window与token限制详解

Llama-3.2-3B部署优化:Ollama配置context window与token限制详解 如果你正在使用Ollama运行Llama-3.2-3B,可能会遇到这样的问题:对话聊着聊着,模型好像“失忆”了,不记得之前说了什么;或者当你输入一段稍长的文本时,直接被截断,只处理了前面一小部分。 这通常不是模型本身的问题,而是默认的上下文长度(context window)和token限制设置不够用。今天,我就来手把手教你如何调整这些关键参数,让你的Llama-3.2-3B真正“火力全开”,处理更长的对话和文档。 1. 核心概念:为什么需要调整Context Window和Token限制? 在深入操作之前,我们先花两分钟搞懂两个关键名词,这能帮你更好地理解为什么要调整,以及调整到什么程度合适。 1.1 什么是Context Window(上下文窗口)? 你可以把Context Window想象成模型的工作记忆区或“短期记忆”。它决定了模型在生成下一个词时,能“看到”并参考之前多长的文本。 * 默认情况:很多模型,包括Ollama默认拉取的Llama-3.2-3B,

2026 届毕业生必看:各大学位论文 AIGC 检测率要求汇总,超过这个数真的危险了!

2026 届毕业生必看:各大学位论文 AIGC 检测率要求汇总,超过这个数真的危险了!

一、 前言 随着 2026 届毕业季的临近,很多小伙伴在写论文时都离不开 AI 的辅助。但今年最让大家头疼的不再仅仅是查重率,而是新出的AIGC 疑似度。 很多学校已经明确:如果 AIGC 检测超过阈值,直接取消答辩资格! 今天我就帮大家梳理一下目前主流的检测要求,以及如何正确应对。 二、 各大高校 AIGC 检测率“红线”汇总 虽然各校标准不一,但根据目前各大高校反馈的最新政策,基本可以划分为三个梯度: 风险等级AIGC 疑似度范围学校处理建议安全区< 20%基本无风险,属于合理参考范围。预警区20% - 40%导师需进行人工核查,可能要求提供写作痕迹证据。高危区> 40%极大可能被判定为“代写”或“学术不端”,面临延毕风险。 注意: 部分顶尖院校(如 C9

解锁AIGC新时代:通义万相2.1与蓝耘智算平台的完美结合引领AI内容生成革命

解锁AIGC新时代:通义万相2.1与蓝耘智算平台的完美结合引领AI内容生成革命

前言 通义万相2.1作为一个开源的视频生成AI模型,在发布当天便荣登了VBench排行榜的榜首,超越了Sora和Runway等业内巨头,展现出惊人的潜力。模型不仅能够生成1080P分辨率的视频,而且没有时长限制,能够模拟自然动作,甚至还可以还原物理规律,这在AIGC领域中简直堪称革命性突破。通过蓝耘智算平台,我们能够轻松部署这个模型,创建属于自己的AI视频生成工具。今天,我将为大家深入探讨通义万相2.1的强大功能,并分享如何利用蓝耘智算平台快速入门。 蓝耘智算平台 1. 平台概述 蓝耘智算平台是一个为高性能计算需求设计的云计算平台,提供强大的计算能力与灵活服务。平台基于领先的基础设施和大规模GPU算力,采用现代化的Kubernetes架构,专为大规模GPU加速工作负载而设计,满足用户多样化的需求。 2. 核心优势 * 硬件层: 蓝耘智算平台支持多型号GPU,包括NVIDIA A100、V100、H100等高性能显卡,能够通过高速网络实现多机多卡并行计算,突破单机算力瓶颈。 * 软件层: 集成Kubernetes与Docker技术,便于任务迁移与隔离;支持PyTo

ChatGPT免费版与微软Copilot深度对比:技术选型与新手避坑指南

作为一名开发者,最近在项目里想集成一个AI助手,面对市面上眼花缭乱的选择,尤其是免费的ChatGPT和微软力推的Copilot,到底该选哪个?这确实是个让人纠结的问题。我花了一些时间,从技术实现、实际调用到性能表现,做了一次比较深入的对比和测试,希望能给同样有选择困难的朋友们一些参考。 1. 市场定位与典型场景:它们各自擅长什么? 简单来说,你可以把ChatGPT免费版看作一个“通用型对话专家”,而微软Copilot更像一个“深度集成在微软生态里的专业副驾驶”。 * ChatGPT免费版:它的核心优势在于强大的通用对话和文本生成能力。无论是头脑风暴、撰写邮件、学习新概念,还是进行开放式的创意讨论,它都能提供质量不错的回应。对于开发者而言,它非常适合用于: * 学习新技术:解释复杂的编程概念或算法。 * 代码解释与重构:将一段代码丢给它,让它解释逻辑或提出优化建议。 * 生成示例代码:根据自然语言描述,快速生成某个功能的代码片段原型。 * 微软Copilot:它的设计初衷就是提升开发和生产效率,与Visual Studio Code、GitHub、Micros