2026款网页版AI Chat对话|Vite7+Vue3+DeepSeek-R1纯手搓web版流式ai聊天系统

2026款网页版AI Chat对话|Vite7+Vue3+DeepSeek-R1纯手搓web版流式ai聊天系统

最新原创vite7.2集成deepseek-v3.2聊天大模型搭建本地网页版Ai对话。

deepseek-vue3-webai:运用vite7.2+vue3.5+arco-design集成deepseek-v3.2打造网页版ai系统。提供浅色/暗黑两种主题、深度思考R1、代码高亮/复制、Latex数学公式、Mermaid图表渲染
在这里插入图片描述


在这里插入图片描述

技术栈

  • 编辑器:VScode
  • 前端框架:vite7.2.4+vue3.5.24+vue-router^4.6.4
  • 大模型框架:DeepSeek-R1 + OpenAI
  • 组件库:arco-design^2.57.0 (字节桌面端组件库)
  • 状态管理:pinia^3.0.4
  • 本地存储:pinia-plugin-persistedstate^4.7.1
  • 高亮插件:highlight.js^11.11.1
  • markdown插件:markdown-it
  • katex公式:@mdit/plugin-katex^0.24.1
在这里插入图片描述

项目特色

  1. 最新版Vite7.2接入DeepSeek流式输出,性能更丝滑流畅
  2. 提供暗黑+浅色两种主题、侧边栏收缩
  3. 支持丰富Markdown样式,代码高亮/复制/收缩功能
  4. 新增思考模式DeepSeek-R1
  5. 支持Katex数学公式
  6. 支持Mermaid各种甘特图/流程图/类图等图表
  7. 使用arco-design组件库,风格统一,美观大气
在这里插入图片描述

项目结构框架

使用最新vite7.2构建项目,集成deepseek-v3.2 chat大模型。

在这里插入图片描述
vite7-webseek网页端ai项目已经更新到我的原创作品集,欢迎下载使用。

原创vite7+vue3+deepseek网页版ai对话模板
在这里插入图片描述

项目deepseek key配置

在这里插入图片描述


如上图:替换下项目根目录下.env文件里的deepseek apikey即可体验ai流式对话。

# title VITE_APP_TITLE='Vue3-Web-DeepSeek' # port VITE_PORT=3001 # 运行时自动打开浏览器 VITE_OPEN=true # 开启https VITE_HTTPS=false # 是否删除生产环境 consoleVITE_DROP_CONSOLE=true # DeepSeek API配置 VITE_DEEPSEEK_API_KEY= 替换为你的 API Key VITE_DEEPSEEK_BASE_URL= https://api.deepseek.com 
在这里插入图片描述


在这里插入图片描述


项目布局模板

在这里插入图片描述

项目布局结构如下图所示:

在这里插入图片描述
<script setup>import Sidebar from'@/layouts/components/sidebar/index.vue'</script><template><div class="vu__container"><div class="vu__layout flexbox flex-col"><div class="vu__layout-body flex1 flexbox"><!-- 侧边区域 --><Sidebar /><!-- 主面板区域 --><div class="vu__layout-main flex1"><router-view v-slot="{ Component, route }"><keep-alive><component :is="Component":key="route.path"/></keep-alive></router-view></div></div></div></div></template>

vue3实现deepseek深度思考模式

在这里插入图片描述


在这里插入图片描述
// 调用deepseek接口const completion =await openai.chat.completions.create({// 单一会话/* messages: [ {role: 'user', content: editorValue} ], */// 多轮会话 messages: props.multiConversation ? historySession.value :[{role:'user', content: editorValue}],// deepseek-chat对话模型 deepseek-reasoner推理模型 model: sessionstate.thinkingEnabled ?'deepseek-reasoner':'deepseek-chat', stream:true,// 流式输出 max_tokens:8192,// 一次请求中模型生成 completion 的最大 token 数(默认使用 4096) temperature:0.4,// 严谨采样})

vue3-deepseek集成katex和mermaid插件

import{ katex }from"@mdit/plugin-katex";// 支持数学公式import'katex/dist/katex.min.css'// 渲染mermaid图表import{ markdownItMermaidPlugin }from'@/components/markdown/plugins/mermaidPlugin'

渲染流式输出Markdown。

<Markdown :source="item.content":html="true":linkify="true":typographer="true":plugins="[[katex,{delimiters:'all'}],[markdownItMermaidPlugin,{...}]]" @copy="onCopy"/>
在这里插入图片描述


在这里插入图片描述
exportconstmarkdownItMermaidPlugin=(md, options)=>{const defaultFence = md.renderer.rules.fence md.renderer.rules.fence=(...args)=>{const[tokens, idx]= args const token = tokens[idx]const lang = token.info.replace(/\[.*\]/,'').trim()||''if(lang ==='mermaid'){const code = token.content.trim()const hash =generateHash(code)const uuid =`${hash}-${Date.now()}-${Math.random().toString(36).substring(2,9)}`// 如果有缓存,加载缓存图表if(renderCache.has(hash)){// console.log('加载缓存mermaid图表')return`${defaultFence(...args)} <div>${renderCache.get(hash)}</div> `}nextTickRender(uuid)return`${defaultFence(...args)} <div> <div>📊Mermaid 图表加载中...</div> </div> `}returndefaultFence(...args)}functionnextTickRender(containerId){// 如果容器存在,直接渲染if(document.getElementById(containerId)){renderMermaidDiagram(containerId)return}// 使用MutationObserver监听DOM更新const observer =newMutationObserver((mutations, ob)=>{const container = document.getElementById(containerId)if(container){ ob.disconnect()renderMermaidDiagram(containerId)}}) observer.observe(document.body,{ childList:true, subtree:true})}asyncfunctionrenderMermaidDiagram(containerId){const container = document.getElementById(containerId)if(!container){console.warn(`Mermaid container #${containerId} not found`)return}const code =decodeURIComponent(container.dataset.mermaidCode)const hash = container.dataset.mermaidHash if(!code){return}// 检查 mermaid 是否可用if(typeof window.mermaid ==='undefined'){showError(container,'Mermaid 库未加载!')return}try{// 配置 mermaid(如果还未配置)if(!window.mermaid.initialized){ window.mermaid.initialize({ startOnLoad:false, theme:'default', securityLevel:'loose',}) window.mermaid.initialized =true}let svg // 检查缓存if(renderCache.has(hash)){ svg = renderCache.get(hash)}else{const{ isValid }=awaitverifyMermaid(code)if(!isValid){showError(container,`<pre>渲染语法错误:\n${ code }\n</pre>`)return}// 使用唯一ID渲染(避免图表冲突)const{svg: renderedSvg}=await window.mermaid.render(`mermaid-${containerId}`, code) svg = renderedSvg renderCache.set(hash, svg)} container.innerHTML = svg container.removeAttribute('data-mermaid-hash') container.removeAttribute('data-mermaid-code')// 触发回调if(options?.reachBottom){ options?.onRender?.()}}catch(error){console.error('Mermaid 渲染失败:', error)showError(container,`<pre>渲染图表时出错: \n ${error.message}\n</pre>`)}}}
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述



在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

vue3调用deepseek api

// 调用deepseek接口const completion =await openai.chat.completions.create({// 单一会话// messages: [{role: 'user', content: editorValue}],// 多轮会话 messages: props.multiConversation ? historySession.value :[{role:'user', content: editorValue}],// deepseek-chat对话模型 deepseek-reasoner推理模型 model: sessionstate.thinkingEnabled ?'deepseek-reasoner':'deepseek-chat', stream:true,// 流式输出 max_tokens:8192, temperature:0.4})

处理流式生成内容。

forawait(const chunk of completion){// 检查是否已终止if(sessionstate.aborted)breakconst content = chunk.choices[0]?.delta?.content ||''// 获取推理内容const reasoningContent = chunk.choices[0]?.delta?.reasoning_content ||''if(content || reasoningContent){ answerText += content reasoningText += reasoningContent // 限制更新频率:每100ms最多更新一次const now = Date.now()if(now - lastUpdate >100){ lastUpdate = now requestAnimationFrame(()=>{// ...})}}if(chunk.choices[0]?.finish_reason ==='stop'){// ...}}
在这里插入图片描述


Ok,以上就是vite7+vue3接入deepseek搭建网页版ai系统的一些项目分享,感谢大家的阅读与支持。

往期推荐

基于uni-app+vue3+deepseek+uv-ui仿DeepSeek流式AI聊天模板
2026最新版vite7.2+vue3.5+deepseek-v3.2+markdown移动端流式AI对话模板
最新款Electron38+Vue3+Vite7+ElementPlus客户端中后台管理系统
Electron38-Vue3Chat电脑端聊天|vite7+electron38+pinia3仿微信
基于Electron38.2+Vite7+Vue3+ArcoDesign客户端OS系统
基于uni-app+vue3+pinia2+uv-ui仿抖音app短视频+聊天+直播商城系统
2025最新款Tauri2.9+Vite7.2+Vue3 setup+ArcoDesign电脑版os后台解决方案
基于tauri2+vite7.1+vue3 setup+pinia3+element-plus电脑端聊天系统
Tauri2-Vite7Admin客户端管理后台|tauri2.9+vue3+element-plus后台系统
最新版vite7-vue3-webos网页版仿macos系统|Vite7+Pinia3+Arco网页os
2025跨端uniapp+vue3+uv-ui实战仿微信app聊天模板
基于uniapp+vue3跨端手机admin管理系统uniapp-vue3os
基于flutter3.32+window_manager+get仿macOS/wins桌面os系统
最新flutter3.27+get+bitsdojo_window电脑版仿微信聊天EXE

Read more

ROS2机器人slam_toolbox建图零基础

系统:Ubuntu22.04 ROS2版本:Humble 雷达设备:rplidar_a1 一、安装必要的软件包 # 更新系统 sudo apt update # 安装slam_toolbox sudo apt install ros-humble-slam-toolbox # 安装RPLidar驱动 sudo apt install ros-humble-rplidar-ros # 安装导航相关包 sudo apt install ros-humble-navigation2 ros-humble-nav2-bringup 二、配置RPLidar_A1 创建udev规则(让系统识别雷达) # 创建udev规则 echo 'KERNEL=="ttyUSB*", ATTRS{idVendor}=="10c4", ATTRS{idProduct}

机器人架构搭建核心准则:先论文论证,后工程落地

机器人架构搭建核心准则:先论文论证,后工程落地

原创声明:本文为原创技术干货,基于真实工程实践总结,未经授权严禁转载与篡改。 本文写给那些正在或将要主导机器人架构的技术决策者与一线工程师——无论你是CTO、架构师,还是嵌入式开发、算法工程师,只要你关心如何让机器人项目不再烂尾,这篇文章值得你读完。 注意:文中反复出现的“论文”,特指“工程论文”(区别于学术论文),是一份写给团队自己的工程蓝图。请务必读完第二部分的定义,再决定是否认同。 核心观点 在机器人架构设计与实施过程中,先完成系统性论文论证,再开展工程化架构落地,是保障项目可行、流程闭环、资源高效利用的核心前提,也是区分专业机器人架构师与无序开发的关键标准。 金句:先论文后落地,本质上是用确定性的逻辑推导,去对抗不确定性的物理世界。 一、行业普遍认知误区 当前机器人领域从业者普遍存在开发误区:直接跳过前期规划与逻辑论证,盲目开展硬件采购、框架搭建、代码开发与接口调试,将功能拼接等同于架构设计。这种模式缺乏顶层逻辑支撑与可行性验证,本质是无方向的盲目实施,也是多数机器人项目停滞、返工、烂尾的核心诱因。 这种开发就像农村自建房,凭感觉垒砖,从不考虑地质勘测和结构力学

Android集成WebRTC与VAD的AI辅助开发实战:从选型到性能优化

快速体验 在开始今天关于 Android集成WebRTC与VAD的AI辅助开发实战:从选型到性能优化 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 Android集成WebRTC与VAD的AI辅助开发实战:从选型到性能优化 移动端实时语音处理一直是个技术难点。根据实测数据,普通Android设备处理16kHz采样率的音频流时,仅WebRTC基础通话就会占用12-15%的CPU资源,如果再加上VAD检测,CPU占用可能飙升到25%以上。更棘手的是,从麦克风采集到

高性能OCR落地利器|DeepSeek-OCR-WEBUI开源实践

高性能OCR落地利器|DeepSeek-OCR-WEBUI开源实践 1. 引言:OCR技术的工程化挑战与新解法 在数字化转型加速的背景下,光学字符识别(OCR)已成为文档自动化、信息提取和智能审核等场景的核心技术。然而,传统OCR方案在面对复杂版面、模糊图像或多语言混合文本时,往往表现不佳,且部署流程繁琐,严重制约了其在实际业务中的广泛应用。 DeepSeek-OCR 的出现为这一难题提供了全新思路。作为一款基于深度学习的大模型驱动OCR系统,它不仅具备高精度、强鲁棒性的识别能力,更通过 DeepSeek-OCR-WEBUI 这一开源项目实现了“零代码+网页端交互”的极简使用模式。本文将围绕该镜像的技术特性、部署流程与核心功能展开详细解析,帮助开发者快速掌握其工程化落地方法。 2. 技术架构解析:DeepSeek-OCR的核心优势 2.1 模型设计原理 DeepSeek-OCR 采用 CNN + Transformer注意力机制 的混合架构: * 前端卷积网络(CNN) 负责图像特征提取,对倾斜、模糊、低分辨率等退化图像具有良好的适应性; * 中段序列建模模块 利