前端vue项目打包及部署的详细说明

一、本地项目打包
1. 安装依赖

确保项目依赖完整:

npm install # 或 yarn install 
2. 环境配置

在项目根目录创建环境文件,区分开发和生产环境:

.env.production(生产环境)

NODE_ENV=production VUE_APP_API_BASE=https://api.your-domain.com

.env.development(开发环境)

NODE_ENV=development VUE_APP_API_BASE=http://localhost:3000/api
3. 执行打包命令

使用 Vue CLI 进行生产构建:

npm run build # 或 yarn build
  • 输出目录:默认生成 dist/ 文件夹,包含:
    • index.html(入口文件)
    • css/(样式文件)
    • js/(脚本文件)
    • fonts/(字体文件)
    • img/(图片资源)

二、打包优化
1. 分析构建体积

使用 webpack-bundle-analyzer 查看打包文件体积:

npm install --save-dev webpack-bundle-analyzer

在 vue.config.js 中配置:

module.exports = { chainWebpack: (config) => { config.plugin('webpack-bundle-analyzer') .use(require('webpack-bundle-analyzer').BundleAnalyzerPlugin); } }; 

运行分析:

npm run build -- --report 
2. 优化手段
  • 代码分割:动态导入组件(() => import('./Component.vue'))。
  • 压缩资源:启用 gzip/brotli 压缩。

CDN 引入:将 vuevue-router 等库通过 CDN 加载。

// vue.config.js module.exports = { configureWebpack: { externals: { vue: 'Vue', 'vue-router': 'VueRouter' } } }; 

三、部署方式
1. 静态托管服务(推荐)

适用于 NetlifyVercelGitHub Pages 等平台:

  1. 将 dist/ 目录推送到代码仓库。
  2. 在托管平台关联仓库,设置构建命令为 npm run build
  3. 配置自定义域名和 HTTPS。
2. 自有服务器(Nginx)
  1. 上传 dist/ 到服务器(如 /var/www/your-project)。

 重启 Nginx:

sudo systemctl restart nginx 

配置 Nginx:

server { listen 80; server_name your-domain.com; root /var/www/your-project/dist; index index.html; location / { try_files $uri $uri/ /index.html; # 支持 Vue Router 的 history 模式 } # 代理 API 请求 location /api { proxy_pass http://backend-server:3000; proxy_set_header Host $host; } } 
3. Docker 容器化部署

构建并运行容器:

docker build -t vue-app . docker run -d -p 8080:80 vue-app 

创建 Dockerfile

# 使用 Node 镜像构建 FROM node:16 as build-stage WORKDIR /app COPY package*.json ./ RUN npm install COPY . . RUN npm run build # 使用 Nginx 镜像运行 FROM nginx:alpine as production-stage COPY --from=build-stage /app/dist /usr/share/nginx/html COPY nginx.conf /etc/nginx/conf.d/default.conf EXPOSE 80 CMD ["nginx", "-g", "daemon off;"] 

四、常见问题与解决
1. 静态资源路径错误

在 vue.config.js 中配置 publicPath

module.exports = { publicPath: process.env.NODE_ENV === 'production' ? '/your-subpath/' : '/' }; 
2. 接口跨域问题

开发环境配置代理(vue.config.js):

module.exports = { devServer: { proxy: { '/api': { target: 'http://api-server:3000', changeOrigin: true } } } }; 
3. 浏览器缓存问题

为文件名添加哈希(默认已配置):

// vue.config.js module.exports = { filenameHashing: true // 生成形如 app.4a3b2c1d.js }; 

五、自动化部署(CI/CD)
1. GitHub Actions 示例

在 .github/workflows/deploy.yml 中配置:

name: Deploy on: push: branches: [main] jobs: build-and-deploy: runs-on: ubuntu-latest steps: - uses: actions/checkout@v3 - uses: actions/setup-node@v3 with: node-version: 16 - run: npm install - run: npm run build - uses: peaceiris/actions-gh-pages@v3 with: github_token: ${{ secrets.GITHUB_TOKEN }} publish_dir: ./dist 
2. Jenkins 流水线
pipeline { agent any stages { stage('Build') { steps { sh 'npm install' sh 'npm run build' } } stage('Deploy') { steps { sh 'scp -r dist/ user@server:/var/www/your-project' } } } } 

六、部署后验证

  1. 访问页面,检查功能是否正常。
  2. 使用 Chrome DevTools 的 Network 面板确认资源加载无误。
  3. 使用 Lighthouse 进行性能评分。

总结

  • 本地构建:npm run build 生成 dist/。
  • 部署方式:静态托管、自有服务器、Docker 容器化。
  • 优化核心:代码分割、CDN、缓存策略。
  • 自动化:集成 GitHub Actions/Jenkins 实现 CI/CD。

按此流程操作,可确保 Vue 项目高效、稳定地部署到生产环境。

Read more

在魔乐社区使用llama-factory微调Qwen3.5-4B模型

在魔乐社区使用llama-factory微调Qwen3.5-4B模型

微调前期准备 下载qwen3.5-4B模型 # 首先保证已安装git-lfs(https://git-lfs.com)git lfs installgit clone https://modelers.cn/Qwen-AI/Qwen3.5-4B.git 下载Llama-factory git clone --depth1 https://gh.llkk.cc/https://github.com/hiyouga/LlamaFactory.git 微调环境搭建 我们依然是搭建一个miniconda #清除当前shell会话中的PYTHONPATH环境变量unset PYTHONPATH # 安装minicondawget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-aarch64.sh bash Miniconda3-latest-Linux-aarch64.sh conda config --set

文心一言开源版部署及多维度测评实例

文心一言开源版部署及多维度测评实例

文章目录 * 第一章 文心一言开源模型简介 * 第二章 模型性能深度实测 * 2.1 通用能力基准测试 * 2.1.1 文本生成质量 * 2.1.2 数学推理能力 * 2.2 极端场景压力测试 * 2.2.1 高并发性能 * 2.2.2 长上下文记忆 * 第三章 中文特色能力解析 * 3.1.2 文化特定理解 * 3.2 行业术语处理 * 3.2.1 法律文书解析 * 3.2.2 医疗报告生成 * 第四章 开源生态建设评估 * 4.1 模型可扩展性验证 * 4.

[源力觉醒 创作者计划]_文心一言 4.5开源深度解析:性能狂飙 + 中文专精

[源力觉醒 创作者计划]_文心一言 4.5开源深度解析:性能狂飙 + 中文专精

文章目录 * [源力觉醒 创作者计划]_文心一言 4.5开源深度解析:性能狂飙 + 中文专精 * 一. 部署实战:单卡环境的极速落地 * 1.1 🖥️ 环境配置の手把手教程 📝 * 部署准备:硬件与镜像 * 依赖安装:一行代码搞定 * 1.2 🚀 模型启动の参数与验证 ✅. * 二. 多场景能力验证:从工业到学术 * 2.1 🏥 医疗影像诊断:从模糊影像到病灶定位 * 2.2 🚦 交通流优化:动态拥堵预测与策略设计 * 2.3 🔍 考古文本破译:甲骨文符号的跨学科解读 * 三. 性能优化与问题解决 * 3.1 🚀 性能优化策略:让模型跑得更快 * 3.2 🛠️ 常见错误解决方案 * 四. 与同类模型对比 * 🍬 核心优势对比🍭 * 🍬 对比结论🍭 * 五、

告别 GitHub Copilot?Roo Code 深度上手指南:从API配置到实战,打造你的 AI 编程私有云

告别 GitHub Copilot?Roo Code 深度上手指南:从API配置到实战,打造你的 AI 编程私有云

前言:除了 Copilot,我们还能期待什么? 作为一名在代码世界摸爬滚打多年的开发者,你是否感觉到 IDE 的进化似乎到了一个瓶颈? 过去的十年,我们见证了从“记事本”到“智能感知 (IntelliSense)”,再到 GitHub Copilot 的“智能补全”。但说实话,现在的 AI 编程助手大多还停留在“副驾驶”的位置——你需要时刻盯着它,光标移到哪,它补到哪。一旦逻辑复杂一点,它就只能给你生成一堆看似通顺实则跑不通的“幻觉代码”。 如果 AI 不再只是“补全代码”,而是像一个真正的初级工程师那样,能理解你的需求、自己规划任务、跑测试、修 Bug 呢? 这就是我们将要讨论的主角:Roo Code。它代表了软件工程的第四阶段——自主智能代理 (Autonomous Agents)。在这个阶段,