本地服务器部署Text generation并添加code llama实现远程多人协作

本地服务器部署Text generation并添加code llama实现远程多人协作

文章目录

前言

本篇文章介绍如何在本地部署Text generation Web UI并搭建Code Llama大模型运行,并且搭建Code Llama大语言模型,结合Cpolar内网穿透实现公网可远程使用Code Llama。

Code Llama是一个可以使用文本提示生成代码的大型语言模型 (LLM)。可以使当前开发人员的工作流程更快、更高效,并降低学习编码人员的进入门槛。 Code Llama 有潜力用作生产力和教育工具,帮助程序员编写更强大、文档更齐全。

Text generation Web UI部署非常简便,不仅在github主页上直接提供了一键部署安装包,同时由于是web UI形式,直接通过浏览器即可操作,不过本地化部署,无法远程访问,这里我们结合cpolar工具实现从安装到最后实现远程访问。

那么接下来先在本地部署一个Text generation Web UI界面。

请添加图片描述

1. 本地部署Text generation Web UI

本篇文章测试环境:Windows10专业版

首先我们需要在本地部署Text generation Web UI,是一个基于Gradio的LLM Web UI开源项目,可以利用其快速搭建部署各种大模型环境。

github地址:https://github.com/facebookresearch/codellama

点击download,一键下载文件到本地

15c36f878d9fc541d8f2a74c822f71f.png

解压文件夹,然后打开文件,双击运行start_windows进行自动下载

image.png
4b1ebf5eadc046af0fcc3dda1d1e91c.png
1c7fa499d29d94af7e202184634ff69.png

安装过程中会有一次确认,根据自己的显卡和系统选择就可以了,这里我选择A(英伟达显卡)

f6ebdd0b4fc4750aab5f5ff01a99cee.png

安装完成后,可以看到本地地址是:http://127.0.0.1:7680,Ctrl+c终止它。

2. 安装CodeLlama大模型

接下来要下载CodeLlama模型,在Hugging face上直接下载转换好的模型

Hugging face格式模型 https://huggingface.co/codellama

选择Base Model

1d9884ebc63ab334ea567f987d44c03.png

然后依次下载下方红框中的文件

在这里插入图片描述
c0d493d7f8c4bdd4aaa1dc69cbe0f64.png

下载好后,然后选中这九个文件剪切,回到 text-generation-webui 目录中,进入 models 目录中,新建要给文件夹,名为 codellama-7b

5ef8e07ef3e8cd67d684fb9c4f06235.png

把刚才9个文件,都粘贴到这个新文件夹中

500b90b3827a9eb26e22699dae6fc89.png

然后回到text-generation-webui 目录中,双击打开 start_windows

72810330989c686b50035e8147f55fc.png

然后打开一个浏览器,输入localhost:7680,可以看到进入到了Text generation Web UI中

514e0b39a94c435f3d6da819829fa72.png

点击上方model切换到模型配置页面,在模型下拉列表这里选择 codellama-7b

3e39c2884398d5b3645093be2b16263.png

然后点击Load加载模型,接下来可以测试提出问题

在这里插入图片描述

然后把右侧上方的代码使用vscode测试一下,是否能得出结果

28fd64bca6241db98a220c4e1377532.png

可以看到,显示出了正确结果,目前我们在本机部署了 Text generation Web UI,并且还添加了code llama大模型,如果想团队协作多人使用,或者在异地其他设备使用的话就需要结合Cpolar内网穿透实现公网访问,免去了复杂得本地部署过程,只需要一个公网地址直接就可以进入到Text generation Web UI中。

接下来教大家如何安装Cpolar并且将 Text generation Web UI实现公网访问。

3. 实现公网远程使用Code Llama

下面是安装cpolar步骤:

Cpolar官网地址: https://www.cpolar.com

点击进入cpolar官网,点击免费使用注册一个账号,并下载最新版本的Cpolar

在这里插入图片描述

登录成功后,点击下载Cpolar到本地并安装(一路默认安装即可)本教程选择下载Windows版本。

Cpolar安装成功后,在浏览器上访问http://localhost:9200,使用cpolar账号登录,登录后即可看到Cpolar web 配置界面,结下来在web 管理界面配置即可。

在这里插入图片描述

接下来配置一下 text-generation-webui 的公网地址,

登录后,点击左侧仪表盘的隧道管理——创建隧道,

首先创建一个 LobeChat 的公网http地址隧道

  • 隧道名称:可自定义命名,注意不要与已有的隧道名称重复
  • 协议:选择http
  • 本地地址:7860 (本地访问的地址)
  • 域名类型:免费随机域名
  • 地区:选择China Top

点击创建

a4f507a45aa700bb7cae83d74387d54.png

隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网地址,有两种访问方式,一种是http 和https

baedada5cedd7ddcf35b51a222fe656.png

我们接下来使用http公网地址访问,可以看到我们访问到了 Text generation Web UI 界面,这样一个公网地址访问就创建好了。

在这里插入图片描述

小结

如果我们需要长期进行团队协作的话,由于刚才创建的是随机的地址,24小时会发生变化。另外它的网址是由随机字符生成,不容易记忆。如果想把域名变成固定的二级子域名,并且不想每次都重新创建隧道来访问Text generation Web UI,我们可以选择创建一个固定的http地址来解决这个问题。

4. 固定Text generation Web UI公网地址

由于以上使用cpolar所创建的隧道使用的是随机公网地址,24小时内会随机变化,不利于长期远程访问。因此我们可以为其配置二级子域名,该地址为固定地址,不会随机变化【ps:cpolar.cn已备案】

注意需要将cpolar套餐升级至基础套餐或以上,且每个套餐对应的带宽不一样。【cpolar.cn已备案】

登录cpolar官网,点击左侧的预留,选择保留二级子域名,地区选择china vip top,然后设置一个二级子域名名称,填写备注信息,点击保留。

32cb74ca916c4cef376991e7af47215.png

保留成功后复制保留的二级子域名地址:

c777135bed1169843e25cb2415a432f.png


登录cpolar web UI管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道,点击右侧的编辑

798347f47f02fee855343434d72148c.png

修改隧道信息,将保留成功的二级子域名配置到隧道中

  • 域名类型:选择二级子域名
  • Sub Domain:填写保留成功的二级子域名
  • 地区: China VIP

点击更新

在这里插入图片描述

更新完成后,打开在线隧道列表,此时可以看到随机的公网地址已经发生变化,地址名称也变成了保留和固定的二级子域名名称。

f6cbf1d131005884e6efe3bd4f03cad.png

最后,我们使用固定的公网地址访问Text generation Web UI界面可以看到访问成功,一个永久不会变化的远程访问方式即设置好了。

9637c19466bbfa0379b2d71d6accadb.png

接下来就可以随时随地进行异地公网来使用Code Llama大模型了,把固定的公网地址分享给身边的人,方便团队协作,同时也大大提高了工作效率!自己用的话,无需云服务器,还可以实现异地其他设备登录!以上就是如何在本地安装Code Llama以及在本地部署 Text generation Web UI 可视化界面的全部过程。

Read more

中小企业AI入门首选:M2FP零代码WebUI快速验证业务价值

中小企业AI入门首选:M2FP零代码WebUI快速验证业务价值 在人工智能技术日益普及的今天,中小企业面临着“想用AI却怕门槛高、成本大、见效慢”的普遍困境。如何以最低的技术投入,快速验证AI在具体业务场景中的实际价值?本文将介绍一款专为零代码需求、无GPU环境、快速验证而生的AI工具——基于ModelScope M2FP模型构建的多人人体解析服务(WebUI + API)镜像方案。 该方案不仅实现了开箱即用的可视化交互体验,更通过深度优化解决了主流框架间的兼容性顽疾,真正做到了“上传图片→秒出结果”的极简流程,是零售试衣、健身姿态分析、虚拟形象生成等场景的理想验证起点。 🧩 什么是M2FP多人人体解析服务? M2FP(Mask2Former-Parsing)是一种面向精细化人体语义分割的先进深度学习模型,由ModelScope平台提供支持。与传统的人体分割仅区分“人”和“背景”不同,M2FP能够对图像中多个个体的身体部位进行像素级识别与分类,涵盖: * 面部、头发、左/右眼、左/右耳 * 上衣、内衣、外套、裤子、裙子、

Gemma-3-12B-IT WebUI一文详解:指令微调版对比基础版的对话能力跃迁

Gemma-3-12B-IT WebUI一文详解:指令微调版对比基础版的对话能力跃迁 1. 引言:当模型学会“听话” 想象一下,你面前有两个同样聪明的助手。一个博览群书,知识渊博,但说话总是天马行空,答非所问。另一个不仅知识渊博,还能精准理解你的意图,用你期望的方式回答问题,甚至能和你进行有来有回的对话。你会选择哪一个? 这就是Gemma-3-12B基础版(预训练模型)和Gemma-3-12B-IT版(指令微调模型)最核心的区别。今天,我们不谈复杂的算法原理,就从一个普通开发者的视角,通过这个开箱即用的WebUI,来亲身体验一下,一个经过“指令微调”训练的大模型,在真实的对话场景中,到底能带来多大的体验提升。 简单来说,指令微调(Instruction Tuning) 就是让模型学会“听话”和“好好说话”的过程。它不再仅仅是预测下一个词,而是学习如何理解人类的指令,并生成符合指令要求的、有帮助的、安全的回复。这听起来简单,但带来的改变是颠覆性的。 接下来,

从零实战!使用 Mars3D 快速构建水利监测 WebGIS 系统

从零实战!使用 Mars3D 快速构建水利监测 WebGIS 系统

前言 在智慧水利、数字孪生流域等项目的建设中,一个直观、高效的地理信息可视化平台至关重要。传统的 GIS 开发往往门槛较高,而 Mars3D 作为一个基于 CesiumJS 的国产开源 WebGL 地图引擎,极大地简化了三维地球应用的开发流程。 本文将手把手带你,利用 Mars3D 插件,快速搭建一个功能丰富的水利监测 WebGIS 系统。我们将实现以下核心功能: 1. 加载天地图作为底图 2. 动态加载并标记多种类型的水利站点(大坝、水文站、雨量站等) 3. 为关键区域(如水库)添加描边和逼真的水面水纹特效 4. 实现站点搜索与定位 5. 集成图例筛选功能 通过本文,你将掌握 Mars3D 在实际项目中的基本用法,并能快速复用到自己的项目中。 一、环境准备与 Mars3D 安装 我们的项目基于 Vue3

前端人别卷网页了!7天用Electron搞定桌面应用,工资翻倍不是梦

前端人别卷网页了!7天用Electron搞定桌面应用,工资翻倍不是梦

前端人别卷网页了!7天用Electron搞定桌面应用,工资翻倍不是梦 * 前端人别卷网页了!7天用Electron搞定桌面应用,工资翻倍不是梦 * 瞎扯淡的开场白:为什么你的简历还缺个"桌面端"项目 * 扒一扒Electron这货的底裤 * 套壳浏览器?这么说对也不对 * 除了Electron,这几个备胎也得认识 * 为啥大厂都爱用Electron? * 手把手教你把网页"塞"进桌面图标里 * 脚手架一把梭,别傻傻敲命令 * main.js里的那些破事儿 * preload脚本:别把它当摆设 * 这框架虽好,但这几个坑踩进去就拔不出来 * 打包体积:塞了整个Chrome进去? * 内存占用:低配电脑杀手 * 自动更新:配置起来想砸键盘 * 安全性:别让应用变成筛子 * 实战环节:做个能摸鱼的本地记事本 * 程序崩了别只会重启,这几招能让你少掉几根头发 * 主进程挂了怎么查? * 渲染进程白屏了? * 内存泄漏排查