【LocalAI】 本地部署图文教程(Windows + GPU + 多模态模型)

【LocalAI】 本地部署图文教程(Windows + GPU + 多模态模型)

第一部分:核心概念

  1. Docker镜像:可以理解为软件的“安装包”或“模板”。例如,localai/localai:latest-gpu-nvidia-cuda-12 就是一个包含了LocalAI所有运行环境的镜像。
  2. Docker容器:是“镜像”运行起来的实例。你可以把一个容器看作一个轻量级、独立的虚拟机,你的LocalAI服务就在这里面运行。

简单来说:下载镜像 -> 从镜像创建并运行容器 -> 访问容器内的服务

第二部分:Windows实战部署LocalAI

请按照以下步骤操作。

步骤 1:安装Docker Desktop for Windows

参考文章:Windows安装doker教程

步骤 2:拉取并运行LocalAI容器

这是最关键的一步。请注意,在Windows PowerShell中,命令不需要加 sudo

  1. 打开PowerShell:以管理员身份运行Windows PowerShell。
    • -d:后台运行容器。
    • --name local-ai:给容器起名,便于管理。
    • -p 8080:8080:将本机的8080端口映射到容器的8080端口。
    • --gpus all:将主机的所有GPU分配给容器使用(需要NVIDIA显卡及驱动)。
    • -v D:\LocalAI\Models:/build/models:将本地目录 D:\LocalAI\Models 挂载到容器内的 /build/models 路径。这是存放模型文件的地方
    • localai/localai:latest-aio-gpu-nvidia-cuda-12:使用的GPU版本镜像。
  2. 验证运行:运行 docker ps,如果看到名为 local-ai 的容器状态为 Up,说明启动成功。

运行GPU容器:你拥有NVIDIA GPU且需要GPU推理,因此运行以下命令。注意挂载路径是 /build/models,这是很多教程中未提及的关键点。

docker run -d --name local-ai -p 8080:8080 --gpus all -v D:\LocalAI\Models:/build/models localai/localai:latest-aio-gpu-nvidia-cuda-12 

命令解读

步骤 3:下载并配置多模态大模型

我来帮你把第三部分补充完整,并结合你上传的图片内容和之前的描述,让整个流程更清晰易懂。


第三部分:下载并配置多模态大模型

在 Docker 容器成功运行后,你就可以在本机浏览器访问 LocalAI 的 Web 界面,来下载并加载多模态大模型(比如视觉语言模型)。下面详细说明操作步骤和可能遇到的问题。

3.1 访问 LocalAI Web 界面

  1. 打开浏览器,访问 http://localhost:8080/
  2. 或者点击容器中的PORT:8080/8080:
在这里插入图片描述


就会看到如下界面:

在这里插入图片描述

首次进入时,你会看到模型选择区,提示 Select a model to chat with…,右侧有文件、麦克风、图片、发送等图标。
界面下方有 Installed Models and BackendsImport ModelBrowse Gallery 三个入口。
我们 点击 👉 Browse Gallery,去里面找模型。


  1. 进入模型浏览界面:
    • 顶部搜索框输入模型名称 qwen3-vl-4b-instruct 或者其他模型。
    • 下方有按类型过滤的按钮,确保 Vision 按钮为红色选中状态(因为这是一个视觉语言多模态模型)。
在这里插入图片描述

- 列表中会显示模型信息:
- Model Name: qwen3-vl-4b-instruct
- Description: Qwen3-VL-4B-Instruct is the 4B parameter …
- Repository: localai
- License: apache-2.0
- Status: Not Installed
- Actions: 提供下载/安装按钮
2. 点击 Install/Download 按钮开始安装模型。


3.3 处理安装失败的情况

需要科学上网,就会看到:

在这里插入图片描述


如果在下载过程中出现错误提示:

Error installing model "qwen3-vl-4b-instruct": Get "https://raw.githubusercontent.com/mudler/LocalAI/master/gallery/qwen3.yaml": unexpected EOF 
在这里插入图片描述
  • 原因分析
    unexpected EOF 表示在读取远程 YAML 配置文件时,网络连接中断或文件未完整下载,常见于 GitHub 原始文件链接在某些地区无法直接访问(需“科学上网”或稳定国际网络)。
  • 解决方法
    1. 开启可稳定访问 GitHub 的网络环境。
    2. 重新点击安装,等待模型下载完成。

下载成功后,模型状态会从 Not Installed 变为已安装,可在 Installed Models and Backends 中看到。


3.4 关于容器重启后访问延迟的解释

如果你不小心关闭或重启了 LocalAI 容器:

在这里插入图片描述


再次访问 http://localhost:8080/ 时可能会暂时出现 无法加载页面 的情况:

在这里插入图片描述
  • 原因
    • 容器启动后,LocalAI 服务需要时间初始化(加载依赖、检查模型文件、启动后端服务等),通常需 几分钟
    • 在初始化完成前,Web 服务端口虽已映射,但应用本身并未完全就绪,因此浏览器会显示连接失败或超时。
  • 建议
    启动容器后,先通过 docker ps 确认容器状态为 Up,再等待约 1–3 分钟,然后刷新页面即可正常访问。

第四部分:首页测试大模型

返回首页,刷新,我们就可以选择刚才下载好的这个模型,并且,我们上传一个图像,然后附上文字,描述图片。就会看到,已经在调用本地的GPU开始预测了。一会,就得到了文本输出。

在这里插入图片描述
这是一张萌态十足的宠物照片,主角是一只穿着卡通老鼠服装的猫咪。 详细描述:

主体:一只棕色虎斑猫,正坐着,表情呆萌可爱,大大的眼睛直视镜头,显得十分无辜和专注。
服装:猫咪穿着一套完整的灰色老鼠造型连体衣,设计非常逼真: 头部:帽子部分有两只大大的、圆形的米色耳朵,耳朵内侧是浅粉色,造型非常卡通。
面部:帽子正面印有经典的卡通老鼠脸,包括黑色的大眼睛、黑色的瞳孔、一个黑色的小鼻子和几根胡须。
身体:衣服的腹部部分是米色的,中间有一条浅色的横向条纹,下方是白色的“肚兜”部分,后背还有一个白色的蝴蝶结装饰。
四肢:衣服覆盖了猫的四肢,前爪和后爪都清晰可见,爪子的毛色与身体协调。

背景与环境:猫咪坐在一个灰色的毛绒地毯上,背景是素净的浅色墙壁,环境简洁,突出了猫咪本身。
整体风格:照片整体呈现出一种温馨、治愈、搞笑的风格,将猫咪的可爱与卡通形象完美结合,令人忍俊不禁。

这张照片非常适合作为社交媒体的分享图,展现了宠物的创意造型和萌宠魅力。

第五部分:Python 调用多模态模型

下面,我们给出在 PyCharm 中调用本地 LocalAI 多模态模型(如 qwen3-vl-4b-instruct)的完整示例,支持传入图像+文本并获取模型输出。


一、前置检查

  • 确保 LocalAI 容器已启动并可在浏览器打开 http://localhost:8080/,且模型 qwen3-vl-4b-instruct 处于 Installed 状态。
  • 如需 GPU 加速,确认本机 NVIDIA 驱动 + Docker GPU 支持 正常;容器内执行 nvidia-smi 可验证(进入容器:docker exec -it local-ai bash)。

在 PowerShell 中确认容器运行正常:

docker ps

二、安装依赖

在 PyCharm 新建项目后,安装所需 Python 包(建议使用虚拟环境):

uv pip install -U openai requests pillow 

说明:

  • openai:使用与 OpenAI 兼容的接口调用 LocalAI。
  • requests:兜底用,直接调用 REST 接口。
  • pillow:读取本地图片并转为 Base64。

三、方案一 OpenAI 兼容客户端调用(推荐)

新建文件:client_openai.py

import base64 import time from pathlib import Path import openai # 1) 配置指向本地 LocalAI(与 OpenAI 兼容) client = openai.OpenAI( base_url="http://127.0.0.1:8080/v1",# LocalAI 默认 OpenAI 兼容端口 api_key="EMPTY",# 本地无需密钥)defimage_to_base64(image_path:str)->str: data = Path(image_path).read_bytes()return base64.b64encode(data).decode("utf-8")defchat_with_vision( model:str, image_path:str, prompt:str, temperature:float=0.2, max_tokens:int=1024,): b64_img = image_to_base64(image_path) messages =[{"role":"user","content":[{"type":"text","text": prompt},{"type":"image_url","image_url":{"url":f"data:image/jpeg;base64,{b64_img}"},},],}] start = time.time() resp = client.chat.completions.create( model=model, messages=messages, temperature=temperature, max_tokens=max_tokens,) elapsed = time.time()- start print(f"【Prompt tokens】{resp.usage.prompt_tokens}")print(f"【Completion tokens】{resp.usage.completion_tokens}")print(f"【Elapsed】{elapsed:.2f}s")print("【Response】", resp.choices[0].message.content.strip())if __name__ =="__main__":# 注意:这里填写你在 Gallery 中安装后的实际模型名称 MODEL_NAME ="qwen3-vl-4b-instruct" chat_with_vision( model=MODEL_NAME, image_path="assets/demo.jpg",# 请替换为你的图片路径 prompt="请用中文详细描述这张图片,并指出图中主要物体的位置、颜色和动作。", temperature=0.2, max_tokens=1024,)

使用要点:

  • MODEL_NAME 替换为你 Gallery 中已安装的模型名(可在页面 Installed Models and Backends 查看)。
  • 图片支持 JPEG/PNG 等常见格式;大图可先压缩以提升上传与推理速度。
  • 若显存较小,可适当降低 max_tokens 或改用更轻量模型。

四、方案二 直接 REST 调用(requests)

新建文件:client_rest.py

import base64 import time from pathlib import Path import requests API_BASE ="http://127.0.0.1:8080/v1" API_KEY ="EMPTY"# 本地通常为 EMPTYdefimage_to_base64(image_path:str)->str: data = Path(image_path).read_bytes()return base64.b64encode(data).decode("utf-8")defchat_with_vision_rest( model:str, image_path:str, prompt:str, temperature:float=0.2, max_tokens:int=1024,): b64_img = image_to_base64(image_path) payload ={"model": model,"messages":[{"role":"user","content":[{"type":"text","text": prompt},{"type":"image_url","image_url":{"url":f"data:image/jpeg;base64,{b64_img}"},},],}],"temperature": temperature,"max_tokens": max_tokens,} headers ={"Content-Type":"application/json","Authorization":f"Bearer {API_KEY}",} start = time.time() r = requests.post(f"{API_BASE}/chat/completions", json=payload, headers=headers, timeout=120) r.raise_for_status() data = r.json() elapsed = time.time()- start print(f"【Elapsed】{elapsed:.2f}s")print("【Response】", data["choices"][0]["message"]["content"].strip())if __name__ =="__main__": MODEL_NAME ="qwen3-vl-4b-instruct" chat_with_vision_rest( model=MODEL_NAME, image_path="assets/demo.jpg", prompt="请用中文详细描述这张图片。", temperature=0.2, max_tokens=1024,)

运行后,就会看到如下输出:

在这里插入图片描述

Read more

网页抓取(Web Scraping)完整技术指南:从原理到实战

在数据驱动的时代,结构化信息已成为企业决策、AI 训练与市场分析的核心资源。网页抓取(Web Scraping) 作为从非结构化网页中提取结构化数据的关键技术,广泛应用于电商、金融、舆情监测、学术研究等领域。 本文将系统解析网页抓取的工作原理、工具链、反爬对抗策略与法律边界,并提供可落地的工程建议。 一、什么是网页抓取? 网页抓取是指通过程序自动访问网页,解析 HTML/JSON 内容,并将目标数据提取、转换为结构化格式(如 CSV、数据库记录)的过程。 与网络爬虫(Crawler)的区别:爬虫:广度优先遍历全站链接(如搜索引擎);抓取:深度聚焦特定页面的数据字段(如商品价格、评论)。 典型应用场景包括: * 电商比价(Amazon、Shopee 商品监控) * 招聘数据聚合(职位趋势分析) * 社交媒体舆情监测(公开评论情感分析) * 学术数据采集(论文元数据批量下载)

快学快用系列:一文学会java后端WebApi开发

快学快用系列:一文学会java后端WebApi开发

文章目录 * 第一部分:Web API开发基础概念 * 1.1 什么是Web API * 1.2 RESTful API设计原则 * 第二部分:开发环境搭建 * 2.1 环境要求 * 2.2 创建Spring Boot项目 * 2.3 配置文件 * 第三部分:项目架构设计 * 3.1 分层架构 * 3.2 包结构设计 * 第四部分:数据模型设计 * 4.1 实体类设计 * 4.2 DTO设计 * 第五部分:数据访问层实现 * 5.1 Repository接口 * 5.2 自定义Repository实现 * 第六部分:业务逻辑层实现

万字详解:前端高级面试全景复盘与深度解析

一、概述与核心体会 本文基于作者在阿里、快手、猎豹移动、字节跳动等多家互联网公司的真实面试经历整理而成。涵盖四轮阿里面试、快手二面、猎豹三轮技术面及字节三面的完整过程,涉及技术深度、业务思考、算法实战、工程化实践等多个维度。 核心感受: 1. 大厂面试系统化:阿里面试体系完整,从基础到业务到HR考察全面 2. 业务深度成关键:无论哪家公司,业务理解和项目深度都是高级岗位的硬性要求 3. 知识广度需扎实:框架原理、浏览器机制、工程化等基础必须牢固 4. 算法能力是标配:中等难度算法题已成为一线公司常规考察项 二、阿里巴巴完整面试流程解析 一面(60分钟)- 技术基础深度考察 1. 自我介绍结构化 * 核心要素:个人信息 + 当前职责 + 技术栈 + 擅长领域 + 项目介绍(STAR法则) * 项目阐述要点:背景→任务→行动→结果→

基于C++11手撸前端Promise

基于C++11手撸前端Promise

文章导航 * 引言 * 前端Promise的应用与优势 * 常见应用场景 * 并发请求 * Promise 解决的问题 * 手写 C++ Promise 实现 * 类结构与成员变量 * 构造函数 * resolve 方法 * reject 方法 * then 方法 * onCatch 方法 * 链式调用 * 使用示例 * `std::promise` 与 `CProimse` 对比 * 1. 基础功能对比 * 2. 实现细节对比 * (1) 状态管理 * (2) 回调注册与执行 * (3) 异步支持 * (4) 链式调用 * 3. 代码示例对比 * (1) `CProimse` 示例 * (2) `std::promise` 示例 * 4.