Ubuntu DeepSeek R1本地化部署 Ollama+Docker+OpenWebUI

1 显卡安装

#查看显卡型号 llh@study:~/soft$ lspci | grep -i nvidia 10:00.0 VGA compatible controller: NVIDIA Corporation TU116 [GeForce GTX 1660 SUPER] (rev a1) 10:00.1 Audio device: NVIDIA Corporation TU116 High Definition Audio Controller (rev a1) 10:00.2 USB controller: NVIDIA Corporation TU116 USB 3.1 Host Controller (rev a1) 10:00.3 Serial bus controller: NVIDIA Corporation TU116 USB Type-C UCSI Controller (rev a1 #查看推荐驱动 llh@study:~/soft$ sudo ubuntu-drivers devices 
sudo apt install nvidia-driver-580 #安装完成 重启服务器 sudo reboot
#验证驱动是否安装成功 llh@study:~$ nvidia-smi 

2 安装docker

curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add - sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb\_release -cs) stable" sudo apt-get update sudo apt-get install docker-ce # sudo systemctl start docker # docker --version

3 安装 Ollama

#下载自动安装脚本 wget https://ollama.com/install.sh . #安装 sudo sh install.sh
#验证服务 sudo systemctl status ollama #查看版本 ollama --version
#配置局域网访问 sudo vim /etc/systemd/system/ollama.service [Service] Environment="OLLAMA_HOST=0.0.0.0:11434" # 监听所有网卡 Environment="OLLAMA_ORIGINS=*" # 允许跨域请求,测试环境 # sudo systemctl daemon-reload sudo systemctl restart ollama

4 模型下载

ollama pull deepseek-r1:7b #查看本地模型 llh@study:~/soft$ ollama list NAME ID SIZE MODIFIED deepseek-r1:7b 755ced02ce7b 4.7 GB About a minute ago #删除 ollama rm deepseek-r1:7b

5 运行模型

ollama run deepseek-r1:7b

Read more

Babylon.js Exporters 完全指南:从建模到Web的3D内容转换

Babylon.js Exporters 完全指南:从建模到Web的3D内容转换 【免费下载链接】ExportersExporters for Babylon.js and gltf file formats 项目地址: https://gitcode.com/gh_mirrors/expor/Exporters Babylon.js Exporters是一套专为3D设计师和开发者设计的强大工具集,能够将3ds Max和Maya中的复杂场景无缝导出为Babylon.js和glTF格式。无论您是创建交互式Web应用、游戏还是虚拟现实体验,这些导出器都能确保您的3D内容在Web环境中保持最佳视觉效果。 🚀 快速入门:环境准备与基础配置 系统要求检查清单 在开始之前,请确保您的系统满足以下要求: * 3D建模软件:3ds Max 2015-2026或Maya 2017-2024版本 * 开发环境:Node.js 14+ 和 Python 3.6+ * 输出格式支持:

YOLO12 WebUI 目标检测:5分钟快速上手教程

YOLO12 WebUI 目标检测:5分钟快速上手教程 1. 为什么选 YOLO12 WebUI?小白也能秒懂的检测体验 你是否试过在命令行里敲十几行代码,只为让一张图里的人和车被框出来?是否被模型加载失败、环境报错、端口冲突反复劝退?YOLO12 WebUI 就是为解决这些而生的——它把前沿的目标检测能力,封装成一个打开浏览器就能用的界面,不装 Python、不配 CUDA、不改配置,连截图上传都支持拖拽。 这不是一个需要调参工程师才能启动的项目,而是一个“上传→等待→看结果”的极简闭环。背后跑的是 2025 年初发布的 YOLO12-nano 模型,由纽约州立大学布法罗分校与中国科学院大学团队联合研发,以注意力机制为核心,在保持毫秒级响应的同时,准确识别 80 类常见物体——从你桌上的苹果、手机,到窗外的汽车、行人,甚至猫狗马鸟,全在它的视野之内。 更重要的是,它不只是一次性演示工具。

React Native跨平台技术在开源鸿蒙中使用WebView来加载鸿蒙应用的网页版或通过一个WebView桥接本地代码与鸿蒙应用

React Native跨平台技术在开源鸿蒙中使用WebView来加载鸿蒙应用的网页版或通过一个WebView桥接本地代码与鸿蒙应用

在React Native中开发鸿组件(这里指的是鸿蒙(HarmonyOS)组件),你需要了解鸿蒙开发的基础以及如何在React Native项目中集成鸿蒙应用。鸿蒙OS是由华为开发的一个分布式操作系统,主要用于其智能设备,如手机、平板、智能手表等。 1. 了解鸿蒙开发基础 首先,你需要熟悉鸿蒙OS的开发环境设置和基本开发流程。这包括: * 开发工具:使用DevEco Studio作为开发IDE。 * SDK:下载并安装HarmonyOS SDK。 * 语言与框架:主要使用Java/Kotlin进行应用开发,但也可以通过C/C++扩展功能。 2. 在React Native中集成鸿蒙应用 React Native本身主要用于Harmony和Harmony平台的开发,但你可以通过以下几种方式将鸿蒙应用集成到React Native项目中: A. 使用WebView 一种简单的方法是使用WebView来加载鸿蒙应用的网页版或通过一个WebView桥接本地代码与鸿蒙应用。 使用WebView加载鸿蒙应用的URL: import React from'react';

vLLM+Open-WebUI部署通义千问2.5-7B完整教程

vLLM + Open-WebUI 部署通义千问2.5-7B完整教程 1. 引言 1.1 学习目标 本文将详细介绍如何使用 vLLM 和 Open-WebUI 联合部署阿里云发布的开源大模型——通义千问2.5-7B-Instruct。通过本教程,你将掌握: * 如何在本地或服务器环境中部署 Qwen2.5-7B 模型 * 利用 vLLM 实现高性能推理(支持 Tensor Parallelism、PagedAttention) * 使用 Open-WebUI 提供类 ChatGPT 的可视化交互界面 * 完整的环境配置、服务启动与访问流程 * 常见问题排查与性能优化建议 最终实现:通过浏览器访问 http://localhost:7860,即可与通义千问进行流畅对话。 1.2 前置知识 为顺利执行本教程,请确保具备以下基础: * 熟悉 Linux