Ubuntu DeepSeek R1本地化部署 Ollama+Docker+OpenWebUI

1 显卡安装

#查看显卡型号 llh@study:~/soft$ lspci | grep -i nvidia 10:00.0 VGA compatible controller: NVIDIA Corporation TU116 [GeForce GTX 1660 SUPER] (rev a1) 10:00.1 Audio device: NVIDIA Corporation TU116 High Definition Audio Controller (rev a1) 10:00.2 USB controller: NVIDIA Corporation TU116 USB 3.1 Host Controller (rev a1) 10:00.3 Serial bus controller: NVIDIA Corporation TU116 USB Type-C UCSI Controller (rev a1 #查看推荐驱动 llh@study:~/soft$ sudo ubuntu-drivers devices 
sudo apt install nvidia-driver-580 #安装完成 重启服务器 sudo reboot
#验证驱动是否安装成功 llh@study:~$ nvidia-smi 

2 安装docker

curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add - sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb\_release -cs) stable" sudo apt-get update sudo apt-get install docker-ce # sudo systemctl start docker # docker --version

3 安装 Ollama

#下载自动安装脚本 wget https://ollama.com/install.sh . #安装 sudo sh install.sh
#验证服务 sudo systemctl status ollama #查看版本 ollama --version
#配置局域网访问 sudo vim /etc/systemd/system/ollama.service [Service] Environment="OLLAMA_HOST=0.0.0.0:11434" # 监听所有网卡 Environment="OLLAMA_ORIGINS=*" # 允许跨域请求,测试环境 # sudo systemctl daemon-reload sudo systemctl restart ollama

4 模型下载

ollama pull deepseek-r1:7b #查看本地模型 llh@study:~/soft$ ollama list NAME ID SIZE MODIFIED deepseek-r1:7b 755ced02ce7b 4.7 GB About a minute ago #删除 ollama rm deepseek-r1:7b

5 运行模型

ollama run deepseek-r1:7b

Read more

【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局

【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局

【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局 摘要 本文基于 TrendRadar 项目,详细拆解如何通过 Docker 本地部署一套个人专属的 AI 热点情报系统。涵盖从环境准备、Docker 镜像拉取、局域网访问配置、飞书推送修复到 Cherry Studio MCP 服务对接的全流程。通过 Nvidia 免费模型 API,实现零成本的深度热点分析与趋势追踪。 关键词: TrendRadar, Docker部署, AI热点分析, MCP服务, Cherry Studio 1. 背景与需求:为什么我们需要 TrendRadar? 在这个大数据算法横行的时代,我们每天被头条、抖音等平台“投喂”大量信息,不仅容易陷入信息茧房,还浪费了大量时间筛选有效资讯。 我的核心需求很简单: 1. 拒绝算法绑架:需要一个个人定制化的新闻推送服务。 2.

开源vs闭源AI工具大比较:成本、性能、生态的全方位对比

开源vs闭源AI工具大比较:成本、性能、生态的全方位对比

开源vs闭源AI工具大比较:成本、性能、生态的全方位对比 🌟 Hello,我是摘星! 🌈 在彩虹般绚烂的技术栈中,我是那个永不停歇的色彩收集者。 🦋 每一个优化都是我培育的花朵,每一个特性都是我放飞的蝴蝶。 🔬 每一次代码审查都是我的显微镜观察,每一次重构都是我的化学实验。 🎵 在编程的交响乐中,我既是指挥家也是演奏者。让我们一起,在技术的音乐厅里,奏响属于程序员的华美乐章。 目录 开源vs闭源AI工具大比较:成本、性能、生态的全方位对比 摘要 1. AI工具选择的战略意义 1.1 技术选型的重要性 1.2 市场趋势分析 2. 成本维度深度对比 2.1 直接成本分析 2.2 隐性成本分析 3. 性能维度全面评测 3.1 基准测试对比 3.2 性能优化策略 4. 生态系统建设对比 4.

多模态检索新突破!Qwen3-VL-Embedding/Reranker AI 真正“看懂“你在搜什么,从图片到视频全拿下!

多模态检索新突破!Qwen3-VL-Embedding/Reranker AI 真正“看懂“你在搜什么,从图片到视频全拿下!

Qwen3-VL-Embedding 和 Qwen3-VL-Reranker:统一多模态表征与排序 摘要 2025年6月,Qwen 团队开源了面向文本的 Qwen3-Embedding 和 Qwen3-ReRanker 模型系列,在多语言文本检索、聚类和分类等多项下游任务中取得了业界领先的性能。 2026年1月,该团队推出了 Qwen 家族的最新成员:Qwen3-VL-Embedding 和 Qwen3-VL-Reranker 模型系列。这些模型基于开源的 Qwen3-VL 模型构建,专为多模态信息检索和跨模态理解场景设计,能够将文本、图像、文档图像和视频等多种模态映射到统一的表示空间中。 Qwen3-VL-Embedding 模型采用多阶段训练范式,从大规模对比预训练逐步发展到重排序模型蒸馏,以生成语义丰富的高维向量。该模型支持 Matryoshka 表示学习(MRL),可灵活选择嵌入维度,并能处理最多 32K tokens 的输入。作为补充,Qwen3-VL-Reranker 采用交叉编码器架构和交叉注意力机制,对查询-文档对进行细粒度的相关性评估。 两个模型系列继承了

AI 自动化测试:接口测试全流程自动化的实现方法

AI 自动化测试:接口测试全流程自动化的实现方法

在 AI 技术飞速渗透各行各业的当下,我们早已告别 “谈 AI 色变” 的观望阶段,迈入 “用 AI 提效” 的实战时代 💡。无论是代码编写时的智能辅助 💻、数据处理中的自动化流程 📊,还是行业场景里的精准解决方案 ,AI 正以润物细无声的方式,重构着我们的工作逻辑与行业生态 🌱。曾几何时,我们需要花费数小时查阅文档 📚、反复调试代码 ⚙️,或是在海量数据中手动筛选关键信息 ,而如今,一个智能工具 🧰、一次模型调用 ⚡,就能将这些繁琐工作的效率提升数倍 📈。正是在这样的变革中,AI 相关技术与工具逐渐走进我们的工作场景,成为破解效率瓶颈、推动创新的关键力量 。今天,我想结合自身实战经验,带你深入探索 AI 技术如何打破传统工作壁垒 🧱,让 AI 真正从 “概念” 变为 “实用工具” ,为你的工作与行业发展注入新动能 ✨。 文章目录 * AI 自动化测试:接口测试全流程自动化的实现方法 🤖 * 为什么传统自动化测试“卡壳”