解锁DeepSeek潜能:Docker+Ollama打造本地大模型部署新范式

解锁DeepSeek潜能:Docker+Ollama打造本地大模型部署新范式

🐇明明跟你说过:个人主页

🏅个人专栏:《深度探秘:AI界的007》 🏅

🔖行路有良友,便是天堂🔖

目录

一、引言

1、什么是Docker

2、什么是Ollama

二、准备工作

1、操作系统

2、镜像准备

三、安装

1、安装Docker

2、启动Ollama

3、拉取Deepseek大模型

4、启动Deepseek 


一、引言

1、什么是Docker

Docker:就像一个“打包好的App”

想象一下,你写了一个很棒的程序,在自己的电脑上运行得很好。但当你把它发给别人,可能会遇到各种问题:

  • “这个软件需要 Python 3.8,但我只有 Python 3.6!”
  • “我没有你用的那个库,安装失败了!”
  • “你的程序要跑在 Linux,我的电脑是 Windows!”

💡 Docker 的作用:它就像一个“打包好的 App”,把你的软件、依赖、环境、系统配置等 全部封装到一个“容器” 里,别人拿到这个容器,就能直接运行,而不用关心它内部的细节。


🚀 把 Docker 想象成“集装箱”

传统运输 vs. 集装箱运输

以前(传统部署)

  • 货物(程序)需要不同的包装方式(运行环境)
  • 货物可能损坏(环境不兼容)
  • 装卸麻烦(程序迁移难)

有了 Docker(容器部署)

  • 货物装进标准化集装箱(Docker 容器)
  • 不管运到哪里,集装箱里东西不变(程序环境一致)
  • 码头和船只可以直接装卸(轻松部署到不同系统)

Docker 让软件像“集装箱”一样标准化、可移植、易部署! 🚢

2、什么是Ollama

Ollama 是一个本地运行大语言模型(LLM)的工具,它可以让你 在自己的电脑上直接运行 AI 模型,而不需要连接云端服务器。

💡 简单来说:Ollama 让你像运行普通软件一样,轻松在本地使用 ChatGPT、Llama、Mistral、Gemma 等大语言模型。

🚀 Ollama 的核心特点

  1. 本地运行 🏠
    • 你不需要联网,也不用担心隐私问题,所有计算都在你的电脑上完成。
  2. 支持多种开源模型 📚
    • 可以运行 Llama 3、Mistral、Gemma、Code Llama 等不同的大模型。
  3. 易于安装和使用 🔧
    • 只需要几条命令,就能下载并运行 AI 模型。
  4. 轻量化优化
    • 适配 Mac(Apple Silicon)、Linux 和 Windows,支持 GPU 加速,让模型运行更快。
  5. 离线推理 🔒
    • 适合不想依赖 OpenAI API 或其他云端 AI 服务的用户。

二、准备工作

1、操作系统

这里我们使用的操作系统为Centos 7.9,配置为4核8G,大家也可以使用其他的Linux发行版本,或者使用Windows。

2、镜像准备

如果已经安装了Docker,可以提前准备好镜像,ollama/ollama,镜像比较大,拉取会耗一些时间

三、安装

1、安装Docker

1.关闭防火墙

systemctl stop firewalld && systemctl disabled firewalld

2.关闭SELinux

setenforce 0

3.更换yum源

rm -f /etc/yum.repos.d/* curl -o /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo yum clean all && yum makecache

4.安装依赖项

yum install -y yum-utils device-mapper-persistent-data lvm2

5. 添加Docker源

yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

 6.安装Docker

yum install docker-ce -y

7.添加Docker镜像加速器

vim /etc/docker/daemon.json # 添加如下内容 { "registry-mirrors": [ "https://docker.m.daocloud.io", "https://noohub.ru", "https://huecker.io", "https://dockerhub.timeweb.cloud", "https://0c105db5188026850f80c001def654a0.mirror.swr.myhuaweicloud.com", "https://5tqw56kt.mirror.aliyuncs.com", "https://docker.1panel.live", "http://mirrors.ustc.edu.cn/", "http://mirror.azure.cn/", "https://hub.rat.dev/", "https://docker.ckyl.me/", "https://docker.chenby.cn", "https://docker.hpcloud.cloud", "https://docker.m.daocloud.io" ] }

8.启动Docker

systemctl start docker

2、启动Ollama

1.启动Ollama容器

docker run -itd -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
  • docker run    运行一个新的 Docker 容器
  • -itd    组合多个选项:
    •  ✅ -i(保持标准输入)
    •  ✅ -t(分配终端)
    •  ✅ -d(后台运行容器)
  • -v ollama:/root/.ollama    挂载数据卷,把 ollama 这个 Docker 数据卷 绑定到容器的 /root/.ollama 目录,确保数据持久化(如下载的模型不会丢失)。
  • -p 11434:11434    端口映射,把 宿主机(本机)的 11434 端口 映射到 容器 内部的 11434 端口,这样宿主机可以通过 http://localhost:11434 访问 Ollama 服务。
  • --name ollama    指定 容器名称 为 ollama,方便管理和启动。
  • ollama/ollama    使用的 Docker 镜像,这里是 官方的 Ollama 镜像。

如果是使用GPU运行,则用下面的命令启动

docker run -itd --name ollama --gpus=all -v ollama:/root/.ollama -p 11434:11434 ollama/ollama

 2.查看Ollama容器

docker ps

 

 

3、拉取Deepseek大模型

1.进入到容器中 

docker exec -it ollama /bin/bash

2.拉取模型

ollama pull deepseek-r1:7b

 

 

在官网中,有许多Deepseek的模型,这里主要是演示,所以拉取了一个较小的模型

官网地址:deepseek-r1

 

 

3.查看模型

ollama list

 

 

4、启动Deepseek 

ollama run deepseek-r1:7b

 

 

 💕💕💕每一次的分享都是一次成长的旅程,感谢您的陪伴和关注。希望这些文章能陪伴您走过技术的一段旅程,共同见证成长和进步!😺😺😺



🧨🧨🧨让我们一起在技术的海洋中探索前行,共同书写美好的未来!!!  

Read more

微博爬虫Web管理界面完全配置手册

还在为复杂的爬虫配置而烦恼吗?weibospider项目的Web管理界面让你摆脱繁琐的命令行操作,通过直观的图形界面轻松管理整个微博数据采集系统。本文将带你从零开始,全面掌握这个基于Django Admin的强大管理平台。 【免费下载链接】weibospider:zap: A distributed crawler for weibo, building with celery and requests. 项目地址: https://gitcode.com/gh_mirrors/wei/weibospider 🎯 为什么选择Web管理界面 传统的爬虫配置往往需要通过修改配置文件、执行复杂命令来完成,这不仅效率低下,还容易出错。weibospider的Web管理界面将这些复杂操作封装成简单的表单和按钮,让配置工作变得轻松愉快。 核心优势: * 🖥️ 可视化操作,告别命令行 * ⚡ 批量处理,效率翻倍 * 📊 实时监控,掌握运行状态 * 🔧 灵活配置,满足个性化需求 🛠️ 环境搭建与初始化 数据库配置调整 首先打开admin/weibo_admin/s

By Ne0inhk

告别复杂配置:AWPortrait-Z云端WebUI一站式解决方案

告别复杂配置:AWPortrait-Z云端WebUI一站式解决方案 你是不是也遇到过这种情况?看到同行的电商商品图里,模特皮肤细腻、光影自然、背景干净,点击率和转化率蹭蹭上涨。再看看自己的产品图,总觉得差了点“高级感”。你想用AI来优化人像图,听说AWPortrait-Z效果特别好——能自动修复皮肤噪点、重塑光影、提升画质细节,甚至还能智能换脸生成专属模特形象。 可当你兴致勃勃地准备动手时,却发现:安装依赖报错、CUDA版本不匹配、PyTorch编译失败、模型路径找不到……折腾一整天,连界面都没跑起来。这正是电商店主老王的真实经历。他试了三天,装了卸、卸了装,最后只能放弃:“搞技术太难了,我们小商家哪有时间研究这些?” 别担心,今天我要告诉你一个好消息:现在你完全不需要自己配置环境!通过ZEEKLOG星图平台提供的 AWPortrait-Z云端WebUI镜像,只需点击几下,就能在云端直接使用这个强大的AI人像增强工具。无需懂代码、不用装驱动、不怕版本冲突,真正实现“开箱即用”。 这篇文章就是为像老王这样的小白用户量身打造的。我会手把手带你完成从零到出图的全过程,让你5分钟内就能

By Ne0inhk
快过年了,写个游戏玩玩,放松下,解析俄罗斯方块游戏(可直接复制代码使用,玩游戏)。罗斯方块游戏技术解析:从前端实现到工程化思考

快过年了,写个游戏玩玩,放松下,解析俄罗斯方块游戏(可直接复制代码使用,玩游戏)。罗斯方块游戏技术解析:从前端实现到工程化思考

前言:哈喽,大家好,今天给大家分享一篇文章!并提供具体代码帮助大家深入理解,彻底掌握!创作不易,如果能帮助到大家或者给大家一些灵感和启发,欢迎点赞 + 收藏 + 关注哦 💕 快过年了,写个游戏玩玩,放松下,解析俄罗斯方块游戏(可直接复制代码,玩游戏)。罗斯方块游戏技术解析:从前端实现到工程化思考 📚 本文简介 本文解析了一个基于HTML5+CSS3+JavaScript的俄罗斯方块网页游戏实现。项目采用模块化设计,包含index.html、style.css和script.js三个核心文件,遵循前端开发最佳实践。HTML结构采用语义化布局,使用Canvas双画布分别渲染主游戏区和预览区。CSS运用Flexbox布局、毛玻璃效果、过渡动画等现代特性,实现响应式设计。JavaScript处理游戏逻辑,包括方块旋转、碰撞检测等核心算法。项目兼顾性能与用户体验,是前端游戏开发的经典案例。全文从架构设计到实现细节进行了深度技术解析。 目录 * 快过年了,写个游戏玩玩,放松下,解析俄罗斯方块游戏(可直接复制代码,玩游戏)。罗斯方块游戏技术解析:

By Ne0inhk
速通前端篇 —— CSS

速通前端篇 —— CSS

找往期文章包括但不限于本期文章中不懂的知识点: 个人主页:我要学编程程(ಥ_ಥ)-ZEEKLOG博客 所属专栏:速通前端 目录 CSS的介绍 基本语法规范 CSS选择器 标签选择器 class选择器  id选择器  复合选择器  通配符选择器 CSS常见样式  颜色 color 字体大小 font-size  边框 border  宽度 与 高度  内边距 外边距  CSS的介绍 CSS(Cascading Style Sheet),层叠样式表,用于控制页面的样式。CSS能够对网页中元素位置的排版进行像素级精确控制,实现美化页面的效果。能够做到页面的样式和结构分离。简单理解,CSS就是类似于对页面进行"化妆",让页面变得更加好看。 基本语法规范 选择器+{一条/N条声明} 1、

By Ne0inhk