解锁DeepSeek潜能:Docker+Ollama打造本地大模型部署新范式

解锁DeepSeek潜能:Docker+Ollama打造本地大模型部署新范式

🐇明明跟你说过:个人主页

🏅个人专栏:《深度探秘:AI界的007》 🏅

🔖行路有良友,便是天堂🔖

目录

一、引言

1、什么是Docker

2、什么是Ollama

二、准备工作

1、操作系统

2、镜像准备

三、安装

1、安装Docker

2、启动Ollama

3、拉取Deepseek大模型

4、启动Deepseek 


一、引言

1、什么是Docker

Docker:就像一个“打包好的App”

想象一下,你写了一个很棒的程序,在自己的电脑上运行得很好。但当你把它发给别人,可能会遇到各种问题:

  • “这个软件需要 Python 3.8,但我只有 Python 3.6!”
  • “我没有你用的那个库,安装失败了!”
  • “你的程序要跑在 Linux,我的电脑是 Windows!”

💡 Docker 的作用:它就像一个“打包好的 App”,把你的软件、依赖、环境、系统配置等 全部封装到一个“容器” 里,别人拿到这个容器,就能直接运行,而不用关心它内部的细节。


🚀 把 Docker 想象成“集装箱”

传统运输 vs. 集装箱运输

以前(传统部署)

  • 货物(程序)需要不同的包装方式(运行环境)
  • 货物可能损坏(环境不兼容)
  • 装卸麻烦(程序迁移难)

有了 Docker(容器部署)

  • 货物装进标准化集装箱(Docker 容器)
  • 不管运到哪里,集装箱里东西不变(程序环境一致)
  • 码头和船只可以直接装卸(轻松部署到不同系统)

Docker 让软件像“集装箱”一样标准化、可移植、易部署! 🚢

2、什么是Ollama

Ollama 是一个本地运行大语言模型(LLM)的工具,它可以让你 在自己的电脑上直接运行 AI 模型,而不需要连接云端服务器。

💡 简单来说:Ollama 让你像运行普通软件一样,轻松在本地使用 ChatGPT、Llama、Mistral、Gemma 等大语言模型。

🚀 Ollama 的核心特点

  1. 本地运行 🏠
    • 你不需要联网,也不用担心隐私问题,所有计算都在你的电脑上完成。
  2. 支持多种开源模型 📚
    • 可以运行 Llama 3、Mistral、Gemma、Code Llama 等不同的大模型。
  3. 易于安装和使用 🔧
    • 只需要几条命令,就能下载并运行 AI 模型。
  4. 轻量化优化
    • 适配 Mac(Apple Silicon)、Linux 和 Windows,支持 GPU 加速,让模型运行更快。
  5. 离线推理 🔒
    • 适合不想依赖 OpenAI API 或其他云端 AI 服务的用户。

二、准备工作

1、操作系统

这里我们使用的操作系统为Centos 7.9,配置为4核8G,大家也可以使用其他的Linux发行版本,或者使用Windows。

2、镜像准备

如果已经安装了Docker,可以提前准备好镜像,ollama/ollama,镜像比较大,拉取会耗一些时间

三、安装

1、安装Docker

1.关闭防火墙

systemctl stop firewalld && systemctl disabled firewalld

2.关闭SELinux

setenforce 0

3.更换yum源

rm -f /etc/yum.repos.d/* curl -o /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo yum clean all && yum makecache

4.安装依赖项

yum install -y yum-utils device-mapper-persistent-data lvm2

5. 添加Docker源

yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

 6.安装Docker

yum install docker-ce -y

7.添加Docker镜像加速器

vim /etc/docker/daemon.json # 添加如下内容 { "registry-mirrors": [ "https://docker.m.daocloud.io", "https://noohub.ru", "https://huecker.io", "https://dockerhub.timeweb.cloud", "https://0c105db5188026850f80c001def654a0.mirror.swr.myhuaweicloud.com", "https://5tqw56kt.mirror.aliyuncs.com", "https://docker.1panel.live", "http://mirrors.ustc.edu.cn/", "http://mirror.azure.cn/", "https://hub.rat.dev/", "https://docker.ckyl.me/", "https://docker.chenby.cn", "https://docker.hpcloud.cloud", "https://docker.m.daocloud.io" ] }

8.启动Docker

systemctl start docker

2、启动Ollama

1.启动Ollama容器

docker run -itd -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
  • docker run    运行一个新的 Docker 容器
  • -itd    组合多个选项:
    •  ✅ -i(保持标准输入)
    •  ✅ -t(分配终端)
    •  ✅ -d(后台运行容器)
  • -v ollama:/root/.ollama    挂载数据卷,把 ollama 这个 Docker 数据卷 绑定到容器的 /root/.ollama 目录,确保数据持久化(如下载的模型不会丢失)。
  • -p 11434:11434    端口映射,把 宿主机(本机)的 11434 端口 映射到 容器 内部的 11434 端口,这样宿主机可以通过 http://localhost:11434 访问 Ollama 服务。
  • --name ollama    指定 容器名称 为 ollama,方便管理和启动。
  • ollama/ollama    使用的 Docker 镜像,这里是 官方的 Ollama 镜像。

如果是使用GPU运行,则用下面的命令启动

docker run -itd --name ollama --gpus=all -v ollama:/root/.ollama -p 11434:11434 ollama/ollama

 2.查看Ollama容器

docker ps

 

 

3、拉取Deepseek大模型

1.进入到容器中 

docker exec -it ollama /bin/bash

2.拉取模型

ollama pull deepseek-r1:7b

 

 

在官网中,有许多Deepseek的模型,这里主要是演示,所以拉取了一个较小的模型

官网地址:deepseek-r1

 

 

3.查看模型

ollama list

 

 

4、启动Deepseek 

ollama run deepseek-r1:7b

 

 

 💕💕💕每一次的分享都是一次成长的旅程,感谢您的陪伴和关注。希望这些文章能陪伴您走过技术的一段旅程,共同见证成长和进步!😺😺😺



🧨🧨🧨让我们一起在技术的海洋中探索前行,共同书写美好的未来!!!  

Read more

jdk 17 下载

可从 Oracle 官方 JDK 17 下载页 直接获取适用于 Windows、macOS、Linux 的 JDK 17 安装包Oracle,链接:https://www.oracle.com/java/technologies/javase/jdk17-archive-downloads.htmlOracle 下载方式(按系统选择) 系统推荐下载链接备注WindowsWindows x64 安装包Oracle双击运行安装,适合大多数用户macOS IntelmacOS x64 DMGOracle直接安装macOS Apple SiliconmacOS arm64 DMGOracleM1/M2 芯片适用Linux x64Linux x64 压缩包Oracle解压后配置环境变量Linux ARM64Linux arm64 压缩包Oracle树莓派等设备适用 安装与验证 1. 下载 对应系统安装包。 2.

By Ne0inhk
使用飞算JavaAI搞定学生管理系统

使用飞算JavaAI搞定学生管理系统

标签<#JavaAI 飞算 JavaAI 的开发流程颠覆了我对传统开发的认知,整个过程就像和一位经验丰富的架构师实时协作,一下是我对开发学生管理系统的一些理解余流程操作 项目初始化阶段:在打开飞算 JavaAI 后,我创建了名一个"JavaProject" 的新项目,AI自动生成了基础的项目结构,包括IDEA配置文件夹、src 源代码目录、SQL文件夹和核心的 pom.xml 文件。这一步省去了传统开发中手动配置 Maven、设置项目结构的繁琐过程。 这里我自己的实操SQL数据库导入不了 但是在返回代码生成部分,表格设计这一块会有一个自动表格设计,在这里能帮你连接到数据库,后续的JavaAI就能按照这个数据库进行快速创作。 需求定义阶段:在飞算 JavaAI 的智能引导模块,输入了详细的需求,要飞算avaAI开发一个学生成绩管理系统,包含学生信息管理、课程管理、成绩录入、成绩统计分析、数据导出等功能,采用 SpringBoot 框架,MySQL 数据库。让我惊讶的是,

By Ne0inhk

OpenClaw到底是什么?3分钟搞懂AI圈的这些“黑话“

OpenClaw到底是什么?3分钟搞懂AI圈的这些"黑话" 你是不是也经常听到这些词:RAG、MCP、Skills、AI Agent… 每次看到都觉得似懂非懂,却又不好意思问? 今天,我们就用最通俗的话,把这些概念一次性讲清楚! 写在前面 最近刷到一个视频,讲的是 OpenClaw(clawdbot) 这个项目。 说实话,第一反应也是懵的:这又是个啥? 但仔细看完后发现,这个项目其实是个很好的"教材"——它把现在AI圈最火的几个技术串在了一起。搞懂了它,你也就搞懂了整个AI技术栈的底层逻辑。 那么,OpenClaw到底是个啥? 简单说,它就是一个聪明的AI助手框架,把各种AI能力(记忆、检索、工具调用)整合在一起,让AI真的能"干活",而不只是聊天。 先搞清楚一个概念:什么是"

By Ne0inhk
AI的提示词专栏:多语言 Prompt,中文、英文、日文混写的实践

AI的提示词专栏:多语言 Prompt,中文、英文、日文混写的实践

AI的提示词专栏:多语言 Prompt,中文、英文、日文混写的实践 本文围绕多语言 Prompt(中文、英文、日文混写)展开全面实践探讨,先阐述其打破跨语言信息壁垒、提升专业场景精准度、适配多语言用户需求的核心价值,再分析中、英、日三种语言特性对 Prompt 编写的影响,接着提出语言标识清晰、核心需求统一、文化适配性的基础编写原则与语言切换逻辑设计、术语对齐、混合语言优先级设定的进阶技巧。文中结合跨境电商产品文案生成、国际学术论文摘要撰写、跨国企业会议纪要制作三大行业实战案例,展示多语言 Prompt 的应用方法,还针对模型语言混淆、术语翻译偏差、文化适配不当等常见问题给出解决方案,最后总结核心要点并展望自动化语言适配、多模态多语言融合等未来趋势,为全球化场景下多语言 Prompt 的使用提供全面指导。 人工智能专栏介绍     人工智能学习合集专栏是 AI 学习者的实用工具。它像一个全面的 AI 知识库,把提示词设计、AI 创作、智能绘图等多个细分领域的知识整合起来。

By Ne0inhk