如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

它是免费的——社区驱动的人工智能💪。

        当 OpenAI 第一次推出定制 GPT 时,我就明白会有越来越多的人为人工智能做出贡献,并且迟早它会完全由社区驱动。

        但从来没有想过它会如此接近😂让我们看看如何在 Windows 机器上完全免费使用第一个开源推理模型! 

步骤 0:安装 Docker 桌面

        我确信很多人已经安装了它,所以可以跳过,但如果没有 — — 这很简单,只需访问Docker 的官方网站,下载并运行安装 👍

        如果您需要一些特定的设置,例如使用 WSL,那么有很多指导视频,请查看!我将继续下一步。

步骤 1:安装 CUDA 以获得 GPU 支持

        如果您想使用 Nvidia 显卡运行 LLM,则必须安装 CUDA 驱动程序。(嗯……是的,它们需要大量的计算能力)

        打开CUDA 下载页面,根据需要点击“Windows”和其他选项,然后选择“本地”作为安装程序类型:

下载并完成安装即可👍,此处需要重新启动。 

第 2 步:安装 Ollama 并下载模型

前往Ollama 网站并点击下载按钮 😆

        Ollama是一款开源 AI 工具,使用户能够在其设备上本地运行大型语言模型,为自然语言处理任务提供定制化、高效和离线功能。

安装后,打开“Windows PowerShell”

并通过运行来验证您的安装ollama -v

再次打开ollama网站并选择您的型号:

        有几种选择,我建议从 7b 开始,并检查它如何与您的机器配合使用。例如,我运行 i7-11 系列处理器和 NVIDIA GeForce RTX 2080 SUPER 以及 8GB GPU,我可以在正常(可以说是“可接受的”)速度下使用 14b 型号。

正如我所说,它需要大量的计算能力 

选择后,点击复制按钮: 

并在 PowerShell 中运行:

它将像上面一样下载并打开 shell,您可以在这里直接与它聊天,但是让我们/bye对它说,并继续设置一个实际的 UI,而不是从 PowerShell 提示 💪

步骤3:安装Open-WebUI

打开github 页面,找到“ Open WebUI with Nvidia GPU support”

复制该命令并再次在 PowerShell 中运行它。它将下载所有需要的 docker 镜像并运行容器,您可以通过http://localhost:3000/访问该容器

对于任何 LLM 用户来说,这都是一个熟悉的用户界面,左侧边栏用于聊天,左上角可用于选择已安装的模型等。

Open-WebUI 具有大量功能,例如 RAG、图像生成、网页浏览等。您可以在此处查看完整列表 

社区驱动的人工智能← 获取有关人工智能的更多内容 👍

所有信息和观点均仅代表我个人的见解。

如果您喜欢此文章,请收藏、点赞、评论,谢谢,祝您快乐每一天。  

Read more

【关注可白嫖源码】--49931基于Java Web的在线考试系统的设计

【关注可白嫖源码】--49931基于Java Web的在线考试系统的设计

摘  要 随着信息技术的不断发展,传统的纸质考试和人工评分方式已经逐渐无法满足现代教育的需求,尤其是在大规模考试的管理和成绩分析方面。为了解决这一问题,本论文设计并实现了一套基于Java Web技术的在线考试系统。系统采用Spring Boot框架、Java语言和MySQL数据库进行开发,旨在为学生、教师和管理员提供一个高效、便捷、安全的在线考试平台。 系统主要包括学生、教师和管理员三个角色,每个角色拥有不同的功能模块。学生用户可以进行在线考试、查看考试资讯、浏览通知公告、查看个人账户信息以及错题记录等;教师用户可以管理试题库、生成试卷、批改考试并对学生成绩进行统计分析;管理员则负责系统用户管理、轮播图管理、资源管理等后台操作,确保平台的顺利运行。 系统采用模块化设计,前端通过现代Web技术提供直观且易操作的用户界面,后端使用Spring Boot框架进行构建,保证了系统的稳定性与可扩展性。MySQL数据库用于存储用户信息、试题库、考试记录和成绩数据,确保数据的安全性和高效访问。 本系统的实现不仅能够提升在线考试的效率,降低管理成本,还能为教育机构提供精确的考试数据分析和实时反

By Ne0inhk
本地 AI 模型管理新选择:OpenWebUI+cpolar 让远程使用更自由

本地 AI 模型管理新选择:OpenWebUI+cpolar 让远程使用更自由

OpenWebUI 是一款能将本地 AI 模型操作可视化的工具,支持管理 Ollama 本地模型和接入 OpenAI 兼容 API,还有私人知识库、多用户管理等功能,不管是设计师、小团队成员还是学生党都能用。它把命令行操作变成类似微信聊天的界面,操作简单,数据存在本地,隐私有保障。 用下来发现,OpenWebUI 的交互体验很流畅,打字机效果、Markdown 渲染这些细节做得不错,新手也能快速上手管理模型。不过要注意,运行大模型时对电脑内存要求不低,至少得 8GB 以上,不然可能卡顿。 但它有个局限,默认只能在局域网内使用。比如设计师在家调好的模型,上班想继续用就得远程操控电脑,很不方便;小团队成员不在同一局域网,就没法共用模型协作。 这时候搭配 cpolar 就不一样了。cpolar 能实现内网穿透,让 OpenWebUI 突破局域网限制,出门在外用手机浏览器输入网址就能访问,还能轻松分享给朋友体验,数据传输加密也更安全,不用额外买服务器,

By Ne0inhk

前端新手必看:理解并解决‘Failed to fetch‘的完整指南

快速体验 1. 打开 InsCode(快马)平台 https://www.inscode.net 2. 点击'项目生成'按钮,等待项目生成完整后预览效果 输入框内输入如下内容: 创建一个交互式学习模块,包含:1. 动画演示fetch工作原理 2. 常见错误场景可视化 3. 可修改的代码沙盒 4. 逐步修复向导 5. 知识测验。使用纯HTML/CSS/JS实现,适合初学者直接运行学习。 最近在学前端开发时,经常遇到一个让人头疼的错误提示:TypeError: Failed to fetch。刚开始完全摸不着头脑,经过一番摸索后,终于搞清楚了它的来龙去脉。今天就用最直白的语言,分享这个错误的原因和解决方法,希望能帮到同样踩坑的你。 为什么会出现'Failed to

By Ne0inhk

基于 Vue 3 构建企业级 Web Components 组件库

前言 在前端技术栈百花齐放的今天,我们经常面临一个痛点:组件复用难。React 组件无法直接在 Vue 项目中使用,Vue 2 的组件难以平滑迁移到 Vue 3。 Web Components 的出现正是为了解决这个问题。它是一套 W3C 标准,允许开发者创建可重用、封装良好且独立于框架的 UI 组件。无论你的主应用是 Vue、React 还是纯原生 JS,Web Components 都能完美运行。 一、 技术全景:什么是 Web Components? Web Components 并非单一技术,而是由四项核心技术组成的规范集合,旨在实现组件的高内聚与低耦合。 1.1 核心组成体系 我们可以通过下图理解其运作机制: graph TD WC[Web Components]

By Ne0inhk