VMware17 下的 Ubuntu24.04 卡死解决方案

本人使用的版本是VMware Workstation 17 pro,ubuntu的版本是24.04-desktop,遇到的问题是:点开ubuntu后运行一段时间就会卡死。

首先我先整理一些网上查到的一些方法,如有纰漏请指正:

方法一:

1.Ctrl+P打开首选项,点击优先级将抓取的输入内容改为

2.虚拟机设置→选项→高级,抓取的输入内容改为,打开禁用内存页面修整

3.调大虚拟内存

4.勾选虚拟化Intel VT-x/EPT或AMD-V/RVI


方法二:

1.直接在Windows搜索框内搜索Windows功能,打开Windows功能,将Hyper-V前面的√取消

2.在Windows安全中心中,关闭内存完整性校验

3.重启计算机


方法三(我是关闭之后就不会出现卡死的问题了):

1.虚拟机设置→显示→关闭加速3D图形

最后,看到网上也有人说是 VMware 17本身的问题,可以尝试使用以前的版本试一下。

Read more

一天一个开源项目(第43篇):Star-Office-UI - 像素风格的 AI 办公室看板,让 AI 助手的工作状态可视化

一天一个开源项目(第43篇):Star-Office-UI - 像素风格的 AI 办公室看板,让 AI 助手的工作状态可视化

引言 “A pixel office for your OpenClaw: turn invisible work states into a cozy little space with characters, daily notes, and guest agents.” 这是「一天一个开源项目」系列的第 43 篇文章。今天介绍的项目是 Star-Office-UI(GitHub)。 AI Agent 的工作状态通常是"看不见"的——你不知道它正在做什么、昨天做了什么、现在是否在线。Star-Office-UI 是一款像素风格的 AI 办公室看板系统,它将 AI 助手的工作状态实时可视化,让你直观看到"

By Ne0inhk
又一个项目完结:基于SpringAI Alibaba开发第一个大模型智能体,支持基础版和多模式

又一个项目完结:基于SpringAI Alibaba开发第一个大模型智能体,支持基础版和多模式

作者:冰河 星球:http://m6z.cn/6aeFbs 博客:https://binghe.gitcode.host 文章汇总:https://binghe.gitcode.host/md/all/all.html 源码获取地址:https://t.zsxq.com/0dhvFs5oR 大家好,我是冰河~~ 一、项目概述 随着人工智能技术的发展,智能对话系统在各个行业中的应用越来越广泛。本项目旨在基于SpringAI Alibaba快速构建一个基于大模型的智能对话助手,通过提供多种工作模式,满足用户在不同场景下的需求,例如通俗解释、要点总结、风险分析等。 我们将分两个阶段完成这个项目: 1. 基础版本:构建具备专业领域知识的固定角色智能体 2. 进阶版本:实现多模式切换的智能对话系统 接下来,我们一起完成这个SpringAI Alibaba项目。

By Ne0inhk
OpenClaw 搭建全流程实战:从 0 部署到可控 AI Agent(附避坑与安全建议)

OpenClaw 搭建全流程实战:从 0 部署到可控 AI Agent(附避坑与安全建议)

近几个月,「AI Agent」成为技术圈的高频词,但大多数人停留在 Demo、插件和概念层。 真正能跑在本地 / 服务器、拥有真实权限、能持续执行任务的 Agent 并不多。 OpenClaw,正是目前少数几个工程完整、可部署、可二次开发的开源 AI Agent 框架之一。 这篇文章不讲愿景、不画饼,只讲怎么搭、怎么跑、怎么不翻车。 一、OpenClaw 到底是什么?先说清楚定位 一句话说明白: OpenClaw 是一个可部署在本地或服务器上的开源 AI Agent 框架,具备 Gateway(通信)、Dashboard(控制台)和 Skills(能力插件)三大核心模块。 和 ChatGPT / 插件的本质区别在于: 对比项普通 AI 工具OpenClaw运行位置云端本地

By Ne0inhk
人工智能:大模型高效推理与部署技术实战

人工智能:大模型高效推理与部署技术实战

人工智能:大模型高效推理与部署技术实战 1.1 本章学习目标与重点 💡 学习目标:掌握大语言模型推理与部署的核心技术,理解模型量化、推理加速、服务化部署的原理,能够完成开源大模型的高性能生产级部署。 💡 学习重点:精通INT4/INT8量化技术的应用,掌握vLLM等高性能推理框架的使用方法,学会搭建高并发的大模型API服务。 1.2 大模型推理部署的核心挑战 1.2.1 大模型推理的痛点分析 💡 预训练大模型通常具备数十亿甚至上百亿的参数量,直接进行推理会面临显存占用高、推理速度慢、并发能力弱三大核心问题。 * 显存占用高:以LLaMA-2-7B模型为例,FP16精度下显存占用约14GB,单张消费级显卡难以承载;而70B模型FP16精度显存占用更是超过140GB,普通硬件完全无法运行。 * 推理速度慢:自回归生成的特性导致模型需要逐token计算,单条长文本生成可能需要数十秒,无法满足实时应用需求。 * 并发能力弱:传统推理方式下,单卡同时处理的请求数极少,高并发场景下会出现严重的排队和延迟问题。 这些问题直接制约了大模型从实验室走向实际生产环境,因此高效

By Ne0inhk