2025全网最全!VMware安装Kali Linux保姆级教程,手把手教会你安装 Kali 虚拟机!

2025全网最全!VMware安装Kali Linux保姆级教程,手把手教会你安装 Kali 虚拟机!

文章目录

引言

Kali Linux 是网络安全爱好者和专业人士的首选操作系统,集成了大量渗透测试工具。通过 VMware 安装 Kali Linux 虚拟机,可以在不影响主机系统的情况下进行安全测试和学习。本文将手把手教你如何在 VMware 上安装 Kali Linux!


准备工作

1. 下载 VMware Workstation Pro

  1. 安装并激活 VMware Workstation Pro。

访问 VMware官网 下载最新版本。

在这里插入图片描述

2. 获取 Kali Linux 镜像

(1)访问 Kali 官网,下载最新版 ISO 镜像。

系统要求:
至少 4GB RAM(推荐 8GB 或以上)
20GB 硬盘空间
支持虚拟化的 CPU
在这里插入图片描述
在这里插入图片描述


(2)文件较大,下载速度较慢,需要耐心等待

安装步骤

1. 创建新虚拟机

(1)下载镜像文件完成后,打开 VMware Workstation Pro,点击 “创建新的虚拟机”,如图所示:

在这里插入图片描述

(2)选择 “自定义(高级)” 配置,如图所示:

在这里插入图片描述

2. 虚拟机硬件配置

(1)选择硬件兼容性:默认设置即可,点击“下一步”,如图所示:

在这里插入图片描述

(2)选择"稍后安装操作系统",然后点击"下一步",如图所示:

在这里插入图片描述

(3)新建虚拟机向导:由于 Kali Linux 是基于 DebianLinux 发行版,因此我们选择“Linux”为客户机操作系统,版本为“Debian 12.x 64位”,之后点击“下一步”,如图所示:

在这里插入图片描述


(4)命名虚拟机:自定义"虚拟机名称"并指定"安装位置",之后点击"下一步",如图所示:

在这里插入图片描述


(5)处理机配置:根据主机性能分配处理器核心数(建议至少 2 个),注意虚拟机处理器内核总数不能超过宿主机的内核数,这里我们选择处理器数量为4即可,之后点击“下一步”,如图所示:

在这里插入图片描述


(6)选择虚拟机内存:虚拟机内存不能超过宿主机的内存,推荐使用4GB及以上内存,这里我们选择虚拟机内存为4GB,之后点击“下一步”,如图所示:

在这里插入图片描述

(7)网络类型配置:选择默认的"NAT"进行网络连接即可,直接点击"下一步",如图所示:

在这里插入图片描述

(8)I/O 控制器类型:选择默认的"LST logic", 直接点击"下一步"即可,如图所示:

在这里插入图片描述

(9)磁盘类型:选择默认的 “SCSI”,直接点击"下一步"即可,如图所示:

在这里插入图片描述

(10)选择磁盘:选择默认的 “创建新虚拟磁盘”,直接点击"下一步"即可,如图所示:

在这里插入图片描述

(11)磁盘容量:建议分配 20GB 或以上,选择 “将虚拟磁盘拆分成多个文件”,之后点击“下一步”,如图所示:

在这里插入图片描述

(12)指定磁盘位置:自定义磁盘文件的位置,之后点击"下一步",如图所示:

在这里插入图片描述

(13)点击“自定义硬件” -> 选择“新 CD/DVD (IDE)” ->选择 “使用ISO映像文件” -> 点击“浏览”,选择准工作中下载的好的 Kali Linux ISO 镜像文件路径。

在这里插入图片描述


在这里插入图片描述


(14)虚拟机最终配置如图所示,点击“完成”即可,如图所示:

在这里插入图片描述

3. 安装 Kali Linux

(1)点击“开启此虚拟机”,启动虚拟机,进入 Kali Linux 安装界面。

在这里插入图片描述

(2)选择 “Graphical Install” ,按下回车键,开始图形化安装。

在这里插入图片描述

(3)选择语言:根据偏好选择语言为“中文(简体)”(也可以选择英语或其它语言),之后点击“continue”,如图所示:


(4)选择国家为中国,之后点击“继续”,如图所示:

在这里插入图片描述


(5)配置键盘,选择键盘映射为“汉语”,之后点击“继续”,如图所示:

在这里插入图片描述

(6)配置网络:自定义主机名,之后点击“继续”,如图所示:

在这里插入图片描述


自定义域名,此处可留空直接跳过,点击“继续”,如图所示:

在这里插入图片描述


(7)自定义新用户的全名,之后点击“继续”,如图所示:

在这里插入图片描述


(8)自定义账户的用户名,之后点击“继续”,如图所示:

在这里插入图片描述


(9)自行设置密码,输入无误后点击“继续”,如图所示:

在这里插入图片描述

(10)磁盘分区:使用默认分区方法“向导——使用整个磁盘”即可,之后点击“继续”,如图所示:

在这里插入图片描述


(11)直接点击"继续"即可,如图所示:

在这里插入图片描述


(12)选择默认的分区方案“将所有文件放在同一个分区中”即可,点击“继续”,如图所示:

在这里插入图片描述


(13)直接点击"继续"即可,如图所示:

在这里插入图片描述


(14)选择“”,将改动写入磁盘,之后点击“继续”,如图所示:

在这里插入图片描述


(15)软件选择,保留默认选择,直接点击“继续”即可,如图所示:

在这里插入图片描述


(16)需要安装的文件较多,耐心等待系统安装完成。

在这里插入图片描述

(17)安装 GRUB 引导加载程序,选择“是”,之后点击“继续”,如图所示:

在这里插入图片描述


(18)选择“/dev/sda”,之后点击“继续”,如图所示:

在这里插入图片描述


(19)安装完成,点击“继续”,结束安装进程,重新启动 Kali Linux 系统,如图所示:

在这里插入图片描述

4. 进入 Kali 系统

(1)输入之前设置好的用户名与密码,进入 Kali 系统

在这里插入图片描述


(2)成功进入 Kali 系统桌面端,至此,我们就完成了在 VMware WorkStation 上安装 Kali Linux 系统的全流程,无论是进行网络安全学习还是渗透测试,这个环境都将为我们提供强大的支持。如果在安装过程中遇到任何问题,欢迎在评论区留言讨论。

在这里插入图片描述

相关资源

声明:本文仅供学习和研究使用,请遵守相关法律法规,勿将所学知识用于非法用途!

Read more

AMD显卡在windows中通过WSL安装使用stable diffusion(WebUI和ComfyUI)

确认windows的amd显卡驱动版本,至少不低于24.12.1,具体可以查看对应 一、安装wsl和ubuntu。 1.安装wsl2: wsl --install 2.安装ubuntu(24.04、22.04等): wsl.exe --install ubuntu-24.04 3.更改ubuntu安装位置(可选): wsl --manage ubuntu-24.04 --move <location> 4.进入wsl实例: #输入wsl -d <version>进入制定版本或输入wsl进入默认实例 wsl -d ubuntu-24.04 可按Ctrl+D退出当前实例。 关闭实例: wsl --shutdown

Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天)

Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天)

Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天) 前言 在本地快速部署大模型进行离线聊天,llama.cpp 是轻量化、高性能的首选工具,尤其是 CUDA 版本能充分利用 NVIDIA 显卡的算力,大幅提升模型推理速度。本文将详细记录在 Windows 11 系统中,从环境准备、CUDA 版 llama.cpp 配置,到实现系统全局调用、快速运行 GGUF 格式模型的完整步骤,全程基于实际操作验证,适配 RTX 3090 等 NVIDIA 显卡,新手也能轻松上手。 https://github.com/ggml-org/llama.cpp

深入 llama.cpp:llama-server-- 从命令行到HTTP Server(2)

深入 llama.cpp:llama-server-- 从命令行到HTTP Server(2)

前言        llama-server是llama.cpp中用于发布大模型服务的工具。它通过极简的命令行配置,将复杂的模型推理过程封装为通用的 HTTP 接口;在底层,它选择以纯 C++ 编写的 cpp-httplib 作为服务框架的底层。本章分为应用实战与底层架构两部分。首先,我们将介绍不同参数下的大模型服务发布;接着,我们将详细解析 cpp-httplib 在项目中的具体实现,帮助读者掌握该服务端在网络调度层面的运行逻辑。 目录 * 1 应用实战:启动大模型服务 * 2 架构解析:基于cpp-httplib的运行机制 1 应用实战:启动大模型服务        llama-server是一款轻量级、兼容 OpenAI API、用于提供大语言模型服务的 HTTP 服务器。在上节中,我们启动了llama-server,构建了本地的大模型服务。本节将在此基础上,进一步深入llama-server启动过程的参数设置,同时演示如何利用curl工具发起网络请求,以实测并验证服务的接口响应。 1.1 模型服务参数设置        llama-server支持自定义

【OpenClaw:赚钱】案例19、内容产量5倍、广告收入翻4倍:播客转多平台内容矩阵全自动化实战(OpenAI Whisper + Claude)

【OpenClaw:赚钱】案例19、内容产量5倍、广告收入翻4倍:播客转多平台内容矩阵全自动化实战(OpenAI Whisper + Claude)

内容产量5倍、广告收入翻4倍:播客转多平台内容矩阵全自动化实战(OpenAI Whisper + Claude) 本文拆解内容创业者社区真实案例:用AI自动化将单期播客拆解为跨平台内容矩阵,内容产量提升5倍,广告月收入从¥8,000暴涨至¥35,000。从音频转写、内容提炼到多平台草稿生成,手把手教你打造高效内容分发流水线。 一、案例背景:内容创作者的效率革命 1.1 核心数据与业务本质 一位科技类播客主通过AI自动化内容矩阵系统,实现了内容生产与商业收入的双重飞跃: 核心指标优化前优化后提升幅度单期内容产量1期播客1套完整内容矩阵(6类内容)+500%周更新频率1次/周5次/周+400%月广告收入¥8,000¥35,000+337.5%内容生产耗时8小时/期1小时/期-87.5%平台覆盖仅播客播客+公众号+小红书+微博+LinkedIn+短视频+500%