人工智能、机器学习和深度学习,其实不是一回事

人工智能、机器学习和深度学习,其实不是一回事

一、人工智能、机器学习与深度学习的真正区别

在当今科技领域,我们经常听到人工智能、机器学习和深度学习这三个词。它们虽然相关,但含义不同。

1.1 人工智能

人工智能是计算机科学的一个分支,旨在研究如何合成与分析能够像人一样行动的计算主体。简单来说,AI 的目标是利用计算机来模拟甚至替代人类大脑的功能。

一个理想的 AI 系统通常具备以下特征:像人一样思考像人一样行动理性地思考与行动

在这里插入图片描述

1.2 机器学习

机器学习是实现人工智能的一种途径。它的核心定义是:赋予计算机在没有被显式编程的情况下进行学习的能力。

与传统的基于规则的编程不同,机器学习不依赖程序员手写每一条逻辑指令,而是通过算法让机器从大量数据中寻找规律,从而对新的数据产生预测或判断。

在这里插入图片描述

1.3 深度学习

深度学习是机器学习的一种特殊方法,也称为深度神经网络。它受人类大脑结构的启发,通过设计多层的神经元网络结构,来模拟万事万物的特征表示。

在这里插入图片描述

1.4 三者之间的层级关系

厘清这三者的关系对于初学者至关重要。人工智能 AI是最宏大的概念,包含了所有让机器变聪明的技术。机器学习 ML是 AI 的一个子集,是实现 AI 的目前最主流的方法。深度学习 DL又是 ML 的一个子集,是 ML 中利用深层神经网络进行学习的技术流派。

在这里插入图片描述

二、机器究竟是如何学习的

为了更好地理解机器学习,我们需要对比传统的解决问题方式与机器学习方式的区别。

2.1 规则驱动的传统编程方式

在传统编程模式下,程序员基本上就是规则的制定者。所有逻辑都要提前想清楚,然后用if-else这样的判断语句一条条写进去。

比如做图像判断时,程序往往只能依赖显式条件去推断结果

识别到轮子而且是圆形 → 可能是车
识别到车窗 → 可能是车
再叠加更多结构特征

问题很快就会暴露出来。

当问题边界清晰时,比如税务计算,这种方式非常高效。但面对复杂场景,例如图像识别自然语言处理,规则会迅速膨胀

现实世界没有固定模板。同一个目标在不同光照、角度、遮挡情况下都会发生巨大变化。想靠穷举条件覆盖所有情况,几乎不现实。

规则可以不断增加,但复杂度增长的速度,远远快于系统可维护的程度。

在这里插入图片描述

2.2 模型驱动的机器学习方式

机器学习采用的是归纳法。我们不直接编写规则,而是提供大量的历史数据,让机器通过算法去训练一个模型

案例:房价预测
假设我们有一组房屋面积与销售价格的数据:

123$m^2$ ->250万 150$m^2$ ->320万 ... 

我们可以假设房价与面积之间存在线性关系,即模型为 y = a x + b y = ax + b y=ax+b。

$y$ 是房价,$x$ 是面积。 $a$(斜率)和 $b$(截距)是我们需要求解的参数。 

机器学习的过程,就是通过历史数据找到最合适的 a a a 和 b b b,使得这条直线尽可能拟合所有数据点。一旦确定了参数,当输入一个新的面积 x x x 时,模型就能预测出房价 y y y。

在这里插入图片描述

三、人工智能的发展与现实应用

3.1 机器学习已经渗透的领域

如今,机器学习已经渗透到我们生活的方方面面

用户分析:社交网络画像、商品评论情感分析。搜索引擎:搜索结果排序、以图搜图。推荐系统:抖音/B站的视频推荐、淘宝的商品推荐。计算机视觉:人脸识别闸机、自动驾驶车辆检测、医疗影像诊断。AIGC:机器翻译、ChatGPT文本生成、Midjourney绘图。

3.2 三次浪潮:人工智能的发展阶段

人工智能并非新生事物,其发展经历了三次主要浪潮:

第一阶段(1950-1970年代):符号主义。以1956年达特茅斯会议提出人工智能术语为起点。代表事件是IBM的跳棋程序战胜人类。
第二阶段(1980-2000年代):统计主义。统计模型开始解决实际问题。代表事件是1997年IBM深蓝战胜国际象棋冠军卡斯帕罗夫。
第三阶段(2010年至今):深度学习。随着算力提升,神经网络复兴。2016年AlphaGo战胜李世石是标志性事件。2022年ChatGPT的出现标志着大模型时代的到来。

在这里插入图片描述

3.3 AI 爆发背后的三大基础

为什么 AI 在近年来才爆发?因为三大基石的共同作用。

1.数据:互联网时代产生了海量数据,为模型提供了燃料。
2.算法:深度学习算法的突破。
3.算力:硬件的飞跃。

CPU:适合逻辑控制和I/O操作。
GPU:擅长大规模矩阵运算,是训练神经网络的主力。
TPU:Google专门为张量计算设计的处理器。
在这里插入图片描述

四、机器学习常见术语

1.样本
一行数据就是一个样本。
它代表现实世界中的一个实体或一条记录。多个样本组成了数据集

2.特征
数据表中的列(通常是除去最后一列)
特征是从数据中抽取出来的、对预测结果有用的属性信息。

3.标签/目标值
模型要预测的那一列数据。
这是模型学习的最终答案。

4.数据集划分
为了验证模型的有效性,我们不能用所有数据来训练。通常将数据集按比例(如 8:2 或 7:3)划分为两部分:

训练集:用于让模型学习规律,建立模型。
测试集:用于评估模型表现。
在这里插入图片描述

最后,当我们把人工智能机器学习深度学习放回各自的位置,很多问题其实就变得清晰了。AI 是目标, 机器学习是路径, 深度学习是其中的一种实现方式。理解层级,比记住名词更重要。

日期:2025年2月24日
专栏:机器学习

Read more

一键换装魔法:基于ComfyUI工作流的Stable Diffusion服装替换指南

文章目录 * 一、Stable Diffusion与ComfyUI工作流基础 * 二、工作流获取:从社区到管理器一键部署 * 途径1:专业工作流社区(推荐新手) * 途径2:ComfyUI Manager(高阶扩展) * 三、换装工作流详解:以ComfyUI为例 * 工作流结构拆解 * 关键节点说明 * 模型准备清单 * 四、实战演示:一键换衣全流程 * 五、进阶应用:跨次元换装与3D生成 * 六、常见问题排查 * 结语:工作流的未来 Stable Diffusion作为当前最热门的开源文生图模型,在图像生成领域掀起了一场革命。其最新版本Stable Diffusion 3 Medium(2024年发布)包含20亿参数,在图像质量、复杂提示理解及资源效率方面实现显著突破,能生成细节逼真、色彩鲜艳且光照自然的图像。而ComfyUI作为基于节点的工作流界面,通过可视化连接处理模块,为复杂任务(如图像重绘、视频生成、服装替换等)提供了灵活且可复现的解决方案。

记录一下使用llama.cpp过程中遇到的一些问题和解决方法

写在前面: 什么未操作即同意的条款?我写的东西免费分享也不是你能随意搬运的理由啊 特此声明,若该文章被搬运到除ZEEKLOG(www.ZEEKLOG.net)以外的其他社区如2048 AI社区,则视为该社区同意将所有收益无偿捐赠给我所有 此外,我写的所有分享都是免费的,如有VIP文章也是ZEEKLOG干的,请私信我修改成免费 起因:使用LMStudio调用AI模型时发现显存占用率一直不超过80%,询问AI解决办法无果后一怒之下换用llama.cpp,遇到了一堆AI解决不了的问题,遂记录 llama.cpp下载地址如下 https://github.com/ggml-org/llama.cpp/releases 以防万一 我老年痴呆说一下如何使用llama.cpp调用模型,把下面的代码保存成bat,放在和llama-server.exe同目录下,然后运行这个bat(确保模型位置选对,GPU_LAYERS和THREADS根据机器能力) @echo off setlocal set "MODEL_PATH=F:\Models\Yakyu&

llama.cpp加载多模态gguf模型

llama.cpp预编译包还不支持cuda12.6 llama.cpp的编译,也有各种坑 llama.cpp.python的也需要编译 llama.cpp命令行加载多模态模型 llama-mtmd-cli -m Qwen2.5-VL-3B-Instruct-q8_0.gguf --mmproj Qwen2.5-VL-3B-Instruct-mmproj-f16.gguf -p "Describe this image." --image ./car-1.jpg **模型主gguf文件要和mmporj文件从一个库里下载,否则会有兼容问题,建议从ggml的官方库里下载 Multimodal GGUFs官方库 llama.cpp.python加载多模态模型 看官方文档 要使用LlamaChatHandler类,官方已经写好了不少多模态模型的加载类,比如qwen2.5vl的写法: from llama_cpp import Llama

LFM2.5-1.2B-Thinking多场景落地:Ollama支持下的智能写作、代码辅助、学习助手实战

LFM2.5-1.2B-Thinking多场景落地:Ollama支持下的智能写作、代码辅助、学习助手实战 1. 为什么选择LFM2.5-1.2B-Thinking? 如果你正在寻找一个既强大又轻量的AI助手,LFM2.5-1.2B-Thinking绝对值得关注。这个模型虽然只有12亿参数,但性能却能与大得多的模型相媲美,真正实现了"小而美"的设计理念。 最吸引人的是它的部署便利性——通过Ollama平台,你只需要几次点击就能开始使用。不需要复杂的配置,不需要昂贵的硬件,甚至不需要深厚的技术背景。无论你是想提升写作效率、获得编程帮助,还是需要一个随时可用的学习伙伴,这个模型都能提供实实在在的价值。 我亲自测试了这个模型在不同场景下的表现,发现它在保持响应速度的同时,还能提供相当不错的输出质量。内存占用不到1GB,在普通电脑上就能流畅运行,这让我对设备端AI的未来更加期待。 2. 快速上手:Ollama部署指南 2.1 找到模型入口 使用LFM2.5-1.2B-Thinking的第一步是找到正确的入口。打开Ollama平台后,你会看到一个清晰的界面。在模型展示区域,很容易