人工智能、机器学习和深度学习,其实不是一回事

人工智能、机器学习和深度学习,其实不是一回事

一、人工智能、机器学习与深度学习的真正区别

在当今科技领域,我们经常听到人工智能、机器学习和深度学习这三个词。它们虽然相关,但含义不同。

1.1 人工智能

人工智能是计算机科学的一个分支,旨在研究如何合成与分析能够像人一样行动的计算主体。简单来说,AI 的目标是利用计算机来模拟甚至替代人类大脑的功能。

一个理想的 AI 系统通常具备以下特征:像人一样思考像人一样行动理性地思考与行动

在这里插入图片描述

1.2 机器学习

机器学习是实现人工智能的一种途径。它的核心定义是:赋予计算机在没有被显式编程的情况下进行学习的能力。

与传统的基于规则的编程不同,机器学习不依赖程序员手写每一条逻辑指令,而是通过算法让机器从大量数据中寻找规律,从而对新的数据产生预测或判断。

在这里插入图片描述

1.3 深度学习

深度学习是机器学习的一种特殊方法,也称为深度神经网络。它受人类大脑结构的启发,通过设计多层的神经元网络结构,来模拟万事万物的特征表示。

在这里插入图片描述

1.4 三者之间的层级关系

厘清这三者的关系对于初学者至关重要。人工智能 AI是最宏大的概念,包含了所有让机器变聪明的技术。机器学习 ML是 AI 的一个子集,是实现 AI 的目前最主流的方法。深度学习 DL又是 ML 的一个子集,是 ML 中利用深层神经网络进行学习的技术流派。

在这里插入图片描述

二、机器究竟是如何学习的

为了更好地理解机器学习,我们需要对比传统的解决问题方式与机器学习方式的区别。

2.1 规则驱动的传统编程方式

在传统编程模式下,程序员基本上就是规则的制定者。所有逻辑都要提前想清楚,然后用if-else这样的判断语句一条条写进去。

比如做图像判断时,程序往往只能依赖显式条件去推断结果

识别到轮子而且是圆形 → 可能是车
识别到车窗 → 可能是车
再叠加更多结构特征

问题很快就会暴露出来。

当问题边界清晰时,比如税务计算,这种方式非常高效。但面对复杂场景,例如图像识别自然语言处理,规则会迅速膨胀

现实世界没有固定模板。同一个目标在不同光照、角度、遮挡情况下都会发生巨大变化。想靠穷举条件覆盖所有情况,几乎不现实。

规则可以不断增加,但复杂度增长的速度,远远快于系统可维护的程度。

在这里插入图片描述

2.2 模型驱动的机器学习方式

机器学习采用的是归纳法。我们不直接编写规则,而是提供大量的历史数据,让机器通过算法去训练一个模型

案例:房价预测
假设我们有一组房屋面积与销售价格的数据:

123$m^2$ ->250万 150$m^2$ ->320万 ... 

我们可以假设房价与面积之间存在线性关系,即模型为 y = a x + b y = ax + b y=ax+b。

$y$ 是房价,$x$ 是面积。 $a$(斜率)和 $b$(截距)是我们需要求解的参数。 

机器学习的过程,就是通过历史数据找到最合适的 a a a 和 b b b,使得这条直线尽可能拟合所有数据点。一旦确定了参数,当输入一个新的面积 x x x 时,模型就能预测出房价 y y y。

在这里插入图片描述

三、人工智能的发展与现实应用

3.1 机器学习已经渗透的领域

如今,机器学习已经渗透到我们生活的方方面面

用户分析:社交网络画像、商品评论情感分析。搜索引擎:搜索结果排序、以图搜图。推荐系统:抖音/B站的视频推荐、淘宝的商品推荐。计算机视觉:人脸识别闸机、自动驾驶车辆检测、医疗影像诊断。AIGC:机器翻译、ChatGPT文本生成、Midjourney绘图。

3.2 三次浪潮:人工智能的发展阶段

人工智能并非新生事物,其发展经历了三次主要浪潮:

第一阶段(1950-1970年代):符号主义。以1956年达特茅斯会议提出人工智能术语为起点。代表事件是IBM的跳棋程序战胜人类。
第二阶段(1980-2000年代):统计主义。统计模型开始解决实际问题。代表事件是1997年IBM深蓝战胜国际象棋冠军卡斯帕罗夫。
第三阶段(2010年至今):深度学习。随着算力提升,神经网络复兴。2016年AlphaGo战胜李世石是标志性事件。2022年ChatGPT的出现标志着大模型时代的到来。

在这里插入图片描述

3.3 AI 爆发背后的三大基础

为什么 AI 在近年来才爆发?因为三大基石的共同作用。

1.数据:互联网时代产生了海量数据,为模型提供了燃料。
2.算法:深度学习算法的突破。
3.算力:硬件的飞跃。

CPU:适合逻辑控制和I/O操作。
GPU:擅长大规模矩阵运算,是训练神经网络的主力。
TPU:Google专门为张量计算设计的处理器。
在这里插入图片描述

四、机器学习常见术语

1.样本
一行数据就是一个样本。
它代表现实世界中的一个实体或一条记录。多个样本组成了数据集

2.特征
数据表中的列(通常是除去最后一列)
特征是从数据中抽取出来的、对预测结果有用的属性信息。

3.标签/目标值
模型要预测的那一列数据。
这是模型学习的最终答案。

4.数据集划分
为了验证模型的有效性,我们不能用所有数据来训练。通常将数据集按比例(如 8:2 或 7:3)划分为两部分:

训练集:用于让模型学习规律,建立模型。
测试集:用于评估模型表现。
在这里插入图片描述

最后,当我们把人工智能机器学习深度学习放回各自的位置,很多问题其实就变得清晰了。AI 是目标, 机器学习是路径, 深度学习是其中的一种实现方式。理解层级,比记住名词更重要。

日期:2025年2月24日
专栏:机器学习

Read more

FPGA中的 LUT6

FPGA中的 LUT6

LUT6 的能力远不止实现简单的逻辑门,它极其灵活。我们可以从基础功能到高级应用,再到扩展能力三个层面来全面回答。 一、 基础功能:实现任意6输入逻辑门 核心结论:一个 LUT6 可以实现任意一个 6 输入、1 输出的组合逻辑函数。 这意味着,只要你的逻辑门输入不超过 6 个,无论逻辑多复杂,它都能在一个 LUT6 内完成,且延迟是固定的。 1. 基本逻辑门 * 与门: 2输入与门、3输入与门…一直到 6输入与门 (y = a & b & c & d & e & f)。 * 或门: 2输入或门…一直到 6输入或门。 * 异或门: 2输入异或门…

宇树科技Go2机器人强化学习(RL)开发实操指南

宇树科技Go2机器人强化学习(RL)开发实操指南

在Go2机器人的RL开发中,环境配置、模型训练、效果验证与策略部署的实操步骤是核心环节。本文基于宇树科技官方文档及开源资源,以Isaac Gym和Isaac Lab两大主流仿真平台为核心,提供从环境搭建到实物部署的全流程操作步骤,覆盖关键命令与参数配置,帮助开发者快速落地RL开发。 一、基础准备:硬件与系统要求 在开始操作前,需确保硬件与系统满足RL开发的基础需求,避免后续因配置不足导致训练中断或性能瓶颈。 类别具体要求说明显卡NVIDIA RTX系列(显存≥8GB)需支持CUDA加速,Isaac Gym/Isaac Lab均依赖GPU进行仿真与训练操作系统Ubuntu 18.04/20.04/22.04推荐20.04版本,兼容性最佳,避免使用Windows系统(部分依赖不支持)显卡驱动525版本及以上需与CUDA版本匹配(如CUDA 11.3对应驱动≥465.19.01,CUDA 11.8对应驱动≥520.61.05)软件依赖Conda(

Chrome 开发者工具(DevTools)快速入门——前端必备技能

Chrome 开发者工具(DevTools)快速入门——前端必备技能

在前端开发中,Chrome 开发者工具(DevTools) 是我们排查问题、优化性能、理解浏览器行为最强大的助手之一。无论是想快速定位页面样式异常、分析接口请求,还是调试 JavaScript 逻辑,DevTools 都能提供直观高效的方式帮助我们“看清代码背后发生了什么”。 这篇笔记将带你快速入门,从最基本的面板功能到常用调试技巧,让你能在实战中灵活运用它,提升开发效率与问题解决能力。 1. 打开方式与放大缩小 1. 快捷键: * Windows/Linux:F12 或 Ctrl + Shift + I * macOS:Command + Option + I 1. 右键打开:在页面任意元素上右键 → “检查 (Inspect)” 2. 菜单打开:点击右上角 ⋮ → “更多工具” → “开发者工具” 在使用 Chrome 开发者工具时,可以通过 鼠标滚轮 快速调整界面缩放。

开源ASR新选择:Fun-ASR WebUI本地部署与使用指南

开源ASR新选择:Fun-ASR WebUI本地部署与使用指南 在远程办公、在线教育和智能客服日益普及的今天,语音转文字的需求正以前所未有的速度增长。会议录音、课堂讲解、访谈记录——这些原本需要人工逐字整理的内容,如今都期待通过自动语音识别(ASR)技术实现高效转化。然而,当我们将目光投向主流云服务时,高昂的调用成本、数据外传的风险以及网络延迟带来的体验割裂,常常让人望而却步。 正是在这种背景下,Fun-ASR WebUI 的出现显得尤为及时。这款由钉钉联合通义实验室推出的开源语音识别系统,不仅具备高精度多语言支持能力,更通过一个简洁直观的图形界面,让非技术人员也能轻松完成复杂的语音转写任务。它真正实现了“本地运行、零代码操作、全程可控”的理想状态。 从模型到交互:理解 Fun-ASR 的核心架构 Fun-ASR 并非简单的工具封装,而是一套经过深度优化的端到端语音识别体系。其底层搭载的是轻量级大模型 Fun-ASR-Nano-2512,专为本地部署设计,在保持较高准确率的同时大幅降低资源消耗。该模型采用编码器-解码器结构,并融合注意力机制,能够对梅尔频谱图进行有效建模,逐词