机器学习与深度学习常见名词汇总
在 AI 领域,概念繁多且容易混淆。作为一名长期接触模型训练和算法优化的工程师,我整理了一些核心名词,希望能帮你理清思路。
基础概念:从机器学习到神经网络
机器学习 (Machine Learning)
机器学习是人工智能的一个分支,它让计算机系统能够从数据中学习并提高性能,而无需进行显式的编程。简单来说,就是利用统计技术识别数据中的模式,从而做出预测或决策。
主要特点:
- 数据驱动:模型性能高度依赖数据质量。
- 模式识别:自动发现规律并应用于新数据。
- 自适应:随着数据积累,模型性能可逐步提升。
- 算法多样:涵盖监督、无监督、强化学习等多种范式。
应用领域:语音识别、图像识别、推荐系统、自然语言处理及预测分析等。
深度学习 (Deep Learning)
深度学习是机器学习的子集,基于人工神经网络(特别是深层网络)构建。它模仿人脑工作方式,通过多层结构学习复杂抽象的表示。
主要特点:
- 多层结构:隐藏层允许学习更复杂的特征。
- 自动特征提取:减少了对人工特征工程的依赖。
- 大数据需求:通常需要海量数据支撑。
- 计算密集型:依赖 GPU 等硬件资源加速训练。
应用领域:语音助手、面部识别、自动驾驶、机器翻译、游戏模拟(如 AlphaGo)等。
神经网络 (Neural Network)
神经网络是深度学习的核心载体。理解其基本公式有助于把握模型本质: $$ y = f(Wx + \theta) $$ 其中:
- y:预测输出或目标变量。
- f():激活函数(如 ReLU、sigmoid),引入非线性,使模型能拟合复杂关系。
- W:权重矩阵,包含待优化的参数。
- x:输入数据矩阵,行代表样本,列代表特征。
- θ:偏置项,确保模型在无输入时也能产生非零输出。
对比传统机器学习:深度学习模型更复杂,需要更多数据和算力,但在处理大规模数据集和复杂问题时表现更佳;传统机器学习则更适合小数据或简单场景。
训练机制:模型如何学习
前向传播 (Forward Propagation)
数据从输入层流向输出层的过程。每一层接收上一层的输出,经过加权求和与激活函数处理后传递给下一层,最终得到预测结果。
反向传播 (Backpropagation)
根据预测误差,将梯度从输出层反向传递回输入层,用于更新网络参数。这是深度学习训练的核心算法。
梯度下降 (Gradient Descent)
一种优化算法,通过迭代调整参数来最小化损失函数。在训练过程中,权重和偏置通过优化算法不断调整,以逼近最优解。
常见问题:
- 梯度消失 (Vanishing Gradient):深层网络中梯度随层数增加趋近于零,导致底层参数无法更新。
- 梯度爆炸 (Exploding Gradients):梯度值过大,导致参数震荡甚至溢出。
损失函数 (Loss Function)
衡量模型预测值与真实值之间差异的指标。常见的有二次代价函数等,目标是使其尽可能小。


