人工智能:深度学习中的卷积神经网络(CNN)实战应用

人工智能:深度学习中的卷积神经网络(CNN)实战应用

人工智能:深度学习中的卷积神经网络(CNN)实战应用

在这里插入图片描述

1.1 本章学习目标与重点

💡 学习目标:掌握卷积神经网络的核心原理、经典网络架构,以及在图像分类任务中的实战开发流程。
💡 学习重点:理解卷积层、池化层的工作机制,学会使用 TensorFlow 搭建 CNN 模型并完成训练与评估。

1.2 卷积神经网络核心原理

1.2.1 卷积层:提取图像局部特征

💡 卷积层是 CNN 的核心组件,其作用是通过卷积核对输入图像进行局部特征提取。
卷积核本质是一个小型的权重矩阵。它会按照设定的步长在图像上滑动。每滑动一次,卷积核就会与对应区域的像素值做内积运算,输出一个特征值。
这个过程可以捕捉图像的边缘、纹理等基础特征。
⚠️ 注意:卷积核的数量决定了输出特征图的通道数,数量越多,提取的特征维度越丰富。

① 定义一个 3×3 大小的卷积核,步长设为 1,填充方式为 SAME
② 对 28×28 单通道的手写数字图像进行卷积操作
③ 输出特征图的尺寸保持 28×28,通道数由卷积核数量决定

import tensorflow as tf from tensorflow.keras.layers import Conv2D # 定义卷积层 conv_layer = Conv2D(filters=32, kernel_size=(3,3), strides=(1,1), padding="SAME", input_shape=(28,28,1))# 模拟输入:1 张 28×28 单通道图像 input_image = tf.random.normal(shape=(1,28,28,1))# 执行卷积运算 output_feature = conv_layer(input_image)print("输出特征图形状:", output_feature.shape)

1.2.2 池化层:降低特征维度与防止过拟合

💡 池化层的作用是对卷积层输出的特征图进行降采样。它可以在保留关键特征的同时,减少参数数量和计算量。
常见的池化方式有两种:最大池化平均池化
最大池化选取局部区域内的最大值作为输出,能更好保留纹理特征。平均池化选取局部区域的平均值,能保留背景特征。

① 定义 2×2 大小的最大池化层,步长设为 2
② 对卷积层输出的特征图进行池化操作
③ 输出特征图的尺寸会缩小为原来的 1/2

from tensorflow.keras.layers import MaxPooling2D # 定义最大池化层 pool_layer = MaxPooling2D(pool_size=(2,2), strides=(2,2), padding="SAME")# 对卷积层输出的特征图做池化 pool_output = pool_layer(output_feature)print("池化后特征图形状:", pool_output.shape)

1.3 经典 CNN 架构——LeNet-5

💡 LeNet-5 是由 Yann LeCun 提出的经典卷积神经网络。它专门用于手写数字识别任务,奠定了现代 CNN 的基础架构。
LeNet-5 的结构分为 5 层:2 个卷积层、2 个池化层、1 个全连接层,最后通过 Softmax 输出分类结果。

1.3.1 LeNet-5 网络结构搭建

from tensorflow.keras import Sequential from tensorflow.keras.layers import Flatten, Dense # 搭建 LeNet-5 模型 lenet5 = Sequential([# 卷积层 1:6 个 5×5 卷积核,步长 1,无填充 Conv2D(filters=6, kernel_size=(5,5), strides=(1,1), padding="VALID", input_shape=(28,28,1), activation="tanh"),# 池化层 1:2×2 最大池化,步长 2 MaxPooling2D(pool_size=(2,2), strides=(2,2), padding="VALID"),# 卷积层 2:16 个 5×5 卷积核,步长 1,无填充 Conv2D(filters=16, kernel_size=(5,5), strides=(1,1), padding="VALID", activation="tanh"),# 池化层 2:2×2 最大池化,步长 2 MaxPooling2D(pool_size=(2,2), strides=(2,2), padding="VALID"),# 展平层:将特征图转为一维向量 Flatten(),# 全连接层 1:120 个神经元 Dense(units=120, activation="tanh"),# 全连接层 2:84 个神经元 Dense(units=84, activation="tanh"),# 输出层:10 个神经元对应 10 个数字类别,Softmax 激活 Dense(units=10, activation="softmax")])# 查看模型结构 lenet5.summary()

1.3.2 LeNet-5 模型编译与训练

💡 本次实战使用 MNIST 手写数字数据集。这个数据集包含 60000 张训练图像和 10000 张测试图像,每张图像都是 28×28 的灰度图。

① 加载 MNIST 数据集并进行归一化处理
② 编译模型:选择 Adam 优化器、交叉熵损失函数
③ 训练模型:设置批次大小 32,训练轮数 10 轮

from tensorflow.keras.datasets import mnist from tensorflow.keras.utils import to_categorical # 1. 加载并预处理数据(x_train, y_train),(x_test, y_test)= mnist.load_data()# 归一化:将像素值从 0-255 转为 0-1 x_train = x_train /255.0 x_test = x_test /255.0# 增加通道维度:(样本数, 28, 28) → (样本数, 28, 28, 1) x_train = tf.expand_dims(x_train, axis=-1) x_test = tf.expand_dims(x_test, axis=-1)# 标签独热编码 y_train = to_categorical(y_train, num_classes=10) y_test = to_categorical(y_test, num_classes=10)# 2. 编译模型 lenet5.compile(optimizer="adam", loss="categorical_crossentropy", metrics=["accuracy"])# 3. 训练模型 history = lenet5.fit(x_train, y_train, batch_size=32, epochs=10, validation_split=0.1)# 4. 评估模型 test_loss, test_acc = lenet5.evaluate(x_test, y_test)print(f"测试集准确率:{test_acc:.4f}")

1.4 实战问题与解决方案

1.4.1 过拟合问题处理

⚠️ 问题:训练过程中,训练集准确率持续上升,但验证集准确率出现下降。这就是过拟合现象。
💡 解决方案:加入Dropout 层随机丢弃部分神经元,防止模型过度依赖某些特征。

在全连接层后加入 Dropout 层的示例代码:

from tensorflow.keras.layers import Dropout # 修改模型,加入 Dropout 层 lenet5_with_dropout = Sequential([ Conv2D(6,(5,5), strides=1, padding="VALID", input_shape=(28,28,1), activation="tanh"), MaxPooling2D((2,2), strides=2, padding="VALID"), Conv2D(16,(5,5), strides=1, padding="VALID", activation="tanh"), MaxPooling2D((2,2), strides=2, padding="VALID"), Flatten(), Dense(120, activation="tanh"), Dropout(0.2),# 丢弃 20% 的神经元 Dense(84, activation="tanh"), Dropout(0.2), Dense(10, activation="softmax")]) lenet5_with_dropout.compile(optimizer="adam", loss="categorical_crossentropy", metrics=["accuracy"])

1.4.2 模型优化技巧

💡 技巧 1:使用ReLU 激活函数替换 tanh 函数。ReLU 能缓解梯度消失问题,加速模型收敛。
💡 技巧 2:使用批量归一化(BatchNormalization)。它可以使每一层的输入分布更稳定,提升训练效率。
💡 技巧 3:调整学习率。使用学习率衰减策略,在训练后期降低学习率,让模型更精准收敛。

1.5 本章总结

✅ 卷积层通过卷积核提取图像局部特征,池化层通过降采样减少参数与计算量。
✅ LeNet-5 是经典 CNN 架构,由卷积层、池化层、全连接层组成,适用于小尺寸图像分类。
✅ 实战中可通过加入 Dropout 层、使用 ReLU 激活函数等方法优化模型,提升泛化能力。

Read more

微软 Copilot Cowork 深度解析:用 Kotlin + 147API 手搓一个 AI Agent

微软 Copilot Cowork 深度解析:用 Kotlin + 147API 手搓一个 AI Agent

微软最近发布的 Copilot Cowork 在技术圈炸开了锅。它变了。它不再是那个只会补全代码的插件,而是变成了你的 “Coworker”(同事)。基于 Anthropic 的 Claude 构建,它现在能像真人一样处理复杂任务。 作为开发者,我们不仅要会用,更要懂得背后的原理。今天我们就来拆解一下 Copilot Cowork 的核心逻辑,并教你如何利用 Kotlin 和 147API 构建一个属于自己的简易 AI Agent。 从 Chatbot 到 Agent 传统的 Copilot 就像一个实习生,你给它一个指令,它执行一个动作。而 Copilot Cowork 更像是一个成熟的合作伙伴。它具备了 感知(Perception)、规划(Planning) 和 执行(Execution)

Llama-Factory中文文档全面优化:新手入门不再难

Llama-Factory:让大模型微调真正走向大众 在今天,一个刚入门的开发者想用自己的数据训练一个类似通义千问或LLaMA的对话模型,听起来是不是像天方夜谭?毕竟这些动辄几十亿、上百亿参数的“巨无霸”,通常只出现在拥有顶级GPU集群的大厂实验室里。但现实是,越来越多的个人开发者、中小企业甚至高校研究者,已经开始在单张24GB显存的消费级显卡上完成70B级别模型的微调——而这背后的关键推手之一,正是 Llama-Factory。 这个开源项目最初可能只是GitHub上的一个实验性工具,如今却已成长为中文社区中最活跃的大模型微调框架之一。它真正的突破点,并不在于创造了某种全新的算法,而在于把复杂的技术链路封装成了普通人也能驾驭的工作流。尤其随着其近期对中文文档的全面重构与优化,国内用户终于不再需要一边查英文术语、一边翻代码注释来摸索使用路径。 那么,它是如何做到的? 我们不妨从一个最典型的场景切入:你想为一家医疗企业定制一个能回答专业问题的AI助手。你手头有几千条医生撰写的问答对,目标是让LLaMA-3或Qwen这样的基础模型学会用更准确、规范的语言作答。传统做法可能是找一位深

AI写作(十)发展趋势与展望(10/10)

AI写作(十)发展趋势与展望(10/10)

一、AI 写作的崛起之势 在当今科技飞速发展的时代,AI 写作如同一颗耀眼的新星,迅速崛起并在多个领域展现出强大的力量。 随着人工智能技术的不断进步,AI 写作在内容创作领域发挥着越来越重要的作用。据统计,目前已有众多企业开始采用 AI 写作技术,其生成的内容在新闻资讯、财经分析、教育培训等领域广泛应用。例如,在新闻资讯领域,AI 写作能够实现对热点事件的即时追踪与快速报道。通过自动化抓取、分析海量数据,结合预设的新闻模板与逻辑框架,内容创作者能够迅速生成高质量的新闻稿,极大地提升了新闻发布的时效性和覆盖面。 在教育培训领域,AI 写作也展现出巨大的潜力。AI 写作助手可以根据用户输入的主题和要求,自动生成文章的大纲和结构,帮助学生和教师快速了解文章的主要内容和逻辑关系,更好地进行后续的写作工作。同时,它还能进行语法和拼写检查、关键词提取和语义分析,提高文章的质量,为学生和教师提供更好的写作支持和服务。 在企业服务方面,AI 智能写作技术成为解决企业内容生产痛点的有效方法之一。它可以帮助企业实现自动化内容生产,提高文案质量和转化率。通过学习和模仿人类的写作风格和语言表达能力

智创 AI 新视界 -- AIGC 背后的深度学习魔法:从原理到实践

智创 AI 新视界 -- AIGC 背后的深度学习魔法:从原理到实践

💖💖💖亲爱的朋友们,热烈欢迎你们来到 青云交的博客!能与你们在此邂逅,我满心欢喜,深感无比荣幸。在这个瞬息万变的时代,我们每个人都在苦苦追寻一处能让心灵安然栖息的港湾。而 我的博客,正是这样一个温暖美好的所在。在这里,你们不仅能够收获既富有趣味又极为实用的内容知识,还可以毫无拘束地畅所欲言,尽情分享自己独特的见解。我真诚地期待着你们的到来,愿我们能在这片小小的天地里共同成长,共同进步。💖💖💖 本博客的精华专栏: 1. 大数据新视界专栏系列:聚焦大数据,展技术应用,推动进步拓展新视野。 2. Java 大厂面试专栏系列:提供大厂面试的相关技巧和经验,助力求职。 3. Python 魅力之旅:探索数据与智能的奥秘专栏系列:走进 Python 的精彩天地,感受数据处理与智能应用的独特魅力。 4. Java 性能优化传奇之旅:铸就编程巅峰之路:如一把神奇钥匙,深度开启 JVM 等关键领域之门。丰富案例似璀璨繁星,引领你踏上编程巅峰的壮丽征程。 5. Java 虚拟机(