跳到主要内容计算机视觉基础、模型架构与实战应用 | 极客日志PythonAI算法
计算机视觉基础、模型架构与实战应用
综述由AI生成计算机视觉涉及图像理解、目标检测与分类等核心任务。详细阐述了图像预处理、增强及滤波技术,介绍了 HOG、SIFT、ORB 等特征提取方法,并对比了 LeNet、ResNet、YOLO 等主流深度学习模型。结合 Python 生态,提供了基于 OpenCV 和 PyTorch 的完整代码示例,涵盖从环境搭建、模型训练到 GUI 应用开发的实战流程,适合希望快速掌握 CV 基础并落地项目的开发者参考。
游戏玩家5 浏览 计算机视觉基础与实战应用
学习目标
- 理解计算机视觉的基本概念及其在人工智能中的重要性
- 掌握图像处理技术,包括预处理、增强和滤波方法
- 熟悉特征提取方法(HOG、SIFT、ORB)及常用模型架构
- 学会使用 OpenCV、PyTorch 等库进行图像处理和模型训练
- 通过实战项目,开发一个包含图像分类和目标检测的完整应用
一、计算机视觉基础
1.1 基本概念
计算机视觉(Computer Vision)是人工智能的重要分支,旨在让计算机能够像人类一样理解和解释图像内容。其核心功能包括图像理解、目标检测、图像分类、语义分割以及图像生成。
1.2 应用场景与挑战
计算机视觉已广泛应用于医疗诊断、自动驾驶、安防监控、电商推荐等领域。然而,实际应用中仍面临诸多挑战:
- 图像质量:噪声、模糊等问题影响识别精度
- 物体多样性:大小、形状、姿态的变化增加了难度
- 场景复杂性:光照变化、背景干扰及遮挡情况
- 数据与资源:特定领域数据稀缺,且处理需要大量计算资源
二、图像处理技术
2.1 图像预处理
预处理是后续分析的基础,主要包括读取保存、尺寸调整、亮度对比度调节以及裁剪旋转等操作。
import cv2
import numpy as np
def read_image(image_path):
image = cv2.imread(image_path)
return image
def save_image(image, output_path):
cv2.imwrite(output_path, image)
def resize_image(image, width, height):
resized_image = cv2.resize(image, (width, height))
return resized_image
def adjust_brightness_contrast(image, alpha=1.0, beta=0.0):
adjusted_image = cv2.convertScaleAbs(image, alpha=alpha, beta=beta)
return adjusted_image
def crop_image(image, x, y, width, height):
cropped_image = image[y:y+height, x:x+width]
return cropped_image
def ():
(h, w) = image.shape[:]
center = (w // , h // )
M = cv2.getRotationMatrix2D(center, angle, )
rotated_image = cv2.warpAffine(image, M, (w, h))
rotated_image
rotate_image
image, angle
2
2
2
1.0
return
2.2 图像增强
增强旨在提升图像质量,常见方法包括直方图均衡化以改善对比度,以及各类平滑滤波去噪。
import cv2
import numpy as np
def histogram_equalization(image):
gray_image = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
equalized_image = cv2.equalizeHist(gray_image)
return equalized_image
def mean_filter(image, kernel_size=3):
blurred_image = cv2.blur(image, (kernel_size, kernel_size))
return blurred_image
def gaussian_filter(image, kernel_size=3, sigma=0):
blurred_image = cv2.GaussianBlur(image, (kernel_size, kernel_size), sigma)
return blurred_image
def median_filter(image, kernel_size=3):
blurred_image = cv2.medianBlur(image, kernel_size)
return blurred_image
2.3 图像滤波与边缘检测
边缘检测是特征提取的关键步骤,Sobel 算子和 Canny 算法是常用的实现方式。
import cv2
import numpy as np
def sobel_edge_detection(image):
gray_image = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
sobel_x = cv2.Sobel(gray_image, cv2.CV_64F, 1, 0, ksize=3)
sobel_y = cv2.Sobel(gray_image, cv2.CV_64F, 0, 1, ksize=3)
sobel_combined = np.sqrt(sobel_x**2 + sobel_y**2)
sobel_combined = np.uint8(sobel_combined / np.max(sobel_combined) * 255)
return sobel_combined
def canny_edge_detection(image, threshold1=100, threshold2=200):
gray_image = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
edges = cv2.Canny(gray_image, threshold1, threshold2)
return edges
三、特征提取方法
3.1 HOG 特征
方向梯度直方图(HOG)通过计算图像梯度的方向分布来描述局部特征,常用于行人检测等任务。
import cv2
import numpy as np
def extract_hog_features(image):
hog = cv2.HOGDescriptor()
gray_image = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
features = hog.compute(gray_image)
return features
3.2 SIFT 与 ORB 特征
SIFT(尺度不变特征变换)在不同尺度空间检测关键点,而 ORB(快速 FAST 和旋转 BRIEF)则结合了 FAST 检测点与 BRIEF 描述符,速度更快。
import cv2
import numpy as np
def extract_sift_features(image):
sift = cv2.SIFT_create()
gray_image = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
keypoints, descriptors = sift.detectAndCompute(gray_image, None)
return keypoints, descriptors
def extract_orb_features(image):
orb = cv2.ORB_create()
gray_image = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
keypoints, descriptors = orb.detectAndCompute(gray_image, None)
return keypoints, descriptors
四、常用模型与架构
4.1 传统机器学习模型
支持向量机(SVM)、决策树和随机森林等传统模型在图像分类中仍有应用,特别是当数据量有限时。
4.2 深度学习模型
- LeNet:早期卷积网络代表
- AlexNet:引入 ReLU 激活函数,推动 CNN 发展
- VGG:使用小卷积核堆叠加深网络
- ResNet:残差连接解决了深层网络梯度消失问题
- YOLO:单阶段目标检测模型,速度快
4.3 模型训练实战
下面展示如何使用 PyTorch 加载预训练的 ResNet 并进行微调训练。
import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader
from torchvision import datasets, transforms, models
def train_resnet_model(data_dir, num_classes=2, batch_size=32, num_epochs=10, lr=0.001):
data_transforms = {
'train': transforms.Compose([
transforms.RandomResizedCrop(224),
transforms.RandomHorizontalFlip(),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
]),
'val': transforms.Compose([
transforms.Resize(256),
transforms.CenterCrop(224),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
])
}
image_datasets = {x: datasets.ImageFolder(f'{data_dir}/{x}', data_transforms[x]) for x in ['train', 'val']}
dataloaders = {x: DataLoader(image_datasets[x], batch_size=batch_size, shuffle=True, num_workers=4) for x in ['train', 'val']}
dataset_sizes = {x: len(image_datasets[x]) for x in ['train', 'val']}
class_names = image_datasets['train'].classes
model = models.resnet18(pretrained=True)
num_ftrs = model.fc.in_features
model.fc = nn.Linear(num_ftrs, num_classes)
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=lr, momentum=0.9)
scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=7, gamma=0.1)
for epoch in range(num_epochs):
print(f'Epoch {epoch}/{num_epochs - 1}')
print('-' * 10)
for phase in ['train', 'val']:
if phase == 'train':
model.train()
else:
model.eval()
running_loss = 0.0
running_corrects = 0
for inputs, labels in dataloaders[phase]:
optimizer.zero_grad()
with torch.set_grad_enabled(phase == 'train'):
outputs = model(inputs)
_, preds = torch.max(outputs, 1)
loss = criterion(outputs, labels)
if phase == 'train':
loss.backward()
optimizer.step()
running_loss += loss.item() * inputs.size(0)
running_corrects += torch.sum(preds == labels.data)
if phase == 'train':
scheduler.step()
epoch_loss = running_loss / dataset_sizes[phase]
epoch_acc = running_corrects.double() / dataset_sizes[phase]
print(f'{phase} Loss: {epoch_loss:.4f} Acc: {epoch_acc:.4f}')
print('Training complete')
return model
五、实战项目:计算机视觉应用开发
5.1 需求与架构
本项目旨在构建一个集成图像分类与目标检测功能的桌面应用。系统采用分层架构,包含用户界面层、业务逻辑层、图像处理层和数据存储层。
5.2 环境搭建
pip install opencv-python pillow torch torchvision tensorflow
5.3 核心功能实现
图像输入与处理
使用 Tkinter 构建 GUI,支持图片选择与预览。
import tkinter as tk
from tkinter import filedialog
from PIL import Image, ImageTk
class ImageInputFrame(tk.Frame):
def __init__(self, parent, on_image_selected):
tk.Frame.__init__(self, parent)
self.parent = parent
self.on_image_selected = on_image_selected
self.create_widgets()
def create_widgets(self):
self.image_label = tk.Label(self)
self.image_label.pack(pady=10, padx=10, fill="both", expand=True)
tk.Button(self, text="选择图像", command=self.select_image).pack(pady=10, padx=10)
def select_image(self):
file_path = filedialog.askopenfilename(filetypes=[("Image Files", "*.png *.jpg *.jpeg *.bmp")])
if file_path:
image = Image.open(file_path)
image = image.resize((400, 300), Image.ANTIALIAS)
photo = ImageTk.PhotoImage(image)
self.image_label.configure(image=photo)
self.image_label.image = photo
self.on_image_selected(file_path)
图像分类
import torch
from torchvision import transforms, models
from PIL import Image
def classify_image(image_path, model_path, class_names):
data_transforms = transforms.Compose([
transforms.Resize(256),
transforms.CenterCrop(224),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
])
image = Image.open(image_path)
image = data_transforms(image)
image = image.unsqueeze(0)
model = models.resnet18()
num_ftrs = model.fc.in_features
model.fc = torch.nn.Linear(num_ftrs, len(class_names))
model.load_state_dict(torch.load(model_path))
model.eval()
with torch.no_grad():
outputs = model(image)
_, preds = torch.max(outputs, 1)
return class_names[preds[0]]
目标检测
使用 Faster R-CNN 进行物体检测并绘制结果。
import cv2
import numpy as np
import torch
from torchvision import transforms, models
from PIL import Image
def detect_objects(image_path, model_path, class_names):
image = cv2.imread(image_path)
image_rgb = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
image_pil = Image.fromarray(image_rgb)
data_transforms = transforms.Compose([
transforms.Resize((416, 416)),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
])
image_tensor = data_transforms(image_pil)
image_tensor = image_tensor.unsqueeze(0)
model = models.detection.fasterrcnn_resnet50_fpn(pretrained=False)
in_features = model.roi_heads.box_predictor.cls_score.in_features
model.roi_heads.box_predictor = models.detection.faster_rcnn.FastRCNNPredictor(in_features, len(class_names))
model.load_state_dict(torch.load(model_path))
model.eval()
with torch.no_grad():
outputs = model(image_tensor)
boxes = outputs[0]['boxes'].cpu().numpy()
scores = outputs[0]['scores'].cpu().numpy()
labels = outputs[0]['labels'].cpu().numpy()
for i in range(len(boxes)):
if scores[i] > 0.5:
box = boxes[i].astype(int)
label = class_names[labels[i]]
score = scores[i]
cv2.rectangle(image, (box[0], box[1]), (box[2], box[3]), (0, 255, 0), 2)
cv2.putText(image, f"{label}: {score:.2f}", (box[0], box[1]-10), cv2.FONT_HERSHEY_SIMPLEX, 0.9, (0, 255, 0), 2)
return image
主程序入口
import tkinter as tk
from tkinter import ttk, messagebox, filedialog
from PIL import Image, ImageTk
from image_input_frame import ImageInputFrame
from result_frame import ResultFrame
from cv_functions import classify_image, detect_objects
class CVApp:
def __init__(self, root):
self.root = root
self.root.title("计算机视觉应用")
self.class_names = ['猫', '狗']
self.model_path = 'model.pth'
self.create_widgets()
def create_widgets(self):
self.image_input_frame = ImageInputFrame(self.root, self.process_image)
self.image_input_frame.pack(pady=10, padx=10, fill="both", expand=True)
function_frame = tk.LabelFrame(self.root, text="功能选择")
function_frame.pack(pady=10, padx=10, fill="x")
self.function_var = tk.StringVar()
self.function_var.set("图像分类")
tk.Radiobutton(function_frame, text="图像分类", variable=self.function_var, value="图像分类").grid(row=0, column=0, padx=5, pady=5)
tk.Radiobutton(function_frame, text="目标检测", variable=self.function_var, value="目标检测").grid(row=0, column=1, padx=5, pady=5)
self.result_frame = ResultFrame(self.root)
self.result_frame.pack(pady=10, padx=10, fill="both", expand=True)
self.output_image_label = tk.Label(self.root)
self.output_image_label.pack(pady=10, padx=10, fill="both", expand=True)
def process_image(self, image_path):
function = self.function_var.get()
try:
if function == "图像分类":
result = classify_image(image_path, self.model_path, self.class_names)
self.result_frame.display_result(result)
elif function == "目标检测":
result_image = detect_objects(image_path, self.model_path, self.class_names)
result_image = cv2.cvtColor(result_image, cv2.COLOR_BGR2RGB)
result_image_pil = Image.fromarray(result_image)
result_image_pil = result_image_pil.resize((400, 300), Image.ANTIALIAS)
photo = ImageTk.PhotoImage(result_image_pil)
self.output_image_label.configure(image=photo)
self.output_image_label.image = photo
else:
raise ValueError("未知功能")
except Exception as e:
messagebox.showerror("错误", f"处理失败:{str(e)}")
if __name__ == "__main__":
root = tk.Tk()
app = CVApp(root)
root.mainloop()
六、总结
本章系统梳理了计算机视觉的核心知识体系,从基础概念到高级模型均有涉及。重点讲解了图像预处理、增强、滤波等经典技术,以及 HOG、SIFT、ORB 等特征提取方法。同时深入分析了 LeNet 至 YOLO 等主流深度学习架构的原理与差异。最后,通过完整的 Python 实战项目,演示了如何从零搭建一个具备图像分类与目标检测能力的桌面应用。希望读者能通过这些内容,建立起对计算机视觉领域的整体认知,并具备将理论转化为实际代码的能力。
相关免费在线工具
- 加密/解密文本
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
- RSA密钥对生成器
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
- Mermaid 预览与可视化编辑
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
- 随机西班牙地址生成器
随机生成西班牙地址(支持马德里、加泰罗尼亚、安达卢西亚、瓦伦西亚筛选),支持数量快捷选择、显示全部与下载。 在线工具,随机西班牙地址生成器在线工具,online
- Gemini 图片去水印
基于开源反向 Alpha 混合算法去除 Gemini/Nano Banana 图片水印,支持批量处理与下载。 在线工具,Gemini 图片去水印在线工具,online
- curl 转代码
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online