DeepFace深度学习库+OpenCV实现——情绪分析器

DeepFace深度学习库+OpenCV实现——情绪分析器

目录

应用场景

实现组件

1. 硬件组件

2. 软件库与依赖

3. 功能模块

代码详解(实现思路)

导入必要的库

打开摄像头并初始化变量

主循环

FPS计算

情绪分析及结果展示

显示FPS和图像

退出条件

​编辑

完整代码

效果展示

自然的

开心的

伤心的

恐惧的

惊讶的



 效果展示

自然的

开心的

伤心的

恐惧的

惊讶的


 



应用场景

        应用场景比较广泛,尤其是在需要了解和分析人类情感反应的场合。:

  1. 心理健康评估:在心理健康领域,可以通过长期监控和分析一个人的情绪变化来辅助医生进行诊断或治疗效果评估。
  2. 用户体验研究:在产品设计、广告制作或网站开发过程中,通过观察用户在使用过程中的情绪反应,来优化产品的用户体验。
  3. 互动娱乐:在游戏或虚拟现实应用中,根据玩家的情绪状态动态调整游戏难度或故事情节,以增加沉浸感和互动性。
  4. 安全监控:在公共安全领域,通过情绪识别技术可以早期发现异常行为或潜在威胁,例如在机场安检区域或者大型公共活动场所。
  5. 教育与培训:帮助教师了解学生在学习过程中的情绪状态,以便及时调整教学方法;也可用于职业培训中,通过模拟不同情境下的情绪反应来进行针对性训练。
  6. 智能助手:集成到智能家居系统或个人助理设备中,让设备能够感知用户的情绪状态,并据此提供更加个性化的服务或响应。
  7. 疲劳驾驶预测:对于司机情绪的分析,可以监控和作为一种影响因子判断出出司机的驾驶状态,以至于安全的驾驶。

        总之,随着人工智能技术的发展,情绪识别作为一种重要的交互方式,在许多领域都有着巨大的潜力和广阔的应用前景。


实现组件

1. 硬件组件

  • 摄像头:用于捕捉实时视频流,通常为电脑内置的摄像头或外接USB摄像头。

2. 软件库与依赖

  • OpenCV (cv2):一个开源的计算机视觉和机器学习软件库。它提供了大量的图像处理和计算机视觉算法,这里主要用于捕获摄像头视频流、处理图像以及在图像上绘制矩形框和文字。
  • time:Python标准库的一部分,用于计算时间间隔,进而计算FPS(每秒帧数)。
  • numpy (np):虽然在这段代码中没有直接使用,但它是进行科学计算的基础库,通常与OpenCV一起用于更复杂的图像处理任务。
  • DeepFace:这是一个深度学习库,专门用于面部识别及其相关任务(如年龄、性别、情绪等属性的预测)。在这个应用中,DeepFace被用来对每一帧视频中的人脸进行情绪分析。

3. 功能模块

  • 视频捕捉与处理模块
    • 使用cv2.VideoCapture(0)打开摄像头,并通过循环不断读取视频帧。
    • 对每一帧图像进行处理,包括计算FPS、进行情绪分析以及在图像上标注结果。
  • FPS计算模块
    • 利用time.time()获取当前时间戳,通过计算连续两帧之间的时间差来计算瞬时FPS,并采用滑动平均方法平滑FPS值。
  • 情绪分析模块
    • 调用DeepFace.analyze()函数对每一帧中的所有人脸进行情绪分析。分析结果包含每个人脸的位置、主导情绪及置信度。
  • 结果显示模块
    • 使用OpenCV提供的绘图函数(如cv2.rectangle()cv2.putText())在视频帧上标记出人脸位置、显示情绪信息及置信度,并展示当前的FPS值。
  • 用户交互模块
    • 通过监听键盘输入(cv2.waitKey(1)),允许用户按下q键退出程序。

代码详解(实现思路)

        主要是通过摄像头捕捉实时视频流,然后使用深度学习模型对捕捉到的每一帧进行情绪分析,然后在视频上标记出检测到的情绪和置信度,并显示当前的FPS(每秒帧数)。下面是对代码各个部分的详细解释:

导入必要的库

import cv2 import time import numpy as np from deepface import DeepFace
  • cv2:OpenCV库,用于处理图像和视频流。
  • time:用于计算时间间隔,进而计算FPS。
  • numpy:虽然在这段代码中没有直接使用,但通常与OpenCV一起用于图像处理。
  • DeepFace:一个基于深度学习的面部识别和分析库。

打开摄像头并初始化变量

cap = cv2.VideoCapture(0) prev_time = time.time() fps = 0 alpha = 0.9
  • cv2.VideoCapture(0):打开默认摄像头(0代表第一个摄像头设备)。
  • prev_time 和 fps:用于计算FPS的变量。prev_time保存上一帧的时间戳,而fps保存当前帧率。
  • alpha:用于滑动平均计算FPS的权重值。

主循环

while True: ret, frame = cap.read() if not ret: break ... cap.release() cv2.destroyAllWindows()
  • 这个无限循环不断从摄像头读取帧(cap.read())。如果读取失败(ret为False),则退出循环。
  • 循环体内部实现了帧的获取、FPS计算、情绪分析、结果绘制以及画面显示。
FPS计算
current_time = time.time() delta_time = current_time - prev_time prev_time = current_time if delta_time > 0: instant_fps = 1.0 / delta_time fps = alpha * fps + (1 - alpha) * instant_fps
  • 计算自上次迭代以来经过的时间(delta_time),然后根据这个时间差计算瞬时FPS(instant_fps)。
  • 使用滑动平均更新总体FPS(fps)。
情绪分析及结果展示
result = DeepFace.analyze(frame, actions=['emotion'], enforce_detection=False) ...
  • 对每一帧调用DeepFace.analyze()方法进行情绪分析。actions=['emotion']指定只执行情绪分析。
  • 遍历返回的结果,在画面上标出人脸的位置(cv2.rectangle)和识别出的情绪信息(cv2.putText)。
显示FPS和图像
cv2.putText(frame, f'FPS: {fps:.2f}', (10, 30), cv2.FONT_HERSHEY_SIMPLEX, 0.7, (0, 255, 255), 2) cv2.imshow("Emotion Detection", frame)
  • 在图像上显示当前的FPS。
  • 使用cv2.imshow()显示带有标注的图像。
退出条件
if cv2.waitKey(1) & 0xFF == ord('q'): break
  • 如果按下键盘上的q键,则退出循环结束程序。

最后,释放摄像头资源(cap.release())并关闭所有窗口(cv2.destroyAllWindows())。


完整代码

import cv2 import time import numpy as np from deepface import DeepFace # 打开摄像头 cap = cv2.VideoCapture(0) # FPS 计算参数 prev_time = time.time() fps = 0 alpha = 0.9 # 滑动平均权重,数值越大,FPS 越平稳 while True: ret, frame = cap.read() if not ret: break # 计算 FPS current_time = time.time() delta_time = current_time - prev_time prev_time = current_time if delta_time > 0: instant_fps = 1.0 / delta_time fps = alpha * fps + (1 - alpha) * instant_fps # 计算滑动平均 FPS try: # 进行表情识别 result = DeepFace.analyze(frame, actions=['emotion'], enforce_detection=False) for face in result: x, y, w, h = face['region']['x'], face['region']['y'], face['region']['w'], face['region']['h'] emotion = face['dominant_emotion'] confidence = face['emotion'][emotion] # 获取表情的置信度 # 绘制人脸矩形框 cv2.rectangle(frame, (x, y), (x + w, y + h), (0, 255, 0), 2) # 在人脸上方显示情绪信息 text = f'{emotion} ({confidence:.2f}%)' cv2.putText(frame, text, (x, y - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.6, (0, 255, 0), 2) except Exception as e: print("无法检测到人脸:", e) # 显示 FPS(平滑更新) cv2.putText(frame, f'FPS: {fps:.2f}', (10, 30), cv2.FONT_HERSHEY_SIMPLEX, 0.7, (0, 255, 255), 2) # 显示图像 cv2.imshow("Emotion Detection", frame) if cv2.waitKey(1) & 0xFF == ord('q'): break cap.release() cv2.destroyAllWindows() 

总结

        核心在于结合了OpenCV进行视频处理和DeepFace进行面部情绪分析的能力。通过这些组件,实现从摄像头实时捕捉视频、分析视频中人物的情绪状态并在视频画面上直观地展示分析结果的功能。

        这不仅展示了如何利用现有的AI库快速构建实用的应用程序,也为进一步开发基于情感识别的复杂系统提供了基础框架或者是组件。

Read more

基于腾讯云HAI + DeepSeek快速设计自己的个人网页

基于腾讯云HAI + DeepSeek快速设计自己的个人网页

前言:通过结合腾讯云HAI 强大的云端运算能力与DeepSeek先进的 AI技术,本文介绍高效、便捷且低成本的设计一个自己的个人网页。你将了解到如何轻松绕过常见的技术阻碍,在腾讯云HAI平台上快速部署DeepSeek模型,仅需简单几步,就能获取一个包含个人简介、技能特长、项目经历及联系方式等核心板块的响应式网页。 目录 一、DeepSeek模型部署在腾讯云HAI 二、设计个人网页 一、DeepSeek模型部署在腾讯云HAI 把 DeepSeek 模型部署于腾讯云 HAI,用户便能避开官网访问限制,直接依托腾讯云 HAI 的超强算力运行 DeepSeek-R1 等模型。这一举措不仅降低了技术门槛,还缩短了部署时间,削减了成本。尤为关键的是,凭借 HAI 平台灵活且可扩展的特性,用户能够依据自身特定需求定制专属解决方案,进而更出色地适配特定业务场景,满足各类技术要求 。 点击访问腾讯云HAI控制台地址: 算力管理 - 高性能应用服务 - 控制台 腾讯云高性能应用服务HAI已支持DeepSeek-R1模型预装环境和CPU算力,只需简单的几步就能调用DeepSeek - R1

By Ne0inhk
AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

云边有个稻草人-ZEEKLOG博客 目录 引言 一、什么是DeepSeek? 1.1 DeepSeek平台概述 1.2 DeepSeek的核心功能与技术 二、蓝耘通义万相2.1概述 2.1 蓝耘科技简介 2.2 蓝耘通义万相2.1的功能与优势 1. 全链条智能化解决方案 2. 强大的数据处理能力 3. 高效的模型训练与优化 4. 自动化推理与部署 5. 行业专用解决方案 三、蓝耘通义万相2.1与DeepSeek的对比分析 3.1 核心区别 3.2 结合使用的优势 四、蓝耘注册流程 五、DeepSeek与蓝耘通义万相2.1的集成应用 5.1 集成应用场景 1. 智能医疗诊断

By Ne0inhk
如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

它是免费的——社区驱动的人工智能💪。         当 OpenAI 第一次推出定制 GPT 时,我就明白会有越来越多的人为人工智能做出贡献,并且迟早它会完全由社区驱动。         但从来没有想过它会如此接近😂让我们看看如何在 Windows 机器上完全免费使用第一个开源推理模型!  步骤 0:安装 Docker 桌面         我确信很多人已经安装了它,所以可以跳过,但如果没有 — — 这很简单,只需访问Docker 的官方网站,下载并运行安装 👍         如果您需要一些特定的设置,例如使用 WSL,那么有很多指导视频,请查看!我将继续下一步。 步骤 1:安装 CUDA 以获得 GPU 支持         如果您想使用 Nvidia 显卡运行 LLM,则必须安装 CUDA 驱动程序。(嗯……是的,它们需要大量的计算能力)         打开CUDA 下载页面,

By Ne0inhk
在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

本文将分步向您展示如何在本地安装和运行 DeepSeek、使用 CodeGPT 对其进行配置以及开始利用 AI 来增强您的软件开发工作流程,所有这些都无需依赖基于云的服务。  步骤 1:在 VSCode 中安装 Ollama 和 CodeGPT         要在本地运行 DeepSeek,我们首先需要安装Ollama,它允许我们在我们的机器上运行 LLM,以及CodeGPT,它是集成这些模型以提供编码辅助的 VSCode 扩展。 安装 Ollama Ollama 是一个轻量级平台,可以轻松运行本地 LLM。 下载Ollama 访问官方网站:https://ollama.com * 下载适合您的操作系统(Windows、macOS 或 Linux)的安装程序。 * 验证安装 安装后,打开终端并运行: ollama --version  如果 Ollama 安装正确,

By Ne0inhk