ESP32-CAM 使用 webcam 摄像头实时查看视频

ESP32-CAM 使用 webcam 摄像头实时查看视频

0 ESP32cam 介绍

ESP32-CAM 是小尺寸的摄像头模组该模块可以作为最小系统独立工作,尺寸仅为 2740.54.5mm,可广泛应用于各种物联网场合,适用于家庭智能设备、工业无线控制、无线监控、QR 无线识别,无线定位系统信号以及其它物联网应用,是物联网应用的理想解决方案。

在这里插入图片描述

产品特性:

  • 采用低功耗双核32位CPU,可作应用处理器
  • 主频高达240MHz,运算能力高达 600 DMIPS
  • 内置 520 KB SRAM,外置8MB PSRAM
  • 支持UART/SPI/I2C/PWM/ADC/DAC等接口
  • 支持OV2640和OV7670摄像头,内置闪光灯
  • 支持图片WiFI上传
  • 支持TF卡
  • 支持多种休眠模式。
  • 内嵌Lwip和FreeRTOS
  • 支持 STA/AP/STA+AP 工作模式
  • 支持 Smart Config/AirKiss 一键配网
  • 支持二次开发

ESP32cam 的接口引脚图如下所示:

在这里插入图片描述

1 arduino IDE

1.1 安装 arduino IDE

下载官方网址:https://www.arduino.cc/en/software
下载符合自己操作系统版本的IDE并安装。

1.2 arduino IDE 获取 ESP32 开发环境

由于 arduino IDE 中本身是没有 ESP32 的开发版,需要手动进行安装,安装方式如下:

在 Arduino IDE 中,找到 工具>开发板>开发板开发板管理,搜索 ESP32 或者直接选择 ESP32 Wrover Module

在这里插入图片描述


在这里插入图片描述

打开 Arduino IDE ,找到 文件>首选项 ,将 ESP32 的配置链接填入附加开发板管理网址中。

# 配置链接 https://dl.espressif.com/dl/package_esp32_index.json 
在这里插入图片描述

2 内网视频实时查看

2.1 选择 文件>示例>ESP32>Camera>CameraWebServer ,进入示例代码界面
在这里插入图片描述
2.2 修改示例代码中的相关参数
  • 修改示例代码中的 wifi 和密码的名称。

修改示例代码中的摄像头类型为 CAMERA_MODEL_AI_THINKER 。

在这里插入图片描述
2.3 运行结果

上传成功后,按一下 ESP32cam 开发板上的 RST 按键 ,重新启动开发板。
选择 工具>串口监视器,查看串口中输出的 ip,并用浏览器打开 ip 即可实时查看视频画面。

在这里插入图片描述
在这里插入图片描述
2.4 代码
#include"esp_camera.h"#include<WiFi.h>//// WARNING!!! PSRAM IC required for UXGA resolution and high JPEG quality// Ensure ESP32 Wrover Module or other board with PSRAM is selected// Partial images will be transmitted if image exceeds buffer size//// Select camera model// #define CAMERA_MODEL_WROVER_KIT // Has PSRAM//#define CAMERA_MODEL_ESP_EYE // Has PSRAM//#define CAMERA_MODEL_M5STACK_PSRAM // Has PSRAM//#define CAMERA_MODEL_M5STACK_V2_PSRAM // M5Camera version B Has PSRAM//#define CAMERA_MODEL_M5STACK_WIDE // Has PSRAM//#define CAMERA_MODEL_M5STACK_ESP32CAM // No PSRAM#defineCAMERA_MODEL_AI_THINKER// Has PSRAM//#define CAMERA_MODEL_TTGO_T_JOURNAL // No PSRAM#include"camera_pins.h"constchar* ssid ="TP-LINK_1760";constchar* password ="987654321";voidstartCameraServer();voidsetup(){ Serial.begin(115200); Serial.setDebugOutput(true); Serial.println(); camera_config_t config; config.ledc_channel = LEDC_CHANNEL_0; config.ledc_timer = LEDC_TIMER_0; config.pin_d0 = Y2_GPIO_NUM; config.pin_d1 = Y3_GPIO_NUM; config.pin_d2 = Y4_GPIO_NUM; config.pin_d3 = Y5_GPIO_NUM; config.pin_d4 = Y6_GPIO_NUM; config.pin_d5 = Y7_GPIO_NUM; config.pin_d6 = Y8_GPIO_NUM; config.pin_d7 = Y9_GPIO_NUM; config.pin_xclk = XCLK_GPIO_NUM; config.pin_pclk = PCLK_GPIO_NUM; config.pin_vsync = VSYNC_GPIO_NUM; config.pin_href = HREF_GPIO_NUM; config.pin_sscb_sda = SIOD_GPIO_NUM; config.pin_sscb_scl = SIOC_GPIO_NUM; config.pin_pwdn = PWDN_GPIO_NUM; config.pin_reset = RESET_GPIO_NUM; config.xclk_freq_hz =20000000; config.pixel_format = PIXFORMAT_JPEG;// if PSRAM IC present, init with UXGA resolution and higher JPEG quality// for larger pre-allocated frame buffer.if(psramFound()){ config.frame_size = FRAMESIZE_UXGA; config.jpeg_quality =10; config.fb_count =2;}else{ config.frame_size = FRAMESIZE_SVGA; config.jpeg_quality =12; config.fb_count =1;}#ifdefined(CAMERA_MODEL_ESP_EYE)pinMode(13, INPUT_PULLUP);pinMode(14, INPUT_PULLUP);#endif// camera init esp_err_t err =esp_camera_init(&config);if(err != ESP_OK){ Serial.printf("Camera init failed with error 0x%x", err);return;} sensor_t * s =esp_camera_sensor_get();// initial sensors are flipped vertically and colors are a bit saturatedif(s->id.PID == OV3660_PID){ s->set_vflip(s,1);// flip it back s->set_brightness(s,1);// up the brightness just a bit s->set_saturation(s,-2);// lower the saturation}// drop down frame size for higher initial frame rate s->set_framesize(s, FRAMESIZE_QVGA);#ifdefined(CAMERA_MODEL_M5STACK_WIDE)||defined(CAMERA_MODEL_M5STACK_ESP32CAM) s->set_vflip(s,1); s->set_hmirror(s,1);#endif WiFi.begin(ssid, password);while(WiFi.status()!= WL_CONNECTED){delay(500); Serial.print(".");} Serial.println(""); Serial.println("WiFi connected");startCameraServer(); Serial.print("Camera Ready! Use 'http://"); Serial.print(WiFi.localIP()); Serial.println("' to connect");}voidloop(){// put your main code here, to run repeatedly:delay(10000);}

3 烧录程序到 ESP32cam 开发板中

3.1 通过配套的下载器进行下载
在这里插入图片描述

然后点击左上角的编译验证按钮进行编译,编译成功后点击旁边的上传按钮烧录到 ESP32cam 开发板中。

在这里插入图片描述

将下载器与 ESP32cam 安装到一起,使用数据线链接到电脑,安装商家提供的驱动,之后在 工具选项中选择对应的 开发板与串口。

在这里插入图片描述
3.2 通过 USB转TTL(CH340)下载器进行下载
在这里插入图片描述

USB转TTL下载器仅仅是连接线上与配套送的下载器不同,其他下载步骤是一样的。

USB转TTL下载器与 ESP32cam 的链接线如下:

  • USB转TTL VCC 接 ESP32cam 5V
  • USB转TTL GND 接 ESP32cam GND
  • USB转TTL RXD 接 ESP32cam TXD
  • USB转TTL TXD 接 ESP32cam RXD
  • 下载时,需要将 GPIO1 接到 GND 上,用来启动下载模式。

4 外网视频实时查看

外网视频实时查看分为:

  • esp32cam 开发板中运行的程序;
  • 服务器中运行的程序。

通过ESP32cam 将视频数据发送的服务器中,服务器运行接受程序进行接收并展示,这样的好处是可以发送到外部公网服务器中。

esp32cam 中的程序如下:

#include<Arduino.h>#include<WiFi.h>#include"esp_camera.h"#include<vector>constchar*ssid ="TP-LINK_1760";constchar*password ="987654321";const IPAddress serverIP(192,168,1,104);//欲访问的地址,即服务器的ip,可内网也可公网uint16_t serverPort =18080;//服务器端口号#MTU#definemaxcache1430 WiFiClient client;//声明一个客户端对象,用于与服务器进行连接//CAMERA_MODEL_AI_THINKER类型摄像头的引脚定义#definePWDN_GPIO_NUM32#defineRESET_GPIO_NUM-1#defineXCLK_GPIO_NUM0#defineSIOD_GPIO_NUM26#defineSIOC_GPIO_NUM27#defineY9_GPIO_NUM35#defineY8_GPIO_NUM34#defineY7_GPIO_NUM39#defineY6_GPIO_NUM36#defineY5_GPIO_NUM21#defineY4_GPIO_NUM19#defineY3_GPIO_NUM18#defineY2_GPIO_NUM5#defineVSYNC_GPIO_NUM25#defineHREF_GPIO_NUM23#definePCLK_GPIO_NUM22static camera_config_t camera_config ={.pin_pwdn = PWDN_GPIO_NUM,.pin_reset = RESET_GPIO_NUM,.pin_xclk = XCLK_GPIO_NUM,.pin_sscb_sda = SIOD_GPIO_NUM,.pin_sscb_scl = SIOC_GPIO_NUM,.pin_d7 = Y9_GPIO_NUM,.pin_d6 = Y8_GPIO_NUM,.pin_d5 = Y7_GPIO_NUM,.pin_d4 = Y6_GPIO_NUM,.pin_d3 = Y5_GPIO_NUM,.pin_d2 = Y4_GPIO_NUM,.pin_d1 = Y3_GPIO_NUM,.pin_d0 = Y2_GPIO_NUM,.pin_vsync = VSYNC_GPIO_NUM,.pin_href = HREF_GPIO_NUM,.pin_pclk = PCLK_GPIO_NUM,.xclk_freq_hz =20000000,.ledc_timer = LEDC_TIMER_0,.ledc_channel = LEDC_CHANNEL_0,.pixel_format = PIXFORMAT_JPEG,// .frame_size = FRAMESIZE_VGA,// FRAMESIZE_UXGA (1600 x 1200)// FRAMESIZE_QVGA (320 x 240)// FRAMESIZE_CIF (352 x 288)// FRAMESIZE_VGA (640 x 480)// FRAMESIZE_SVGA (800 x 600)// FRAMESIZE_XGA (1024 x 768)// FRAMESIZE_SXGA (1280 x 1024).frame_size = FRAMESIZE_QVGA,.jpeg_quality =24,// 图像质量(jpeg_quality) 可以是 0 到 63 之间的数字。数字越小意味着质量越高.fb_count =1,};voidwifi_init(){ WiFi.mode(WIFI_STA); WiFi.setSleep(false);//关闭STA模式下wifi休眠,提高响应速度 WiFi.begin(ssid, password);while(WiFi.status()!= WL_CONNECTED){delay(500); Serial.print(".");} Serial.println("WiFi Connected!"); Serial.print("IP Address:"); Serial.println(WiFi.localIP());} esp_err_t camera_init(){//initialize the camera esp_err_t err =esp_camera_init(&camera_config);if(err != ESP_OK){ Serial.println("Camera Init Failed");return err;} sensor_t * s =esp_camera_sensor_get();//initial sensors are flipped vertically and colors are a bit saturatedif(s->id.PID == OV2640_PID){// s->set_vflip(s, 1);//flip it back// s->set_brightness(s, 1);//up the blightness just a bit// s->set_contrast(s, 1);} Serial.println("Camera Init OK!");return ESP_OK;}voidsetup(){ Serial.begin(115200);wifi_init();camera_init();}voidloop(){ Serial.println("Try To Connect TCP Server!");if(client.connect(serverIP, serverPort))//尝试访问目标地址{ Serial.println("Connect Tcp Server Success!");//client.println("Frame Begin"); //46 72 61 6D 65 20 42 65 67 69 6E // 0D 0A 代表换行 //向服务器发送数据while(1){ camera_fb_t * fb =esp_camera_fb_get();uint8_t* temp = fb->buf;//这个是为了保存一个地址,在摄像头数据发送完毕后需要返回,否则会出现板子发送一段时间后自动重启,不断重复if(!fb){ Serial.println("Camera Capture Failed");}else{//先发送Frame Begin 表示开始发送图片 然后将图片数据分包发送 每次发送1430 余数最后发送 //完毕后发送结束标志 Frame Over 表示一张图片发送完毕  client.print("Frame Begin");//一张图片的起始标志// 将图片数据分段发送int leng = fb->len;int timess = leng/maxcache;int extra = leng%maxcache;for(int j =0;j< timess;j++){ client.write(fb->buf, maxcache);for(int i =0;i< maxcache;i++){ fb->buf++;}} client.write(fb->buf, extra); client.print("Frame Over");// 一张图片的结束标志 Serial.print("This Frame Length:"); Serial.print(fb->len); Serial.println(".Succes To Send Image For TCP!");//return the frame buffer back to the driver for reuse fb->buf = temp;//将当时保存的指针重新返还esp_camera_fb_return(fb);//这一步在发送完毕后要执行,具体作用还未可知。 }delay(20);//短暂延时 增加数据传输可靠性}/* while (client.connected() || client.available()) //如果已连接或有收到的未读取的数据 { if (client.available()) //如果有数据可读取 { String line = client.readStringUntil('\n'); //读取数据到换行符 Serial.print("ReceiveData:"); Serial.println(line); client.print("--From ESP32--:Hello Server!"); } } Serial.println("close connect!"); client.stop(); //关闭客户端 */}else{ Serial.println("Connect To Tcp Server Failed!After 10 Seconds Try Again!"); client.stop();//关闭客户端}delay(10000);}

服务器中运行的程序(Python):

import socket import threading import time import numpy as np import cv2 begin_data =b'Frame Begin' end_data =b'Frame Over'#接收数据# ESP32发送一张照片的流程# 先发送Frame Begin 表示开始发送图片 然后将图片数据分包发送 每次发送1430 余数最后发送# 完毕后发送结束标志 Frame Over 表示一张图片发送完毕# 1430 来自ESP32cam发送的一个包大小为1430 接收到数据 data格式为b''defhandle_sock(sock, addr): temp_data =b'' t1 =int(round(time.time()*1000))whileTrue: data = sock.recv(1430)# 如果这一帧数据包的开头是 b'Frame Begin' 则是一张图片的开始if data[0:len(begin_data)]== begin_data:# 将这一帧数据包的开始标志信息(b'Frame Begin')清除 因为他不属于图片数据 data = data[len(begin_data):len(data)]# 判断这一帧数据流是不是最后一个帧 最后一针数据的结尾时b'Frame Over'while data[-len(end_data):]!= end_data: temp_data = temp_data + data # 不是结束的包 讲数据添加进temp_data data = sock.recv(1430)# 继续接受数据 直到接受的数据包包含b'Frame Over' 表示是这张图片的最后一针# 判断为最后一个包 将数据去除 结束标志信息 b'Frame Over' temp_data = temp_data + data[0:(len(data)-len(end_data))]# 将多余的(\r\nFrame Over)去掉 其他放入temp_data# 显示图片 receive_data = np.frombuffer(temp_data, dtype='uint8')# 将获取到的字符流数据转换成1维数组 r_img = cv2.imdecode(receive_data, cv2.IMREAD_COLOR)# 将数组解码成图像# r_img = r_img.reshape(480, 640, 3)# r_img = r_img.reshape(320, 240, 3) t2 =int(round(time.time()*1000)) fps =1000//(t2-t1) cv2.putText(r_img,"FPS"+str(fps),(50,50), cv2.FONT_HERSHEY_SIMPLEX,1,(255,0,0),2) cv2.imshow('server_frame', r_img)if cv2.waitKey(1)&0xFF==ord('q'):break t1 = t2 print("接收到的数据包大小:"+str(len(temp_data)))# 显示该张照片数据大小 temp_data =b''# 清空数据 便于下一章照片使用 server = socket.socket(socket.AF_INET, socket.SOCK_STREAM)# 这里的 ip 与端口是运行该程序的服务器的 ip 与端口,需要与 arduino 中的一致 server.bind(('192.168.1.104',18080)) server.listen(5) CONNECTION_LIST =[]#主线程循环接收客户端连接whileTrue: sock, addr = server.accept() CONNECTION_LIST.append(sock)print('Connect--{}'.format(addr))#连接成功后开一个线程用于处理客户端 client_thread = threading.Thread(target=handle_sock, args=(sock, addr)) client_thread.start()

Read more

吃透 AM32 无人机电调:从源码架构到工作原理的全方位解析(附实践指南)(上)

开篇:为什么要深度剖析 AM32 电调? 作为多旋翼无人机的 “动力心脏”,电调(电子调速器)的性能直接决定了无人机的飞行稳定性、响应速度和续航能力。而 AM32 系列电调凭借开源性、高性价比、适配性强三大优势,成为了开源无人机社区的热门选择 —— 从入门级的 2204 电机到专业级的 2306 电机,从 3S 锂电池到 6S 高压电池,AM32 都能稳定驱动。 但很多开发者和爱好者在接触 AM32 源码时,常会陷入 “看得懂代码,看不懂逻辑” 的困境:为什么 FOC 算法要做坐标变换?DShot 协议的脉冲怎么解析?保护机制是如何实时触发的? 这篇博客将从硬件基础→源码架构→模块解析→工作原理→实践操作五个维度,逐行拆解 AM32 电调固件源码,帮你彻底搞懂

AI绘画新体验:Z-Image Turbo极速生成电商海报实战

AI绘画新体验:Z-Image Turbo极速生成电商海报实战 你是否经历过这样的场景:运营同事凌晨发来消息:“明天大促主图还没定,能30分钟内出5版高清海报吗?”设计师正在赶另一场发布会的视觉稿,外包团队已下班。传统流程里,一张合格的电商主图从文案确认、风格定位、设计执行到反复修改,动辄耗时数小时——而今天,用Z-Image Turbo,从输入一句话到交付可商用级海报,全程不到90秒。 这不是概念演示,而是我们上周在某美妆品牌618预热期真实跑通的落地链路。这款基于Gradio与Diffusers构建的本地极速画板,专为Z-Image-Turbo模型深度调优,把“AI画图”真正变成了“运营随手可调的生产力工具”。它不追求参数炫技,只解决一个核心问题:让非技术人员也能稳定、快速、批量产出符合电商规范的高质量视觉素材。 1. 为什么电商海报特别需要Z-Image Turbo? 电商场景对AI图像有三重严苛要求:快、稳、准——而这恰恰是Z-Image Turbo的基因优势。 * 快,不是“快一点”,而是重构工作流:传统SDXL模型生成一张768×768图需25步以上,耗时8-

手把手教你部署Z-Image-Turbo,5分钟搞定AI绘画环境

手把手教你部署Z-Image-Turbo,5分钟搞定AI绘画环境 你是否还在为部署文生图模型时漫长的权重下载、复杂的依赖配置而头疼?现在,这一切都可以结束了。本文将带你5分钟内完成Z-Image-Turbo的完整部署,无需等待下载、不用手动安装依赖,真正实现“开箱即用”的AI绘画体验。 我们将使用预置了完整32.88GB模型权重的专用镜像,一键启动即可生成1024×1024高清图像,仅需9步推理,速度快到惊人。无论你是AI绘画新手,还是想快速测试效果的技术人员,这篇文章都能让你立刻上手。 准备好了吗?让我们开始吧。 1. 镜像简介:为什么选择Z-Image-Turbo? 1.1 模型核心优势 Z-Image-Turbo 是阿里达摩院基于 DiT(Diffusion Transformer)架构推出的高效文生图模型,专为高速高质量生成设计。相比传统扩散模型动辄20~50步的推理过程,它仅需9步即可输出细节丰富的图像,在RTX 4090D等高显存机型上几乎秒级出图。 更关键的是,本次使用的镜像已预置全部32.88GB模型权重文件,直接缓存在系统盘中,避免了动辄数小时的下载等

客户:我以为对面是个人,结果是个AI销售机器人

客户:我以为对面是个人,结果是个AI销售机器人

一、场景引入:“身份错位”背后的技术落地密码 你有没有接过这样的销售电话:对方语气自然,能听懂你带四川话尾调的口语,还能记住你3天前提过的“要扬程50米的工业泵”需求,甚至能回应你“能不能上门安装”的后续问题?挂了电话看到标注的“AI销售机器人”,才反应过来自己聊了10分钟的不是真人——这种“身份错位”绝非巧合,是大模型+NLP落地技术在AI销售机器人场景的精准体现。 根据Gartner 2024年《全球AI销售交互技术成熟度曲线报告》,具备拟人化交互能力的AI销售机器人,用户跳出率比传统IVR降低27%,销售转化率提升37%。但要实现“像真人一样卖货”,AI销售机器人必须攻克三大核心技术痛点:口语化/方言识别适配、复杂场景意图精准理解、低算力设备的实时交互。 二、核心技术原理:AI销售机器人拟人交互的4大模块 要让用户“误以为是真人”,AI销售机器人需要一套完整的NLP技术架构,核心包含4个不可分割的模块: 2.1 多轮对话状态管理(Dialogue State Tracking, DST) 术语注释:多轮对话状态管理指AI能够跟踪对话历史、