iis服务器助手广告广告
返回顶部
首页 > 资讯 > 服务器 >ESP32-CAM视频传输至公网服务器并转发视频数据流
  • 366
分享到

ESP32-CAM视频传输至公网服务器并转发视频数据流

音视频服务器运维 2023-09-07 16:09:31 366人浏览 泡泡鱼
摘要

        有关esp32-cam目前大多数文章都是在写如何在内网(同一网络环境下)的视频传输, 即便是传输服务器上, 视频图像也只是显示在服务器中, 无法将视频数据流再转发到客户端. 先介绍一下大致思路, 很简单, esp32-cam

        有关esp32-cam目前大多数文章都是在写如何在内网(同一网络环境下)的视频传输, 即便是传输服务器上, 视频图像也只是显示在服务器中, 无法将视频数据流再转发到客户端. 先介绍一下大致思路, 很简单, esp32-cam把数据流发送到公网服务器, 服务器将数据原样透传给用户的电脑端, esp32-cam使用的C语言, 公网服务器端使用nodejs, 而电脑客户端使用了python                                          esp32-cam ==> 公网服务器 ==> 电脑客户端

所有的传输都是在tcp协议下进行的, 所以小伙伴在公网服务器上开端口时记得选择tcp协议. 首先声明下esp32-cam和电脑客户端的代码都是参考了dsxcode这位博主的代码, 以下这两部分的代码也只做转载. 参考连接: ESP32 CAM与服务器(python)TCP视频传输_dsxcode的博客-CSDN博客_esp32 tcp数据传输

上代码, esp32-cam端使用的Arduino c语言编写:

#include #include #include "esp_camera.h"#include  const char *ssid = "xxxx"; //wifi用户名const char *password = "xxxx"; //wifi密码const IPAddress serverIP(xxxx);  //你自己的公网服务器ip地址uint16_t serverPort = xxxx;         //服务器端口号(tcp协议) #define maxcache 1430 WiFiClient client; //声明一个客户端对象,用于与服务器进行连接 //CAMERA_MODEL_AI_THINKER类型摄像头的引脚定义#define PWDN_GPIO_NUM     32#define RESET_GPIO_NUM    -1#define XCLK_GPIO_NUM      0#define SIOD_GPIO_NUM     26#define SIOC_GPIO_NUM     27 #define Y9_GPIO_NUM       35#define Y8_GPIO_NUM       34#define Y7_GPIO_NUM       39#define Y6_GPIO_NUM       36#define Y5_GPIO_NUM       21#define Y4_GPIO_NUM       19#define Y3_GPIO_NUM       18#define Y2_GPIO_NUM        5#define VSYNC_GPIO_NUM    25#define HREF_GPIO_NUM     23#define PCLK_GPIO_NUM     22 static camera_config_t camera_config = {    .pin_pwdn = PWDN_GPIO_NUM,    .pin_reset = RESET_GPIO_NUM,    .pin_xclk = XCLK_GPIO_NUM,    .pin_sscb_sda = SIOD_GPIO_NUM,    .pin_sscb_scl = SIOC_GPIO_NUM,        .pin_d7 = Y9_GPIO_NUM,    .pin_d6 = Y8_GPIO_NUM,    .pin_d5 = Y7_GPIO_NUM,    .pin_d4 = Y6_GPIO_NUM,    .pin_d3 = Y5_GPIO_NUM,    .pin_d2 = Y4_GPIO_NUM,    .pin_d1 = Y3_GPIO_NUM,    .pin_d0 = Y2_GPIO_NUM,    .pin_vsync = VSYNC_GPIO_NUM,    .pin_href = HREF_GPIO_NUM,    .pin_pclk = PCLK_GPIO_NUM,        .xclk_freq_hz = 20000000,    .ledc_timer = LEDC_TIMER_0,    .ledc_channel = LEDC_CHANNEL_0,        .pixel_format = PIXFORMAT_JPEG,    .frame_size = FRAMESIZE_VGA,    .jpeg_quality = 12,    .fb_count = 1,};void wifi_init(){    WiFi.mode(WIFI_STA);    WiFi.setSleep(false); //关闭STA模式下wifi休眠,提高响应速度    WiFi.begin(ssid, password);    while (WiFi.status() != WL_CONNECTED)    {        delay(500);        Serial.print(".");    }    Serial.println("WiFi Connected!");    Serial.print("IP Address:");    Serial.println(WiFi.localIP());}esp_err_t camera_init() {    //initialize the camera    esp_err_t err = esp_camera_init(&camera_config);    if (err != ESP_OK) {        Serial.println("Camera Init Failed");        return err;    }    sensor_t * s = esp_camera_sensor_get();    //initial sensors are flipped vertically and colors are a bit saturated    if (s->id.PID == OV2640_PID) {    //        s->set_vflip(s, 1);//flip it back    //        s->set_brightness(s, 1);//up the blightness just a bit    //        s->set_contrast(s, 1);    }    Serial.println("Camera Init OK!");    return ESP_OK;} void setup(){    Serial.begin(115200);    wifi_init();    camera_init();} void loop(){    Serial.println("Try To Connect TCP Server!");    if (client.connect(serverIP, serverPort)) //尝试访问目标地址    {        Serial.println("Connect Tcp Server Success!");        client.println("Frame Begin");  //46 72 61 6D 65 20 42 65 67 69 6E // 0D 0A 代表换行  //向服务器发送数据        while (1){                 camera_fb_t * fb = esp_camera_fb_get();          uint8_t * temp = fb->buf; //这个是为了保存一个地址,在摄像头数据发送完毕后需要返回,否则会出现板子发送一段时间后自动重启,不断重复          if (!fb)          {              Serial.println( "Camera Capture Failed");          }          else          {             //先发送Frame Begin 表示开始发送图片 然后将图片数据分包发送 每次发送1430 余数最后发送             //完毕后发送结束标志 Frame Over 表示一张图片发送完毕             client.print("Frame Begin"); //一张图片的起始标志            // 将图片数据分段发送            int leng = fb->len;            int timess = leng/maxcache;            int extra = leng%maxcache;            for(int j = 0;j< timess;j++)            {              client.write(fb->buf, maxcache);               for(int i =0;i< maxcache;i++)              {                fb->buf++;              }            }            client.write(fb->buf, extra);            client.print("Frame Over");      // 一张图片的结束标志            Serial.print("This Frame Length:");            Serial.print(fb->len);            Serial.println(".Succes To Send Image For TCP!");            //return the frame buffer back to the driver for reuse            fb->buf = temp; //将当时保存的指针重新返还            esp_camera_fb_return(fb);  //这一步在发送完毕后要执行,具体作用还未可知。                  }          delay(30);//短暂延时 增加数据传输可靠性        }            }    else    {        Serial.println("Connect To Tcp Server Failed!After 10 Seconds Try Again!");        client.stop(); //关闭客户端    }    delay(10000);}

客户端代码, Python编写:

import Socketimport threadingimport timeimport numpy as npimport cv2begin_data = b'Frame Begin'end_data = b'Frame Over'# 接收数据# ESP32发送一张照片的流程# 先发送Frame Begin 表示开始发送图片 然后将图片数据分包发送 每次发送1430 余数最后发送# 完毕后发送结束标志 Frame Over 表示一张图片发送完毕# 1430 来自ESP32cam发送的一个包大小为1430 接收到数据 data格式为b''def handle_sock(sock, addr):    temp_data = b''    t1 = int(round(time.time() * 1000))    while True:        data = sock.recv(1430)        # 如果这一帧数据包的开头是 b'Frame Begin' 则是一张图片的开始        if data[0:len(begin_data)] == begin_data:            # 将这一帧数据包的开始标志信息(b'Frame Begin')清除   因为他不属于图片数据            data = data[len(begin_data):len(data)]            # 判断这一帧数据流是不是最后一个帧 最后一针数据的结尾时b'Frame Over'            while data[-len(end_data):] != end_data:                temp_data = temp_data + data  # 不是结束的包 将数据添加进temp_data                data = sock.recv(1430)  # 继续接受数据 直到接受的数据包包含b'Frame Over' 表示是这张图片的最后一针            # 判断为最后一个包 将数据去除 结束标志信息 b'Frame Over'            temp_data = temp_data + data[0:(len(data) - len(end_data))]  # 将多余的(\r\nFrame Over)去掉 其他放入temp_data            # 显示图片            receive_data = np.frombuffer(temp_data, dtype='uint8')  # 将获取到的字符流数据转换成1维数组            r_img = cv2.imdecode(receive_data, cv2.IMREAD_COLOR)  # 将数组解码成图像            r_img = r_img.reshape(480, 640, 3)            t2 = int(round(time.time() * 1000))            fps = 1000 // (t2 - t1)            cv2.putText(r_img, "FPS" + str(fps), (50, 50), cv2.FONT_HERSHEY_SIMPLEX, 1, (255, 0, 0), 2)            cv2.imshow('server_frame', r_img)            if cv2.waiTKEy(1) & 0xFF == ord('q'):                break            t1 = t2            # print("接收到的数据包大小:" + str(len(temp_data)))  # 显示该张照片数据大小            temp_data = b''  # 清空数据 便于下一章照片使用server = socket.socket(socket.AF_INET, socket.SOCK_STREAM)server.connect(("xxxx", xxxx))server.send('monitor'.encode("utf-8"))# server.bind(('0.0.0.0', 9090))# server.listen(5)# CONNECTioN_LIST = []# 主线程循环接收客户端连接handle_sock(server, '')  # Mac电脑直接在主线程运行# while True:    # sock, addr = server.accept()    # CONNECTION_LIST.append(sock)    # print('Connect--{}'.fORMat(addr))    # 连接成功后开一个线程用于处理客户端    # handle_sock(server, '')  # mac电脑直接在主线程运行    # client_thread = threading.Thread(target=handle_sock, args=(sock, addr))    # client_thread.start()

这里做一下特别说明, 在python代码的最后主线程那里, 由于我是运行在Mac电脑中, 所以不能开新的线程, 否则会报错, 如果你是运行在windows电脑下, 请把注释打开, 创建新线程来运行.

下面是nodejs写的服务器端代码, 用于视频数据流的透传转发:

// 创建tcp连接服务const net = require('net')const { size } = require('underscore')const HOST = 'xxxx'const PORT = xxxx// 创建udp// const dgram = require("dgram")// const server = dgram.createSocket("udp4")// 统计连接客户端的个数var count = 0// 创建slave_server服务const slave_server = new net.createServer()// slave_server.setEncoding = 'UTF-8'// 保存监视器的socketvar s// 获得一个连接,该链接自动关联scoket对象var tcp_sock = nullslave_server.on('connection', sock => {  tcp_sock = sock  sock.name = ++count  console.log(`当前连接客户端数:${count}`)  // 接收client发来的信息    sock.on('data', data => {    // console.log(`客户端${sock.name}发来一个信息:${data}`)    // 判断是否为监视器发来的链接    if (data == 'monitor') {            // 则把当前的socket保存起来      s = sock    } else {      s.write(data)    }  })  // 为socket添加error事件处理函数  sock.on('error', error => { //监听客户端异常    console.log('error' + error)    sock.end()  })  // 服务器关闭时触发,如果存在连接,这个事件不会被触发,直到所有的连接关闭  sock.on('close', () => {    console.log(`客户端${sock.name}下线了`)    count -= 1  })})// listen函数开始监听指定端口slave_server.listen(PORT, () => {  console.log(`服务器已启动,运行在:Http://xxxx:xxxx`)})

再次特别说明一下, 先启动服务器端代码, 然后在电脑端运行python端代码, 最后再烧录esp32-cam的代码, 第一次运行时电脑客户端可能报错直接就退出了, 没关系, 重新运行一下电脑客户端的python代码, 就能看到视频图像了. 我在服务器端的逻辑是接收到'monitor'字符串时认为是客户端监视器, 把对应的socket保存一下, 然后当接收到下一个socket连接时, 则默认认为是esp32-cam, 将之前保存的socket取出来, 把视频流数据转发出去, 此种方式只能有一个esp32-cam和一个客户端监视器, 有需要的小伙伴可以自行修改代码.

来源地址:https://blog.csdn.net/phoenix3k/article/details/128446232

--结束END--

本文标题: ESP32-CAM视频传输至公网服务器并转发视频数据流

本文链接: https://www.lsjlt.com/news/398511.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作