iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >基于Python OpenCV和 dlib实现眨眼检测
  • 465
分享到

基于Python OpenCV和 dlib实现眨眼检测

2024-04-02 19:04:59 465人浏览 八月长安

Python 官方文档:入门教程 => 点击学习

摘要

目录了解“眼睛纵横比”(EAR)使用面部标志和 OpenCV 检测眨眼眨眼检测结果总结今天,我们使用面部标记和 OpenCV 检测视频流中的眨眼次数。 为了构建我们的眨眼检测器,我们

今天,我们使用面部标记和 OpenCV 检测视频流中的眨眼次数。

为了构建我们的眨眼检测器,我们将计算一个称为眼睛纵横比 (EAR) 的指标,该指标由 Soukupová 和 Čech 在他们 2016 年的论文《使用面部标记的实时眨眼检测》中介绍。

与计算眨眼的传统图像处理方法不同,传统的图像处理方法通常涉及以下某些组合:

  • 眼睛定位。
  • 阈值以找到眼白。
  • 确定眼睛的“白色”区域是否在一段时间内消失(表示眨眼)。
  • 眼睛纵横比是一个更优雅的解决方案,它涉及基于眼睛面部标志之间距离比的非常简单的计算。

这种眨眼检测方法要求快速、高效且易于实现。

今天我们通过四部分来实现眨眼检测:

第一部分,我们将讨论眼睛纵横比以及如何使用它来确定一个人在给定的视频帧中是否在眨眼。

然后,我们将编写 python、OpenCV 和 dlib 代码来 (1) 执行面部标志检测和 (2) 检测视频流中的眨眼。

基于此实现,我们将应用我们的方法来检测示例网络摄像头流和视频文件中的眨眼。

最后,我将通过讨论改进眨眼检测器的方法来结束今天的博客文章。

了解“眼睛纵横比”(EAR)

在眨眼检测方面,我们只对两组面部结构感兴趣——眼睛。每只眼睛由 6 个 (x, y) 坐标表示,从眼睛的左角开始(就像您在看人一样),然后围绕该区域的其余部分顺时针旋转:

基于这张图片,我们应该了解关键点:

这些坐标的宽度和高度之间存在关系。根据 Soukupová 和 Čech 在 2016 年发表的论文《使用面部标志进行实时眨眼检测》中的工作,我们可以推导出反映这种关系的方程,称为眼睛纵横比 (EAR):

其中 p1, …, p6 是 2D 面部标志位置。

该方程的分子计算垂直眼睛界标之间的距离,而分母计算水平眼睛界标之间的距离,由于只有一组水平点但有两组垂直点,因此对分母进行适当加权。

为什么这个方程如此有趣?

好吧,正如我们将发现的那样,眼睛睁开时眼睛的纵横比大致恒定,但在眨眼时会迅速降至零。

使用这个简单的方程,我们可以避免使用图像处理技术,而只需依靠眼睛界标距离的比率来确定一个人是否在眨眼。

为了更清楚地说明这一点,请考虑 Soukupová 和 Čech 的下图:

在左上角,我们有一个完全睁开的眼睛——这里的眼睛纵横比会很大(r)并且随着时间的推移相对恒定。

然而,一旦人眨眼(右上),眼睛的纵横比就会急剧下降,接近于零。

下图绘制了视频剪辑的眼睛纵横比随时间变化的图表。 正如我们所看到的,眼睛纵横比是恒定的,然后迅速下降到接近零,然后再次增加,表明发生了一次眨眼。

在下一节中,我们将学习如何使用面部标志、OpenCV、Python 和 dlib 实现眨眼检测的眼睛纵横比。

使用面部标志和 OpenCV 检测眨眼

首先,打开一个新文件并将其命名为 detect_blinks.py 。 从那里,插入以下代码:


# import the necessary packages
from scipy.spatial import distance as dist
from imutils.video import FileVideoStream
from imutils.video import VideoStream
from imutils import face_utils
import numpy as np
import argparse
import imutils
import time
import dlib
import cv2

导入必要的库。

如果您的系统上没有安装 imutils(或者如果您使用的是旧版本),请确保使用以下命令安装/升级:


pip install --upgrade imutils 

如果没有安装dlib,请参考文章

 接下来,我们将定义我们的 eye_aspect_ratio 函数:


def eye_aspect_ratio(eye):
	# compute the euclidean distances between the two sets of
	# vertical eye landmarks (x, y)-coordinates
	A = dist.euclidean(eye[1], eye[5])
	B = dist.euclidean(eye[2], eye[4])
	# compute the euclidean distance between the horizontal
	# eye landmark (x, y)-coordinates
	C = dist.euclidean(eye[0], eye[3])
	# compute the eye aspect ratio
	ear = (A + B) / (2.0 * C)
	# return the eye aspect ratio
	return ear

此函数接受单个必需参数,即给定眼睛的面部标志的 (x, y) 坐标。

计算两组垂直眼睛界标之间的距离,然后计算水平眼睛界标之间的距离。

最后,结合了分子和分母以得出最终的眼睛纵横比。

然后将眼睛纵横比返回给调用函数。

让我们继续解析我们的命令行参数:


# construct the argument parse and parse the arguments
ap = argparse.ArgumentParser()
ap.add_argument("-p", "--shape-predictor", required=True,
	help="path to facial landmark predictor")
ap.add_argument("-v", "--video", type=str, default="",
	help="path to input video file")
args = vars(ap.parse_args())

我们的detect_blinks.py 脚本需要一个命令行参数,然后是第二个可选参数:

  1. –shape-predictor :这是 dlib 的预训练面部标志检测器的路径。 您可以使用本博文底部的“下载”部分将检测器以及源代码 + 示例视频下载到本教程中。
  2. –video :此可选开关控制驻留在磁盘上的输入视频文件的路径。 如果您想使用实时视频流,只需在执行脚本时省略此开关即可。

我们现在需要设置两个重要的常量,您可能需要为自己的实现进行调整,同时初始化另外两个重要的变量,所以一定要注意这个解释:


# 定义两个常量,一个为眼睛纵横比来表示
# 闪烁然后第二个常量为连续的次数
# 帧眼睛必须低于阈值
EYE_AR_THRESH = 0.3
EYE_AR_CONSEC_FRAMES = 3
# 初始化帧计数器和闪烁总数
COUNTER = 0
TOTAL = 0

在确定视频流中是否发生眨眼时,我们需要计算眼睛纵横比。

如果眼睛纵横比低于某个阈值,然后又高于阈值,那么我们将注册一个“眨眼”——EYE_AR_THRESH 就是这个阈值。我们默认它的值为 0.3,因为这对我的应用程序最有效,但您可能需要为自己的应用程序调整它。

然后我们有一个重要的常量,EYE_AR_CONSEC_FRAME——这个值被设置为 3 以指示眼睛纵横比小于 EYE_AR_THRESH 的三个连续帧必须发生,以便注册眨眼。

同样,根据管道的帧处理吞吐率,您可能需要为自己的实现提高或降低此数字。

第 44 和 45 行初始化两个计数器。 COUNTER 是眼睛纵横比小于 EYE_AR_THRESH 的连续帧的总数,而 TOTAL 是脚本运行时发生的眨眼总数。

现在我们的导入、命令行参数和常量都已经处理好了,我们可以初始化 dlib 的人脸检测器和面部标记检测器:


# 初始化dlib的人脸检测器(基于HOG)然后创建
# 面部标志预测器
print("[INFO] loading facial landmark predictor...")
detector = dlib.get_frontal_face_detector()
predictor = dlib.shape_predictor(args["shape_predictor"])

初始化实际的面部标志预测器。

dlib 生成的面部标志遵循可索引的列表,如下:

因此,我们可以确定开始和结束数组切片索引值,以便为下面的左眼和右眼提取 (x, y) 坐标:


# 获取左侧和面部标志的索引
# 右眼,分别 
(lStart, lEnd) = face_utils.FACIAL_LANDMARKS_IDXS["left_eye"]
(rStart, rEnd) = face_utils.FACIAL_LANDMARKS_IDXS["right_eye"]

使用这些索引,我们将能够毫不费力地提取眼睛区域。

接下来,我们需要决定是使用基于文件的视频流还是实时 USB/网络摄像头/Raspberry Pi 相机视频流:


# start the video stream thread
print("[INFO] starting video stream thread...")
vs = FileVideoStream(args["video"]).start()
fileStream = True
# vs = VideoStream(src=0).start()
# vs = VideoStream(usePiCamera=True).start()
# fileStream = False
time.sleep(1.0)
fps = 30    #保存视频的FPS,可以适当调整
size=(450,800)
videoWriter = cv2.VideoWriter('3.mp4',-1,fps,size)#最后一个是保存图片的尺寸

如果您使用的是文件视频流,则保留代码原样。

如果您想使用内置网络摄像头或 USB 摄像头,请取消注释# vs = VideoStream(src=0).start()。

对于 Raspberry Pi 摄像头模块,取消注释# vs = VideoStream(usePiCamera=True).start()。

定义帧数。

定义大小

定义视频写入对象

最后,我们到达了脚本的主循环:


# loop over frames from the video stream
while True:
	# 如果这是一个文件视频流,那么我们需要检查是否
	# 缓冲区中还有更多帧要处理
	if fileStream and not vs.more():
		break
	frame = vs.read()
	if frame is None:
        break
	frame = imutils.resize(frame, width=450)
	gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
	# 在灰度帧中检测人脸
	rects = detector(gray, 0)

遍历视频流中的帧。

如果我们正在访问一个视频文件流并且视频中没有更多的帧,我们就会中断循环。

从视频流中读取下一帧,然后调整其大小并将其转换为灰度。

然后我们通过 dlib 的内置人脸检测器检测灰度帧中的人脸。

我们现在需要遍历帧中的每个人脸,然后对每个人应用面部标志检测:


	# loop over the face detections
	for rect in rects:
		# 确定面部区域的面部标志,然后
		# 将面部标志 (x, y) 坐标转换为 NumPy数组
		shape = predictor(gray, rect)
		shape = face_utils.shape_to_np(shape)
		# 提取左右眼坐标,然后使用
		# 坐标来计算双眼的眼睛纵横比
		leftEye = shape[lStart:lEnd]
		rightEye = shape[rStart:rEnd]
		leftEAR = eye_aspect_ratio(leftEye)
		rightEAR = eye_aspect_ratio(rightEye)
		# 平均两只眼睛的眼睛纵横比
		ear = (leftEAR + rightEAR) / 2.0

确定面部区域的面部标志,将这些 (x, y) 坐标转换为 NumPy 数组。

使用本脚本前面的数组切片技术,我们可以分别提取左眼和右眼的 (x, y) 坐标。

然后,在第 96 和 97 行计算每只眼睛的眼睛纵横比。

按照 Soukupová 和 Čech 的建议,我们将两只眼睛的纵横比平均在一起以获得更好的眨眼估计(当然,假设一个人同时眨眼)。

我们的下一个代码块只是处理眼睛区域本身的面部标志的可视化


		# 计算左眼和右眼的凸包,然后
		# 可视化每只眼睛
		leftEyeHull = cv2.convexHull(leftEye)
		rightEyeHull = cv2.convexHull(rightEye)
		cv2.drawContours(frame, [leftEyeHull], -1, (0, 255, 0), 1)
		cv2.drawContours(frame, [rightEyeHull], -1, (0, 255, 0), 1)

在这一点上,我们已经计算了我们的(平均)眼睛纵横比,但我们实际上还没有确定是否发生了眨眼——这将在下一节中解决:


		# 检查眼睛的纵横比是否低于眨眼
		# 阈值,如果是,则增加闪烁帧计数器
		if ear < EYE_AR_THRESH:
			COUNTER += 1
		# 否则,眼睛纵横比不低于眨眼
		# 临界点
		else:
			# 如果眼睛闭上足够多的次数
			# 然后增加闪烁的总数
			if COUNTER >= EYE_AR_CONSEC_FRAMES:
				TOTAL += 1
			# 重置眼框计数器
			COUNTER = 0

检查眼睛纵横比是否低于我们的眨眼阈值——如果是增加指示正在发生眨眼的连续帧的数量。

否则,处理眼睛纵横比不低于眨眼阈值的情况。

在这种情况下,再次检查以查看是否有足够数量的连续帧包含低于我们预定义阈值的眨眼率。

如果检查通过,我们增加闪烁的总次数。

然后我们重置连续闪烁的次数 COUNTER。

我们的最终代码块只是处理在我们的输出帧上绘制眨眼次数,以及显示当前眼睛纵横比:


		# 绘制帧上闪烁的总数以及
		# 计算出的帧的眼睛纵横比
		cv2.putText(frame, "Blinks: {}".fORMat(TOTAL), (10, 30),
			cv2.FONT_HERSHEY_SIMPLEX, 0.7, (0, 0, 255), 2)
		cv2.putText(frame, "EAR: {:.2f}".format(ear), (300, 30),
			cv2.FONT_HERSHEY_SIMPLEX, 0.7, (0, 0, 255), 2)
 
	# show the frame
	cv2.imshow("Frame", frame)
	videoWriter.write(frame)
	key = cv2.waiTKEy(1) & 0xFF
 
	# if the `q` key was pressed, break from the loop
	if key == ord("q"):
		break
videoWriter.release()
# do a bit of cleanup
cv2.destroyAllwindows()
vs.stop()

眨眼检测结果

要将我们的眨眼检测器应用于示例视频,只需执行以下命令:


python detect_blinks.py --shape-predictor shape_predictor_68_face_landmarks.dat --video 11.mp4

测试结果:

测试视频链接:

眨眼检测

如果测试摄像头则,如下操作:


#vs = FileVideoStream(args["video"]).start()
#fileStream = True
vs = VideoStream(src=0).start()
# vs = VideoStream(usePiCamera=True).start()
fileStream = False

注释FileVideoStream,取消注释VideoStream。

执行命令:


python detect_blinks.py --shape-predictor shape_predictor_68_face_landmarks.dat

总结

在这篇博文中,我演示了如何使用 OpenCV、Python 和 dlib 构建眨眼检测器。

构建眨眼检测器的第一步是执行面部标志检测,以定位视频流中给定帧中的眼睛。

一旦我们有了双眼的面部标志,我们就计算每只眼睛的眼睛纵横比,这给了我们一个奇异值,将垂直眼睛标志点之间的距离与水平标志点之间的距离联系起来。

一旦我们有了眼睛纵横比,我们就可以确定一个人是否在眨眼——眼睛纵横比在睁眼时将保持大致恒定,然后在眨眼时迅速接近零,然后随着眼睛睁开再次增加.

为了改进我们的眨眼检测器,Soukupová 和 Čech 建议构建一个 13 维的眼睛纵横比特征向量(第 N 帧、N – 6 帧和 N + 6 帧),然后将该特征向量输入线性 SVM分类。

通过这篇博文你还学会了如何保存视频。

眨眼检测的一个应用场景是睡意检测。

完整的代码,提取码:k653

以上就是基于Python OpenCV和 dlib实现眨眼检测的详细内容,更多关于Python OpenCV dlib眨眼检测的资料请关注编程网其它相关文章!

--结束END--

本文标题: 基于Python OpenCV和 dlib实现眨眼检测

本文链接: https://www.lsjlt.com/news/159521.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • 基于Python OpenCV和 dlib实现眨眼检测
    目录了解“眼睛纵横比”(EAR)使用面部标志和 OpenCV 检测眨眼眨眼检测结果总结今天,我们使用面部标记和 OpenCV 检测视频流中的眨眼次数。 为了构建我们的眨眼检测器,我们...
    99+
    2024-04-02
  • opencv基于Haar人脸检测和眼睛检测
    本文为大家分享了opencv基于Haar人脸检测和眼睛检测的具体代码,供大家参考,具体内容如下 在这里,我们将进行人脸检测。最初,该算法需要大量正图像(面部图像)和负图像(无面部图像...
    99+
    2024-04-02
  • python基于Opencv实现人脸口罩检测
    一、开发环境 python 3.6.6 opencv-python 4.5.1 二、设计要求 1、使用opencv-python对人脸口罩进行检测 三、设计原理 设计流程图如图3-1...
    99+
    2024-04-02
  • Android基于OpenCV实现Harris角点检测
    目录什么是角点? 为什么要检测角点? Harris角点检测 API操作效果 源码 什么是角点? 角点就是极值点,即在某方面属性特别突出的点。当然,你可以自己定义角点的属性(设置特定...
    99+
    2024-04-02
  • 基于深度学习和OpenCV实现目标检测
    目录使用深度学习和OpenCV进行目标检测MobileNets:高效(深度)神经网络使用OpenCV进行基于深度学习的对象检测使用OpenCV检测视频使用深度学习和 OpenCV 进...
    99+
    2024-04-02
  • 树莓派上利用python+opencv+dlib实现嘴唇检测的实现
    目录1、安装相关库文件2、代码部分3、实验效果树莓派上利用python+opencv+dlib实现嘴唇检测 项目的目标是在树莓派上运行python代码以实现嘴唇检测,本来以为树莓派的...
    99+
    2024-04-02
  • 树莓派上如何利用python+opencv+dlib实现嘴唇检测
    小编给大家分享一下树莓派上如何利用python+opencv+dlib实现嘴唇检测,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!树莓派上利用python+opencv+dlib实现嘴唇检测项目的目标是在树莓派上运行pyth...
    99+
    2023-06-25
  • 如何实现基于opencv的行人检测
    这篇文章主要为大家展示了“如何实现基于opencv的行人检测”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“如何实现基于opencv的行人检测”这篇文章吧。基于方向梯度直方图(HOG)/线性支持向...
    99+
    2023-06-22
  • OpenCV基于ORB算法实现角点检测
    本文实例为大家分享了OpenCV基于ORB算法实现角点检测的具体代码,供大家参考,具体内容如下 ORB算法是FAST算法和BRIEF算法的结合,ORB可以用来对图像中的关键点快速创建...
    99+
    2024-04-02
  • Android基于OpenCV实现霍夫直线检测
    目录霍夫直线检测点和线的对偶性极坐标参数方程API操作效果霍夫直线检测 点和线的对偶性 图像空间中的点,对应霍夫空间中的直线 图像空间中的直线,对应霍夫空间中的...
    99+
    2024-04-02
  • Android基于OpenCV实现QR二维码检测
    目录QR二维码QR二维码格式QR二维码结构APIQRCodeDetector类结构检测QR二维码识别QR二维码检测并识别QR二维码操作结果源码QR二维码 QR码(英语:Quick...
    99+
    2024-04-02
  • 基于Mediapipe+Opencv实现手势检测功能
    目录一、前言二、环境配置软件:环境:三、全部源码MediapipeHandTracking.py程序结构:MediapipeHandTracking.py源码与注释四、环境配置1、在...
    99+
    2024-04-02
  • 基于python3+OpenCV实现人脸和眼睛识别
    基于python3+OpenCV的人脸和眼睛识别,供大家参考,具体内容如下 一、OpenCV人脸检测的xml文件下载 人脸检测和眼睛检测要用到haarcascade_eye.xml和...
    99+
    2024-04-02
  • 如何基于OpenCV&Python实现霍夫变换圆形检测
    简述 基于python使用opencv实现在一张图片中检测出圆形,并且根据坐标和半径标记出圆。不涉及理论,只讲应用。 霍夫变换检测圆形的原理 其实检测圆形和检测直线的原理差别不大...
    99+
    2024-04-02
  • python目标检测基于opencv实现目标追踪示例
    目录主要代码信息封装类更新utilspython-opencv3.0新增了一些比较有用的追踪器算法,这里根据官网示例写了一个追踪器类 程序只能运行在安装有opencv3.0以上版本和...
    99+
    2024-04-02
  • 基于Mediapipe+Opencv如何实现手势检测功能
    今天给大家介绍一下基于Mediapipe+Opencv如何实现手势检测功能。,文章的内容小编觉得不错,现在给大家分享一下,觉得有需要的朋友可以了解一下,希望对大家有所帮助,下面跟着小编的思路一起来阅读吧。一、前言基于Mediapipe+Op...
    99+
    2023-06-26
  • Python机器视觉怎么实现基于OpenCV的手势检测
    本篇内容介绍了“Python机器视觉怎么实现基于OpenCV的手势检测”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!1 简介今天学长向大家介...
    99+
    2023-06-22
  • opencv-python+yolov3实现目标检测
    目录目标检测概况目标检测是?目标检测算法?yolov3模型简介性能介绍架构介绍opencv-python实现why opencv?正文因为最近的任务有用到目标检测,所以昨天晚...
    99+
    2024-04-02
  • Python+Opencv文本检测的实现
    目录EAST 深度学习文本检测器项目结构实施说明使用 OpenCV 实现我们的文本检测器OpenCV 文本检测结果视频文字检测结果在本教程中,您将学习如何使用 OpenCV 使用 E...
    99+
    2024-04-02
  • Python机器视觉之基于OpenCV的手势检测
    目录1 简介2 传统机器视觉的手势检测2.1 轮廓检测法2.2 算法结果2.3 整体代码实现3 深度学习方法做手势识别3.1 经典的卷积神经网络3.2 YOLO系列3.3 SSD3....
    99+
    2024-04-02
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作