0
私は、実際のビデオで、pythonのhaar cascadeアルゴリズムを使用して、ユーザーの目が開いているか閉じているかを検出しようとしています。 残念ながら、うまくいきません。pythonでopenCVを使用して開いているか閉じている目を検出する
「haarcascade_eye.xml」は開いた目を検出するために使用され、「haarcascade_lefteye_2splits」は目を検出するために使用されることが理解されました(閉じた状態または開いた状態)。
一般的に開いている目と目をビデオで比較したいと思っていましたが、目が閉じていると誤認識していました。それを改善する他の方法がありますか?ここで
は私のコードです:
import numpy as np
import cv2
face_cascade = cv2.CascadeClassifier('haarcascade_frontalface_default.xml')
eye_cascade = cv2.CascadeClassifier('haarcascade_eye.xml')
lefteye_cascade = cv2.CascadeClassifier('haarcascade_lefteye_2splits.xml')
cap = cv2.VideoCapture(0)
while True:
ret, img = cap.read()
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
faces = face_cascade.detectMultiScale(gray, 1.3, 5)
for (x, y, w, h) in faces:
cv2.rectangle(img, (x, y), (x + w, y + h), (255, 0, 0), 2)
# regions of interest
roi_gray = gray[y:y + h, (x+w)/2:x + w]
roi_color = img[y:y + h, (x+w)/2:x + w]
eye = 0
openEye = 0
counter = 0
openEyes = eye_cascade.detectMultiScale(roi_gray)
AllEyes = lefteye_cascade.detectMultiScale(roi_gray)
for (ex, ey, ew, eh) in openEyes:
openEye += 1
cv2.rectangle(roi_color, (ex, ey), (ex + ew, ey + eh), (0, 255, 0),2)
for (ex, ey, ew, eh) in AllEyes:
eye += 1
cv2.rectangle(roi_color, (ex, ey), (ex + ew, ey + eh), (0, 0, 40),2)
if (openEye != eye):
print ('alert')
cv2.imshow('img', img)
k = cv2.waitKey(30) & 0xff
if k == 27:
break
cap.release()
cv2.destroyAllWindows()
DLIBライブラリを使用して溶液 - を発見し、顔のランドマークを認識:) – xYaelx