0

私は、実際のビデオで、pythonのhaar cascadeアルゴリズムを使用して、ユーザーの目が開いているか閉じているかを検出しようとしています。 残念ながら、うまくいきません。pythonでopenCVを使用して開いているか閉じている目を検出する

「haarcascade_eye.xml」は開いた目を検出するために使用され、「haarcascade_lefteye_2splits」は目を検出するために使用されることが理解されました(閉じた状態または開いた状態)。

一般的に開いている目と目をビデオで比較したいと思っていましたが、目が閉じていると誤認識していました。それを改善する他の方法がありますか?ここで

は私のコードです:

import numpy as np 
import cv2 

face_cascade = cv2.CascadeClassifier('haarcascade_frontalface_default.xml') 
eye_cascade = cv2.CascadeClassifier('haarcascade_eye.xml') 
lefteye_cascade = cv2.CascadeClassifier('haarcascade_lefteye_2splits.xml') 

cap = cv2.VideoCapture(0) 

while True: 
    ret, img = cap.read() 
    gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) 
    faces = face_cascade.detectMultiScale(gray, 1.3, 5) 

for (x, y, w, h) in faces: 
    cv2.rectangle(img, (x, y), (x + w, y + h), (255, 0, 0), 2) 
    # regions of interest 
    roi_gray = gray[y:y + h, (x+w)/2:x + w] 
    roi_color = img[y:y + h, (x+w)/2:x + w] 
    eye = 0 
    openEye = 0 
    counter = 0 
    openEyes = eye_cascade.detectMultiScale(roi_gray) 
    AllEyes = lefteye_cascade.detectMultiScale(roi_gray) 
    for (ex, ey, ew, eh) in openEyes: 
     openEye += 1 
     cv2.rectangle(roi_color, (ex, ey), (ex + ew, ey + eh), (0, 255, 0),2) 

    for (ex, ey, ew, eh) in AllEyes: 
     eye += 1 
     cv2.rectangle(roi_color, (ex, ey), (ex + ew, ey + eh), (0, 0, 40),2) 

    if (openEye != eye): 
     print ('alert') 

cv2.imshow('img', img) 

k = cv2.waitKey(30) & 0xff 
if k == 27: 
    break 

cap.release() 
cv2.destroyAllWindows() 
+0

DLIBライブラリを使用して溶液 - を発見し、顔のランドマークを認識:) – xYaelx

答えて

1

は最終的に私は顔のランドマークを認識するためのDLIBライブラリを使用:)

関連する問題