千家信息网

Opencv+SVM怎样实现人脸识别

发表于:2024-11-27 作者:千家信息网编辑
千家信息网最后更新 2024年11月27日,Opencv+SVM怎样实现人脸识别,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。前言如何使用 OpenCV 进行人脸识别。第一,将
千家信息网最后更新 2024年11月27日Opencv+SVM怎样实现人脸识别

Opencv+SVM怎样实现人脸识别,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。

前言

如何使用 OpenCV 进行人脸识别。

第一,将首先执行人脸检测,使用深度学习从每个人脸中提取人脸量化为128位的向量。

第二, 在嵌入基础上使用支持向量机(SVM)训练人脸识别模型。

第三,最后使用 OpenCV 识别图像和视频流中的人脸。

项目结构

编码

新建face_embeddings.py脚本,写入如下代码:

# import the necessary packagesimport numpy as npimport pickleimport cv2import osimport os

导入需要的包。然后定义几个函数:

def list_images(basePath, contains=None):    # return the set of files that are valid    return list_files(basePath, validExts=image_types, contains=contains)def list_files(basePath, validExts=None, contains=None):    # loop over the directory structure    for (rootDir, dirNames, filenames) in os.walk(basePath):        # loop over the filenames in the current directory        for filename in filenames:            # if the contains string is not none and the filename does not contain            # the supplied string, then ignore the file            if contains is not None and filename.find(contains) == -1:                continue            # determine the file extension of the current file            ext = filename[filename.rfind("."):].lower()            # check to see if the file is an image and should be processed            if validExts is None or ext.endswith(validExts):                # construct the path to the image and yield it                imagePath = os.path.join(rootDir, filename)                yield imagePathdef resize(image, width=None, height=None, inter=cv2.INTER_AREA):    dim = None    (h, w) = image.shape[:2]    # 如果高和宽为None则直接返回    if width is None and height is None:        return image    # 检查宽是否是None    if width is None:        # 计算高度的比例并并按照比例计算宽度        r = height / float(h)        dim = (int(w * r), height)    # 高为None    else:        # 计算宽度比例,并计算高度        r = width / float(w)        dim = (width, int(h * r))    resized = cv2.resize(image, dim, interpolation=inter)    # return the resized image    return resized

list_images函数,读取数据集文件夹下面的图片。

resize函数,等比例resize图片。接下来定义一些变量:

dataset_path='dataset'embeddings_path='output/embeddings.pickle'detector_path='face_dete_model'embedding_model='nn4.small2.v1.t7'confidence_low=0.5

dataset_path:数据集路径

embeddings_path:输出编码文件的路径

detector_path:人脸检测模型的路径

embedding_model:编码模型

confidence_low:最低的置信度。

接下来就是代码的最重要的部分:

print("loading face detector...")protoPath = os.path.sep.join([detector_path, "deploy.proto.txt"])modelPath = os.path.sep.join([detector_path,"res10_300x300_ssd_iter_140000_fp16.caffemodel"])detector = cv2.dnn.readNetFromCaffe(protoPath, modelPath)# 加载序列化的人脸编码模型print("loading face recognizer...")embedder = cv2.dnn.readNetFromTorch(embedding_model)# 获取数据集中输入图像的路径print("quantifying faces...")imagePaths = list(list_images(dataset_path))# 初始化我们提取的面部编码列表和相应的人名knownEmbeddings = []knownNames = []# 初始化处理的人脸总数total = 0# loop over the image pathsfor (i, imagePath) in enumerate(imagePaths):    # extract the person name from the image path    print("processing image {}/{}".format(i + 1,len(imagePaths)))    name = imagePath.split(os.path.sep)[-2]    # 加载图像,将其调整为宽度为 600 像素(同时保持纵横比),然后抓取图像尺寸    image = cv2.imread(imagePath)    image = resize(image, width=600)    (h, w) = image.shape[:2]    # 从图像构建一个 blob    imageBlob = cv2.dnn.blobFromImage(        cv2.resize(image, (300, 300)), 1.0, (300, 300),        (104.0, 177.0, 123.0), swapRB=False, crop=False)    # 使用 OpenCV 的基于深度学习的人脸检测器来定位输入图像中的人脸    detector.setInput(imageBlob)    detections = detector.forward()    # ensure at least one face was found    if len(detections) > 0:        # 假设每个图像只有一张脸,所以找到概率最大的边界框        i = np.argmax(detections[0, 0, :, 2])        confidence = detections[0, 0, i, 2]        # 确保最大概率的检测也意味着我们的最小概率测试(从而帮助过滤掉弱检测)        if confidence > confidence_low:            # 计算人脸边界框的 (x, y) 坐标            box = detections[0, 0, i, 3:7] * np.array([w, h, w, h])            (startX, startY, endX, endY) = box.astype("int")            # 提取人脸ROI并抓取ROI维度            face = image[startY:endY, startX:endX]            (fH, fW) = face.shape[:2]            # 确保人脸宽度和高度足够大            if fW < 20 or fH < 20:                continue            # 为人脸 ROI 构造一个 blob,然后将 blob 通过我们的人脸嵌入模型来获得人脸的 128-d 量化            faceBlob = cv2.dnn.blobFromImage(face, 1.0 / 255,                                             (96, 96), (0, 0, 0), swapRB=True, crop=False)            embedder.setInput(faceBlob)            vec = embedder.forward()            # 将人名+对应的人脸嵌入添加到各自的列表中            knownNames.append(name)            knownEmbeddings.append(vec.flatten())            total += 1# 保存编码文件print("serializing {} encodings...".format(total))data = {"embeddings": knownEmbeddings, "names": knownNames}f = open(embeddings_path, "wb")f.write(pickle.dumps(data))f.close()

加载人脸检测器和编码器:

检测器:使用基于Caffe的DL人脸检测器来定位图像中的人脸。

编码器:模型基于Torch,负责通过深度学习特征提取来提取人脸编码。

接下来,让我们抓取图像路径并执行初始化。

遍历 imagePaths。从路径中提取人名。

构造了一个 blob。

然后,通过将 imageBlob 通过检测器网络来检测图像中的人脸。

检测列表包含定位图像中人脸的概率和坐标。

假设我们至少有一个检测,将进入 if 语句的主体。

假设图像中只有一张脸,因此提取具有最高置信度的检测并检查以确保置信度满足用于过滤弱检测的最小概率阈值。

假设已经达到了这个阈值,提取面部 ROI 并抓取/检查尺寸以确保面部 ROI 足够大。

然后,我们将利用编码器 并提取人脸编码。

继续构建另一个 blob。

随后,将 faceBlob 通过编码器 。 这会生成一个 128 维向量 (vec) 来描述面部。

然后我们简单地将名称和嵌入 vec 分别添加到 knownNames 和 knownEmbeddings 中。

继续循环图像、检测人脸并为数据集中的每个图像提取人脸编码的过程。

循环结束后剩下的就是将数据转储到磁盘。

运行结果:

loading face detector...

loading face recognizer...

quantifying faces...

processing image 1/19

processing image 2/19

processing image 3/19

processing image 4/19

processing image 5/19

processing image 6/19

processing image 7/19

processing image 8/19

processing image 9/19

processing image 10/19

processing image 11/19

processing image 12/19

processing image 13/19

processing image 14/19

processing image 15/19

processing image 16/19

processing image 17/19

processing image 18/19

processing image 19/19

serializing 19 encodings...


Process finished with exit code 0

训练人脸识别模型

已经为每张脸提取了 128 维编码--但是我们如何根据这些嵌入来识别一个人呢?

答案是我们需要在嵌入之上训练一个"标准"机器学习模型(例如 SVM、k-NN 分类器、随机森林等)。

今天我们使用SVM实现

打开 train_face.py 文件并插入以下代码:

from sklearn.preprocessing import LabelEncoderfrom sklearn.svm import SVCimport pickleembeddings_path='output/embeddings.pickle'recognizer_path='output/recognizer.pickle'lable_path='output/le.pickle'# 加载编码模型print("[INFO] loading face embeddings...")data = pickle.loads(open(embeddings_path, "rb").read())# 给label编码print("[INFO] encoding labels...")le = LabelEncoder()labels = le.fit_transform(data["names"])# 训练用于接受人脸 128-d 嵌入的模型,然后产生实际的人脸识别recognizer = SVC(C=1.0, kernel="linear", probability=True)recognizer.fit(data["embeddings"], labels)# 保存模型f = open(recognizer_path, "wb")f.write(pickle.dumps(recognizer))f.close()# 保存lablef = open(lable_path, "wb")f.write(pickle.dumps(le))f.close()

导入包和模块。 我们将使用 scikit-learn 的支持向量机 (SVM) 实现,这是一种常见的机器学习模型。

定义变量。

  • embeddings_path:序列化编码。

  • recognizer_path:这将是我们识别人脸的输出模型。 它基于 SVM。

  • lable_path:标签编码器输出文件路径

加载编码。

然后初始化 scikit-learn LabelEncoder 并编码名称标签。

训练模型。本文使用的是线性支持向量机 (SVM),但如果您愿意,您可以尝试使用其他机器学习模型进行试验。

训练模型后,我们将模型和标签编码器保存到电脑上。

运行train_face.py 脚本。

识别图像中的人脸

新建脚本文件recognize_face.py,插入一下代码:

import numpy as npimport pickleimport cv2import os

导入包,然后我们需要新增一个resize方法。

def resize(image, width=None, height=None, inter=cv2.INTER_AREA):    dim = None    (h, w) = image.shape[:2]    # 如果高和宽为None则直接返回    if width is None and height is None:        return image    # 检查宽是否是None    if width is None:        # 计算高度的比例并并按照比例计算宽度        r = height / float(h)        dim = (int(w * r), height)    # 高为None    else:        # 计算宽度比例,并计算高度        r = width / float(w)        dim = (width, int(h * r))    resized = cv2.resize(image, dim, interpolation=inter)    # return the resized image    return resized

等比例resize图像,定义变量:

image_path = '11.jpg'detector_path = 'face_dete_model'embedding_path = 'nn4.small2.v1.t7'recognizer_path = 'output/recognizer.pickle'label_path = 'output/le.pickle'confidence_low = 0.5

这六个变量的含义如下:

  1. image_path :输入图像的路径。

  2. detector_path:OpenCV 深度学习人脸检测器的路径。 使用这个模型来检测人脸 ROI 在图像中的位置。

  3. embedding_path : OpenCV 深度学习人脸编码模型的路径。 我们将使用这个模型从人脸 ROI 中提取 128 维人脸嵌入--然后将把数据输入到识别器中。

  4. recognizer_path :识别器模型的路径。

  5. label_path : 标签编码器的路径。

  6. confidence_low:过滤弱人脸检测的可选阈值。

接下来是代码的主体部分:

# 加载序列化人脸检测器print("[INFO] loading face detector...")protoPath = os.path.sep.join([detector_path, "deploy.proto.txt"])modelPath = os.path.sep.join([detector_path,"res10_300x300_ssd_iter_140000_fp16.caffemodel"])detector = cv2.dnn.readNetFromCaffe(protoPath, modelPath)# 加载我们序列化的人脸编码模型print("[INFO] loading face recognizer...")embedder = cv2.dnn.readNetFromTorch(embedding_path)# 加载实际的人脸识别模型和标签编码器recognizer = pickle.loads(open(recognizer_path, "rb").read())le = pickle.loads(open(label_path, "rb").read())# 加载图像,将其调整为宽度为 600 像素(同时保持纵横比),然后抓取图像尺寸image = cv2.imread(image_path)image = resize(image, width=600)(h, w) = image.shape[:2]# 从图像构建一个 blobimageBlob = cv2.dnn.blobFromImage(    cv2.resize(image, (300, 300)), 1.0, (300, 300),    (104.0, 177.0, 123.0), swapRB=False, crop=False)# 应用 OpenCV 的基于深度学习的人脸检测器来定位输入图像中的人脸detector.setInput(imageBlob)detections = detector.forward()# loop over the detectionsfor i in range(0, detections.shape[2]):    # 提取与预测相关的置信度(即概率)    confidence = detections[0, 0, i, 2]    # filter out weak detections    if confidence > confidence_low:        # 计算人脸边界框的 (x, y) 坐标        box = detections[0, 0, i, 3:7] * np.array([w, h, w, h])        (startX, startY, endX, endY) = box.astype("int")        # 提取人脸ROI        face = image[startY:endY, startX:endX]        (fH, fW) = face.shape[:2]        # 确保人脸宽度和高度足够大        if fW < 20 or fH < 20:            continue        # 为人脸 ROI 构造一个 blob,然后将 blob 通过我们的人脸嵌入模型来获得人脸的 128-d 量化        faceBlob = cv2.dnn.blobFromImage(face, 1.0 / 255, (96, 96),                                         (0, 0, 0), swapRB=True, crop=False)        embedder.setInput(faceBlob)        vec = embedder.forward()        # 执行分类以识别人脸        preds = recognizer.predict_proba(vec)[0]        j = np.argmax(preds)        proba = preds[j]        name = le.classes_[j]        # 绘制人脸的边界框以及相关的概率        text = "{}: {:.2f}%".format(name, proba * 100)        y = startY - 10 if startY - 10 > 10 else startY + 10        cv2.rectangle(image, (startX, startY), (endX, endY),                      (0, 0, 255), 2)        cv2.putText(image, text, (startX, y),                    cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 0, 255), 2)# 展示结果cv2.imshow("Image", image)cv2.waitKey(0)

我们在这个块中加载三个模型。 冒着冗余的风险,我想明确提醒您模型之间的差异:

  • 检测器:一个预训练的 Caffe DL 模型,用于检测人脸在图像中的位置。

  • embedder:一个预训练的 Torch DL 模型,用于计算我们的 128-D 人脸嵌入。

  • 识别器:线性 SVM 人脸识别模型。

1 和 2 都是预先训练好的,这意味着它们是由 OpenCV 按原样提供给您的

加载标签编码器,其中包含我们的模型可以识别的人的姓名。

将图像加载到内存中并构建一个 blob。

通过我们的检测器定位图像中的人脸。

您将从步骤 1 中识别出此块。 我在这里再解释一遍:

遍历检测并提取每个检测的置信度。

然后将置信度与命令行 最小概率检测阈值进行比较,确保计算出的概率大于最小概率。

我们提取人脸 ROI并确保它的空间维度足够大。

下面是识别人脸 ROI代码:

首先,构建一个 faceBlob)并将其通过编码器以生成描述面部的 128 维向量

然后,我们将 vec 通过我们的 SVM 识别器模型,其结果是我们对面部 ROI 中的人的预测。

我们取最高概率指数并查询我们的标签编码器以找到名称。

循环中识别每一张脸(包括"未知")人:

在构造了一个包含名称和概率的文本字符串。

然后在脸部周围绘制一个矩形并将文本放在框上方。

最后我们在屏幕上可视化结果,直到按下某个键。

可以看出使用机器学习的方式准确率还是比较低的,但是优点是速度快。

摄像头识别人脸

这里我用视频代替,代码和图像中识别人脸的步骤一致,直接上代码。

新建recognize_video.py脚本,插入一下代码:

import numpy as npimport pickleimport timeimport cv2import osdef resize(image, width=None, height=None, inter=cv2.INTER_AREA):    dim = None    (h, w) = image.shape[:2]    # 如果高和宽为None则直接返回    if width is None and height is None:        return image    # 检查宽是否是None    if width is None:        # 计算高度的比例并并按照比例计算宽度        r = height / float(h)        dim = (int(w * r), height)    # 高为None    else:        # 计算宽度比例,并计算高度        r = width / float(w)        dim = (width, int(h * r))    resized = cv2.resize(image, dim, interpolation=inter)    # return the resized image    return resizedout_put='output.avi'video_path = '1.mp4'detector_path = 'face_dete_model'embedding_path = 'nn4.small2.v1.t7'recognizer_path = 'output/recognizer.pickle'label_path = 'output/le.pickle'confidence_low = 0.5# load our serialized face detector from diskprint("[INFO] loading face detector...")protoPath = os.path.sep.join([detector_path, "deploy.proto.txt"])modelPath = os.path.sep.join([detector_path,"res10_300x300_ssd_iter_140000_fp16.caffemodel"])detector = cv2.dnn.readNetFromCaffe(protoPath, modelPath)# load our serialized face embedding model from diskprint("[INFO] loading face recognizer...")embedder = cv2.dnn.readNetFromTorch(embedding_path)# load the actual face recognition model along with the label encoderrecognizer = pickle.loads(open(recognizer_path, "rb").read())le = pickle.loads(open(label_path, "rb").read())# initialize the video stream, then allow the camera sensor to warm upprint("[INFO] starting video stream...")#vs = cv2.VideoCapture(0) #摄像头vs=cv2.VideoCapture(video_path)# 视频time.sleep(2.0)# start the FPS throughput estimatorwriter=None# loop over frames from the video file streamwhile True:    # grab the frame from the threaded video stream    ret_val, frame = vs.read()    if ret_val is False:        break    # resize the frame to have a width of 600 pixels (while    # maintaining the aspect ratio), and then grab the image    # dimensions    frame = resize(frame, width=600)    (h, w) = frame.shape[:2]    # construct a blob from the image    imageBlob = cv2.dnn.blobFromImage(        cv2.resize(frame, (300, 300)), 1.0, (300, 300),        (104.0, 177.0, 123.0), swapRB=False, crop=False)    # apply OpenCV's deep learning-based face detector to localize    # faces in the input image    detector.setInput(imageBlob)    detections = detector.forward()    # loop over the detections    for i in range(0, detections.shape[2]):        # extract the confidence (i.e., probability) associated with        # the prediction        confidence = detections[0, 0, i, 2]        # filter out weak detections        if confidence >confidence_low:            # compute the (x, y)-coordinates of the bounding box for            # the face            box = detections[0, 0, i, 3:7] * np.array([w, h, w, h])            (startX, startY, endX, endY) = box.astype("int")            # extract the face ROI            face = frame[startY:endY, startX:endX]            (fH, fW) = face.shape[:2]            # ensure the face width and height are sufficiently large            if fW < 20 or fH < 20:                continue            # construct a blob for the face ROI, then pass the blob            # through our face embedding model to obtain the 128-d            # quantification of the face            faceBlob = cv2.dnn.blobFromImage(face, 1.0 / 255,                                             (96, 96), (0, 0, 0), swapRB=True, crop=False)            embedder.setInput(faceBlob)            vec = embedder.forward()            # perform classification to recognize the face            preds = recognizer.predict_proba(vec)[0]            j = np.argmax(preds)            proba = preds[j]            name = le.classes_[j]            # draw the bounding box of the face along with the            # associated probability            text = "{}: {:.2f}%".format(name, proba * 100)            y = startY - 10 if startY - 10 > 10 else startY + 10            cv2.rectangle(frame, (startX, startY), (endX, endY),                          (0, 0, 255), 2)            cv2.putText(frame, text, (startX, y),                        cv2.FONT_HERSHEY_SIMPLEX, 0.45, (0, 0, 255), 2)            if writer is None and out_put is not None:                fourcc = cv2.VideoWriter_fourcc(*"MJPG")                writer = cv2.VideoWriter(out_put, fourcc, 20,                                         (frame.shape[1], frame.shape[0]), True)                # 如果 writer 不是 None,则将识别出人脸的帧写入磁盘            if writer is not None:                writer.write(frame)    # show the output frame    cv2.imshow("Frame", frame)    key = cv2.waitKey(1) & 0xFF    # if the `q` key was pressed, break from the loop    if key == ord("q"):        break# do a bit of cleanupcv2.destroyAllWindows()vs.release()if writer is not None:    writer.release()

运行结果:

关于Opencv+SVM怎样实现人脸识别问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注行业资讯频道了解更多相关知识。

人脸 模型 编码 图像 检测 路径 概率 编码器 宽度 检测器 学习 代码 比例 训练 高度 标签 向量 数据 文件 深度 数据库的安全要保护哪些东西 数据库安全各自的含义是什么 生产安全数据库录入 数据库的安全性及管理 数据库安全策略包含哪些 海淀数据库安全审计系统 建立农村房屋安全信息数据库 易用的数据库客户端支持安全管理 连接数据库失败ssl安全错误 数据库的锁怎样保障安全 软件开发的底线 曙光 服务器 贵阳 打印机的网络安全密钥 网络安全管理是执法勤务吗 我的世界为啥服务器太欢迎 合肥做软件开发的公司 数据库数据的三大范式 一个表只有一个数据库 用友实施和软件开发哪个好 教育整顿指挥中心网络安全培训 靠谱的进出口贸易管理软件开发商 电大数据库应用技术考试及答案 高并发单机数据库 服务器安全教程 书籍推荐 徐汇区正规软件开发创新服务 正在连接服务器无法登陆 计算机网络技术试卷子网掩码 打鱼机软件开发 戴尔服务器电脑维修点查询 海康服务器电源灯绿灯一闪一闪 网络安全事件分类标准 江西省数盾网络安全 联想服务器硬盘拔出后不能启动 支付软件开发费会议记录 软件开发企业架构 靠谱的进出口贸易管理软件开发商 基因数据库 四川毫末网络技术有限公司 苹果手机相册文件数据库 我的世界50人服务器要多少钱
0