时间:2021-05-02
retinaface 人脸检测算法
甜点
最近一直了解人脸检测的算法,所以也尝试学多人脸检测框架。所以这里将拿出来和大家分享一下
Retinaface 与普通的目标检测算法类似,在图片上预先设定好一些先验框,这些先验框会分布在整个图片上,网络内部结构会对这些先验框进行判断看是否包含人脸,同时也会调整位置进行调整并且给每一个先验框的一个置信度。
在 Retinaface 的先验框不但要获得人脸位置,还需要获得每一个人脸的五个关键点位置
接下来我们对 Retinaface 执行过程其实就是在图片上预先设定好先验框,网络的预测结果会判断先验框内部是否包含人脸并且对先验框进行调整获得预测框和五个人脸关键点。
主干特征提取网络
mobileNet
MobileNet 网络是由 google 团队在 2017 年提出的,专注移动端和嵌入式设备中轻量级 CNN 网络,在大大减少模型参数与运算量下,对于精度只是小幅度下降而已。
加强特征提取网络 FPN 和 SHH
FPN 构建就是生成特征图进行融合,通过上采样然后和上一层的有效特征层进行
SSH 的思想非常简单,使用了 3 个并行结构,利用 3 x 3 卷积的堆叠代替 5 x 5 与 7 x 7 卷积的效果,
retina head
在主干网络输出的相当输出了不同大小网格,用于检测不同大小目标,先验框默认数量为 2,这些先验框用于检测目标,然后通过调整得到目标边界框。
FPN
classFPN(nn.Module):
def__init__(self,in_channels_list,out_channels):
super(FPN,self).__init__()
leaky=0
if(out_channels<=64):
leaky=0.1
#利用1x1卷积对获得的3有效特征层进行通道数的调整,输出通道数都为64
self.output1=conv_bn1X1(in_channels_list[0],out_channels,stride=1,leaky=leaky)
self.output2=conv_bn1X1(in_channels_list[1],out_channels,stride=1,leaky=leaky)
self.output3=conv_bn1X1(in_channels_list[2],out_channels,stride=1,leaky=leaky)
self.merge1=conv_bn(out_channels,out_channels,leaky=leaky)
self.merge2=conv_bn(out_channels,out_channels,leaky=leaky)
defforward(self,input):
#names=list(input.keys())
input=list(input.values())
#
output1=self.output1(input[0])
output2=self.output2(input[1])
output3=self.output3(input[2])
#对于最小特征层进行上采样来获得up3
up3=F.interpolate(output3,size=[output2.size(2),output2.size(3)],mode="nearest")
#然后将最小特征层经过上采用获得结果和中间有效特征层进行相加
output2=output2+up3
#进行64通道卷积进行特征整合
output2=self.merge2(output2)
#这个步骤和上面类似
up2=F.interpolate(output2,size=[output1.size(2),output1.size(3)],mode="nearest")
output1=output1+up2
output1=self.merge1(output1)
out=[output1,output2,output3]
returnout
SSH
classSSH(nn.Module):
def__init__(self,in_channel,out_channel):
super(SSH,self).__init__()
assertout_channel%4==0
leaky=0
if(out_channel<=64):
leaky=0.1
self.conv3X3=conv_bn_no_relu(in_channel,out_channel//2,stride=1)
#用2个3x3的卷积来代替5x5的卷积
self.conv5X5_1=conv_bn(in_channel,out_channel//4,stride=1,leaky=leaky)
self.conv5X5_2=conv_bn_no_relu(out_channel//4,out_channel//4,stride=1)
#使用3个3x3的卷积来代替7x7的卷积
self.conv7X7_2=conv_bn(out_channel//4,out_channel//4,stride=1,leaky=leaky)
self.conv7x7_3=conv_bn_no_relu(out_channel//4,out_channel//4,stride=1)
defforward(self,input):
conv3X3=self.conv3X3(input)
conv5X5_1=self.conv5X5_1(input)
conv5X5=self.conv5X5_2(conv5X5_1)
conv7X7_2=self.conv7X7_2(conv5X5_1)
conv7X7=self.conv7x7_3(conv7X7_2)
#堆叠
out=torch.cat([conv3X3,conv5X5,conv7X7],dim=1)
out=F.relu(out)
returnout
先验框调整
深度可分离卷积(Depthwise separable convolution)
深度可分离卷积好处就是可以减少参数数量,从而降低运算的成本。经常出现在一些轻量级的网络结构(这些网络结构适合于移动设备或者嵌入式设备),深度可分离卷积是由DW(depthwise)和PW(pointwise)组成
这里我们通过对比普通卷积神经网络来解释,深度可分离卷积是如何减少参数
DW(Depthwise Conv)
我们先看图中 DW 部分,在这一个部分每一个卷积核通道数 1 ,每一个卷积核对应一个输入通道进行计算,那么可想而知输出通道数就与卷积核个数以及输入通道数量保持一致。
简单总结一下有以下两点
PW(Pointwise Conv)
PW 卷积核核之前普通卷积核类似,只不过 PW 卷积核大小为 1 ,卷积核深度与输入通道数相同,而卷积核个数核输出通道数相同
原文地址:https://www.toutiao.com/i6895666874189627915/
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
本文实例讲述了C#数字图象处理之肤色检测的方法。分享给大家供大家参考。具体如下://定义肤色检测函数(可供人脸检测等研究使用)publicBitmapSkinD
1.简介:facenet是基于TensorFlow的人脸识别开源库,有兴趣的同学可以扒扒源代码:https://github.com/davidsandberg
1.引言在某些场景下,我们不仅需要进行实时人脸检测追踪,还要进行再加工;这里进行摄像头实时人脸检测,并对于实时检测的人脸进行初步提取;单个/多个人脸检测,并依次
主要有以下步骤:1、人脸检测2、人脸预处理3、从收集的人脸训练机器学习算法4、人脸识别5、收尾工作人脸检测算法:基于Haar的脸部检测器的基本思想是,对于面部正
此程序为先调用opencv自带的人脸检测模型,检测到人脸后,再调用我自己训练好的模型去识别人脸,使用时更改模型地址即可#!usr/bin/envpythonim