一、概述
谷歌人脸识别算法,发表于 CVPR 2015,利用相同人脸在不同角度等姿态的照片下有高内聚性,不同人脸有低耦合性,提出使用 cnn + triplet mining 方法,在 LFW 数据集上准确度达到 99.63%。
通过 CNN 将人脸映射到欧式空间的特征向量上,实质上:不同图片人脸特征的距离较大;通过相同个体的人脸的距离,总是小于不同个体的人脸这一先验知识训练网络。
三、FaceNet模型介绍
测试时只需要计算人脸特征Embedding,然后计算距离使用阈值即可判定两张人脸照片是否属于相同的个体。
简单来讲,在使用阶段,FaceNet即是:
- 1、输入一张人脸图片
- 2、通过深度卷积网络提取特征
- 3、
- 4、得到一个长度为128特征向量。
1、主干网络介绍
FaceNet的主干网络起到提取特征的作用,原版的 FaceNet 以 Inception-ResNetV1 为主干特征提取网络。
本文一共提供了两个网络作为主干特征提取网络,分别是 Mobilenet-v1 和 Inception-ResNetV1,二者都起到特征提取的作用,为了方便理解,本博文中会使用 Mobilenet-v1 作为主干特征提取网络。
MobilenetV1模型是Google针对手机等嵌入式设备提出的一种轻量级的深层神经网络,其使用的核心思想便是 Depthwise Separable Convolution(深度可分离卷积块)。MobilenetV1详细介绍参考:
import torch.nn as nn
def conv_bn(inp, oup, stride = 1):
return nn.Sequential(
nn.Conv2d(inp, oup, 3, stride, 1, bias=False),
nn.BatchNorm2d(oup),
nn.ReLU6()
)
def conv_dw(inp, oup, stride = 1):
return nn.Sequential(
nn.Conv2d(inp, inp, 3, stride, 1, groups=inp, bias=False),
nn.BatchNorm2d(inp),
nn.ReLU6(),
nn.Conv2d(inp, oup, 1, 1, 0, bias=False),
nn.BatchNorm2d(oup),
nn.ReLU6(),
)
class MobileNetV1(nn.Module):
def __init__(self):
super(MobileNetV1, self).__init__()
self.stage1 = nn.Sequential(
# 160,160,3 -> 80,80,32
conv_bn(3, 32, 2),
# 80,80,32 -> 80,80,64
conv_dw(32, 64, 1),
# 80,80,64 -> 40,40,128
conv_dw(64, 128, 2),
conv_dw(128, 128, 1),
# 40,40,128 -> 20,20,256
conv_dw(128, 256, 2),
conv_dw(256, 256, 1),
)
self.stage2 = nn.Sequential(
# 20,20,256 -> 10,10,512
conv_dw(256, 512, 2),
conv_dw(512, 512, 1),
conv_dw(512, 512, 1),
conv_dw(512, 512, 1),
conv_dw(512, 512, 1),
conv_dw(512, 512, 1),
)
self.stage3 = nn.Sequential(
# 10,10,512 -> 5,5,1024
conv_dw(512, 1024, 2),
conv_dw(1024, 1024, 1),
)
self.avg = nn.AdaptiveAvgPoo $\text{L2}$ d((1,1))
self.fc = nn.Linear(1024, 1000)
def forward(self, x):
x = self.stage1(x)
x = self.stage2(x)
x = self.stage3(x)
x = self.avg(x)
# x = self.model(x)
x = x.view(-1, 1024)
x = self.fc(x)
return x
class Facenet(nn.Module):
def __init__(self, backbone="mobilenet", dropout_keep_prob=0.5, embedding_size=128, num_classes=None, mode="train"):
super(Facenet, self).__init__()
if backbone == "mobilenet":
self.backbone = mobilenet()
flat_shape = 1024
elif backbone == "inception_resnetv1":
self.backbone = inception_resnet()
flat_shape = 1792
else:
raise ValueError('Unsupported backbone - `{}`, Use mobilenet, inception_resnetv1.'.format(backbone))
self.avg = nn.AdaptiveAvgPoo $\text{L2}$ d((1,1))
self.Dropout = nn.Dropout(1 - dropout_keep_prob)
self.Bottleneck = nn.Linear(flat_shape, embedding_size,bias=False)
self.last_bn = nn.BatchNorm1d(embedding_size, eps=0.001, momentum=0.1, affine=True)
if mode == "train":
self.classifier = nn.Linear(embedding_size, num_classes)
def forward(self, x):
x = self.backbone(x)
x = self.avg(x)
x = x.view(x.size(0), -1)
x = self.Dropout(x)
x = self.Bottleneck(x)
x = self.last_bn(x)
x = F.normalize(x, p=2, dim=1)
return x
def forward_feature(self, x):
x = self.backbone(x)
x = self.avg(x)
x = x.view(x.size(0), -1)
x = self.Dropout(x)
x = self.Bottleneck(x)
before_normalize = self.last_bn(x)
x = F.normalize(before_normalize, p=2, dim=1)
return before_normalize, x
def forward_classifier(self, x):
x = self.classifier(x)
return x
2、根据初步特征获得长度为128的特征向量
利用主干特征提取网络我们可以获得一个特征层,它的shape为 ,我们可以将其取全局平均池化得shape为 ,方便后续的处理。
我们可以将平铺后的特征层进行一个神经元个数为128的全连接。此时我们相当于利用了一个长度为128的特征向量代替输入进来的图片。这个长度为128的特征向量就是输入图片的特征浓缩。
3、
在获得一个长度为128的特征向量后,我们还需要进行 标准化的处理。这个。
在进行
在pytorch代码中,只需要一行就可以实现
x = F.normalize(x, p=2, dim=1)
到这里,我们输入进来的图片,已经变成了一个经过
4、构建分类器(用于辅助Triplet Loss的收敛)
当我们完成第三步后,我们已经可以利用这个特征向量进行训练和预测了。
但是由于仅仅只是用Triplet Loss会使得整个网络难以收敛,本文结合Cross-Entropy Loss和Triplet Loss作为总体loss。
- Triplet Loss用于进行不同人的人脸特征向量欧几里得距离的扩张,同一个人的不同状态的人脸特征向量欧几里得距离的缩小。
- Cross-Entropy Loss用于人脸分类,具体作用是辅助Triplet Loss收敛。
想要利用Cross-Entropy Loss进行训练需要构建分类器,因此对第三步获得的结果再次进行一个全连接用于分类。
构建代码如下:
- 当我们在进行网络的训练的时候,可使用分类器辅助训练;
- 在预测的时候,分类器是不需要的:
if mode == "train":
self.classifier = nn.Linear(embedding_size, num_classes)
def forward_classifier(self, x):
x = self.classifier(x)
return x
四、模型训练
1、数据集介绍
我们使用的数据集是CASIA-WebFace数据集,我已经对其进行了预处理,将其属于同一个人的图片放到同一个文件夹里面,并且进行了人脸的提取和人脸的矫正。
数据集里面有很多的文件夹,每一个文件夹里面存放同一个人的不同情况下的人脸。不同文件夹存放不同人的脸。
- 这是\0000045文件夹里面的人脸,属于同一个人。
- 这是\0000099文件夹里面的人脸,属于同一个人。
2、LOSS组成
FaceNet使用Triplet Loss作为loss。Triplet Loss的输入是一个三元组
- a:anchor,基准图片获得的128维人脸特征向量
- p:positive,与基准图片属于同一张人脸的图片获得的128维人脸特征向量
- n:negative,与基准图片不属于同一张人脸的图片获得的128维人脸特征向量
我们可以将anchor和positive求欧几里得距离,并使其尽量小。我们可以将anchor和negative求欧几里得距离,并使其尽量大。
我们所使用的公式为:
- d(a,p)就是anchor和positive的欧几里得距离;
- d(a,n)就是anchor和negative的欧几里得距离;
- margin是一个常数;
d(a,p)前面为正符号,所以我们期望其越来越小。d(a,n)前面为负符号,所以我们期望其越来越大。
即我们希望,同一个人的不同状态的人脸特征向量欧几里得距离小。不同人的人脸特征向量欧几里得距离大。
但是由于仅仅只是用Triplet Loss会使得整个网络难以收敛,本文结合Cross-Entropy Loss和Triplet Loss作为总体loss。
Triplet Loss用于进行不同人的人脸特征向量欧几里得距离的扩张,同一个人的不同状态的人脸特征向量欧几里得距离的缩小。Cross-Entropy Loss用于人脸分类,具体作用是辅助Triplet Loss收敛。
三元组损失(Triplet Loss)/三重损失,直接反映了作者想要在面部验证,识别和聚类中实现的目标。即,他们努力嵌入能够从图像 映射到特征空间 的 。使得相同身份的所有面部之间的平方距离(与成像条件无关)很小,而来自不同身份的一对面部图像之间的平方距离很大。
三元组损失的思想也很简单,输入是三张图片(Triplet),分别为:
- 固定影像 A(Anchor Face)
- 反例图像 N(Negative Face )
- 正例图像 P(Positive Face)
A与 P为同一人,与 N 为不同人。
那么 Triplet Loss 的损失即可表示为:
也就是说,我们要让同一个人的图片更加相互接近,而不同人的照片要互相远离。
三重损失将固定影像 A 与正例 P 之间的距离最小化了,这两者具有同样的身份,同时将固定影像 A 与反例 N 之间的距离最大化了。
如下图所示:
这里的问题是,模型可能学习给不同的图片做出相同的编码,这意味着距离会成为 0,不幸的是,这仍然满足三重损失函数。因为这个原因,需要加入了边际 (一个超参数)来避免这种情况的发生。让 与 之间总存在一个差距,这即是我们在上式所看到的 。
def triplet_loss(alpha=0.2):
def _triplet_loss(y_pred, Batch_size):
anchor, positive, negative = y_pred[:int(Batch_size)], y_pred[int(Batch_size):int(2 * Batch_size)], y_pred[int(2 * Batch_size):]
pos_dist = torch.sqrt(torch.sum(torch.pow(anchor - positive, 2), axis=-1)) # anchor和positive的欧几里得距离
neg_dist = torch.sqrt(torch.sum(torch.pow(anchor - negative, 2), axis=-1)) # anchor和negative的欧几里得距离
keep_all = (neg_dist - pos_dist < alpha).cpu().numpy().flatten() # 如果 neg_dist与pos_dist在数值上没有拉开(neg_dist - pos_dist < alpha), 则为1, 否则为0
hard_triplets = np.where(keep_all == 1) # 找出neg_dist与pos_dist在数值上没有拉开的索引
pos_dist = pos_dist[hard_triplets]
neg_dist = neg_dist[hard_triplets]
basic_loss = pos_dist - neg_dist + alpha
loss = torch.sum(basic_loss) / torch.max(torch.tensor(1), torch.tensor(len(hard_triplets[0])))
return loss
return _triplet_loss