
联系人
李经理

电话
0531-88581615

手机
13864088976

185437481

邮箱
185437481@qq.com

地址
山东省济南市历城区大桥路西侧零点物流以北济南电子商务物流园2-312号
您当前的位置: 山东三辊闸厂家首页 > 新闻资讯 > 人脸识别合集 | 8 SphereFace解析
2019-04-06 18:38:57
SphereFace(超球)由佐治亚理工学院的刘伟阳等人在CVPR2017.04中发表,提出将Softmax损耗从欧几里德距离转换为角度区间,增加决策余量m,极限||W||=1,b=0。用于人脸识别的球面:深度超球面嵌入的
的主要思想是开放集人脸识别:测试图像不出现在训练集中,这是一个测量学习问题,学习大区间的区别特征。 a-软最大损失(angular soft max loss):使有线电视新闻网能够学习角度识别特征,并引入角度间隔m,使得人脸特征类别之间的距离小于类别之间的距离,学习到的特征将更有辨别力。 L-Softmax损耗、A-Softmax损耗、CosFace、ArcFace、COCO损耗、角三联体损耗等。全角度边缘学习系列预处理(人脸对齐):人脸关键点由多点神经网络检测,通过相似度变换得到修剪后的对齐人脸。 训练(人脸分类器):美国有线电视新闻网(CNN A-Softmax Loss),美国有线电视新闻网(CNN)使用ResNet中的残差单元测试:从人脸分类器FC1层的输出中提取表情特征SphereFace,拼接原始人脸特征及其水平翻转特征,得到被测人脸的最终表情;为两个输入特征计算余弦距离,以获得角度度量 人脸验证:用阈值确定余弦距离 人脸识别:最近邻分类器 LFW为99.42%,YTF为95.0%。CASIA-WebFace用于训练集 2017年,MegaFace的识别率为
球面法学习和推理
预处理(人脸对齐):人脸关键点由MTCNN检测,裁剪后的人脸通过相似变换获得。 RGB图像中的每个像素([0,255])通过减去127.5然后除以128来归一化 培训:美国有线电视新闻网(CNN A-Softmax LossCNN)框架与传统方法相同,因此可以兼容任何高级网络框架(如VGG/谷歌网/雷斯网等)。)。这里,使用ResNet中的剩余元素。例如,表2使用具有不同深度(4、10、20、36、64)的有线电视新闻网来评估角度软最大损耗的使用,使得学习特性更有辨别力,使得m=4 测试:从FC1层输出中提取深度特征面 在所有实验中,通过连接测试人脸图像的原始人脸特征和水平翻转特征来获得测试人脸图像的最终表示。 计算两个特征的余弦相似度,以获得角度度量 人脸验证:使用阈值来判断上述计算的余弦距离 人脸识别:最近邻分类器
开放集人脸识别)
/h/]一般来说,人脸识别可以分为人脸识别和人脸验证 前者将一个人的脸分类成一个特定的标志,而后者确定一对照片是否属于同一个人。 开放集是可能出现在训练集中的测试图像。近景意味着测试图像没有出现在训练集中。 开放集人脸识别比封闭集人脸识别需要更强的泛化能力 过度拟合会降低性能 封闭集人脸识别:相当于分类问题,学习可分离特征就足够了,在人脸验证或识别过程中提取标签。 所有测试标记都是在训练集中预先定义的。 测试面部图像自然地被分类为给定的身份 在这种情况下,人脸验证相当于分别识别一对人脸图像。 开放集人脸识别:测试集通常与训练集分离,因为不可能在一个训练集中汇总所有人脸图像,我们需要将人脸映射到可识别的局部特征空 在这种情况下,人脸识别被认为是在输入的人脸图片和数据库中的每个身份之间执行人脸验证 这是一个测量学习问题。关键是要学习有区别的大范围特征。在人脸验证或识别中,应该比较特征之间的距离。 开放集FR的特征要求标准:在特定的度量空内,要求类之间的距离小于类之间的距离
度量学习
度量学习:旨在学习相似的(距离)函数 传统的度量学习通常学习距离度量矩阵a,给定特征x1、x2上的距离度量是:最近流行的深度度量学习通常使用神经网络来自动学习可区分的特征x1、x2,然后简单地执行距离度量,例如欧几里德距离 深度度量学习中最广泛使用的损失函数是对比度损失和三元组损失,这两种损失都将欧几里德距离强加给特征
其他算法的度量学习分析
深度脸(DeepFace),深度脸(DeepID):通过SoftMax Loss来学习面部特征,但只有可分性,没有明显的区别。 DeepID2:将最大软损耗和收缩速度结合起来,增强特征的区分能力。 然而,它们产生不同的特征分布。softmax损耗将产生角度特征分布。对比度损失是欧几里德空之间的特征分布,因此特征组合可能不是自然选择。 FaceNet:使用三元组丢失监控嵌入式学习 然而,它需要大量的数据(2亿张人脸图像),计算成本非常高。 对比损失和三重损失不能仅限于单个样品,因此需要精心设计的双重/三重开采工艺,这既耗时又对性能敏感。 VGGFace:首先训练有线电视新闻网软最大损耗,然后用三重损耗来测量学习。 一种用于深度人脸识别的判别特征学习方法。eccv2016: Softmax损耗和Center损耗相结合,增强了特征的区分能力,但中心损耗只起到缩小类间距离的作用,而没有增加类间距离的作用。 l-软最大损失(作者和A-软最大损失是同一群人)也隐含了角度的概念。 使用改进的软最大损耗的角度距离度量学习 作为一种正则化方法,它在闭集分类方面取得了很大进展。 a-软最大损耗只是在大余量软最大损耗上增加两个限制||W||=1和b=0,因此预测只取决于W和x之间的角度 面向人脸识别的动态神经网络有两个主要的研究方向:分类学习(softmax loss)和度量学习(triplet loss)等。) 设计损耗、三重损耗等。所有人都把开放集人脸识别视为度量学习问题,对比度损失和三元组损失是基于欧氏距离的度量学习
软最大损失学习角度分布特征
软最大损失可以自然地学习角度分布特征,例如训练集中不同类别的特征和测试集中仅角度分离的特征,因此不会自然地导致包含任何欧几里德损失 从某种意义上说,基于欧几里德距离的损失与软最大损失是不相容的,所以把这两种损失结合起来不是很好。 在学习特征时增加欧几里德距离似乎是一个被广泛接受的选择,但是问题出现了:欧几里德距离总是适合学习有区别的面部特征吗?不合适,本文建议使用角距离代替。 为什么使用角度分离?首先,角度间隔与流形上的差异直接相关。歧管上的差异基本上与前一个相同,并且表面也位于歧管上。 其次,从原始Softmax损耗获得的特征具有固有的角度分布,将角度分离与Softmax损耗相结合实际上是更自然的选择。 首先,它们仅将欧几里德距离强加于所学习的特征,而我们的直接考虑角度间隔。 第二,当训练集形成成对/三元组集时,对比损失和三元组损失都受到数据扩展的影响,而我们的训练集不需要样本挖掘,并且对整个小批量施加可区分性约束(相反,对比损失和三元组损失只影响几个代表性的成对/三元组集) softmaxloss的
进化(二进制分类示例)
(1)原始Softmax Loss
Softmax计算两个类的概率为:x是学习的特征向量,Wi和bi是对应于最后一个完全连接层的第一类的权重和偏移 Softmax失去的决策边界是(也就是说,仅分隔两个类的边界,如p1=p2): p1是必需的
下一篇:智能摆闸系统作用
李经理
0531-88581615
13864088976
185437481
185437481@qq.com
山东省济南市历城区大桥路西侧零点物流以北济南电子商务物流园2-312号