GRUAUNet:集成多机制的领域自适应方法,在无接触式指纹反欺骗中展现强鲁棒性并超越现有方案 !

向量数据库大模型数据库

点击下方卡片,关注「AI视界引擎」公众号

( 添加时备注:方向+学校/公司+昵称/姓名 )

picture.image

picture.image

尽管无接触式指纹提供了用户便利,但其更容易受到欺骗攻击。目前,无接触式指纹领域中的反欺骗解决方案依赖于领域自适应学习,这限制了其泛化能力和可扩展性。

为解决这些局限性,作者提出了GRUAUNet,这是一种领域自适应方法,它集成了基于Swin Transformer的UNet架构、GRU增强的注意力机制、 Bottleneck 中的动态滤波网络以及结合了Focal和对比损失的函数。

GRUAUNet在真实和欺骗指纹图像上均进行训练,展现出对呈现攻击的强鲁棒性,在CLARKSON、COLFISPOOF和IIITD数据集上实现了平均BPCER为0.09%和APCER为1.2%,优于当前最先进的领域自适应方法。

unsetunset1. 引言unsetunset

生物识别系统在多个领域得到了广泛应用,包括但不限于执法和法医、单一身份识别、医疗保健以及为智能手机和平板电脑提供访问控制。这些应用提升了作者日常活动的便利性。由于卫生相关问题的存在,无接触式生物识别解决方案的需求正在迅速增长。指纹和面部生物识别被公认为生物识别领域的主要模态,在全局范围内被执法机构和国家身份计划广泛实施[1]。据预测,生物识别系统市场到2027年的价值将达到829亿美元[2]。尽管面部认证非常受欢迎,但在疫情期间遇到了挑战,特别是在使用面部遮盖物方面[3],这阻碍了其高检测率的实现[4, 5, 6]。无接触式指纹识别在各种应用中具有巨大潜力,提供了一种无接触、卫生的生物识别认证解决方案。无接触式指纹识别是生物识别领域的一项尖端技术进步,无需传统的生物扫描传感器[7, 8, 9, 10, 11]。它完全依赖于智能手机摄像头镜头来捕捉和记录指尖信息。与接触式指纹相比,它被认为更加无缝和便捷,并且具有更高的用户接受度。

尽管无接触式指纹技术提供了便捷且广泛接受的用户体验,但它也存在各种缺点。这些缺点包括生物识别性能较低、易受环境影响以及易受呈现攻击的威胁[12]。呈现攻击可能损害生物识别认证系统的安全性和可靠性,可能导致未经授权的访问或身份盗窃[13]。因此,开发一种有效的无接触式指纹反制措施对于检测和预防任何未知的呈现攻击至关重要。使用智能手机捕获基于照片的指纹图像的无接触式指纹系统,由于使用单一类型的相机和计算能力有限(图1显示了为本研究制作的指纹欺骗图像),更容易受到欺骗攻击。尽管针对接触式指纹识别及其易受呈现攻击的漏洞已进行了深入研究,但人们对无接触式指纹呈现攻击的研究关注有限。近年来,仅探索了少数使用手工特征和深度学习特征来识别各种无接触式指纹呈现攻击的方法。深度学习模型已广泛应用于生物识别和其他领域,以提高特征提取和分类能力[14]。然而,尽管无接触式指纹呈现攻击(PAD)取得了显著进展,但仍存在一些局限性,包括:

数据分布差异:现有的无接触指纹识别(PAD)方法假设训练和测试场景之间的数据分布相似。然而,这一假设导致PAD方法在面对真实场景时泛化能力有限,尤其是在面对未见过的攻击时。

多种类型的呈现攻击:无接触指纹呈现攻击可以有多种形式,包括印刷攻击、LaTeX、Ecoflex等。因此,为每个新的应用场景生成并创建一个涵盖所有可能的呈现攻击的 Token 训练集是不切实际的。

作者的工作提出了一种基于Swin-UNet架构的无监督学习方法,该方法结合了注意力机制,用于非接触式指纹防伪。所yinqing-GRU-AUNet_2504在多个数据集上的综合实验验证中,展示了改进的泛化能力、可扩展性以及对抗多样化呈现攻击的鲁棒性。作者的研究通过增强非接触式指纹识别系统的安全性和可靠性,为生物识别安全领域做出了重要贡献。作者的主要贡献包括:

开发一种新型无监督学习方法用于非接触式指纹防伪:作者提出了一种新方法,该方法结合了SwinUNet架构和Swin Transformer主干网络,用于检测非接触式指纹识别系统中的呈现攻击。这种方法是无监督的,意味着它仅使用真实指纹图像进行训练,在训练过程中无需 Token 的伪造样本。

样本。这种无监督学习策略增强了模型泛化到未见过的呈现攻击的能力,并且更好地扩展到新的应用场景。

综合评估:所yinqing-GRU-AUNet_2504在包含多种呈现攻击的数据集上进行了评估,展示了其鲁棒性和泛化能力。与最先进方法的比较以及报告的性能指标(APCER、BPCER和HTER)表明,所yinqing-GRU-AUNet_2504是有效的。

对各种呈现攻击的鲁棒性:yinqing-GRU-AUNet_2504在多种呈现攻击下进行了评估,包括来自CLARKSON、COLFISPOOF和IIITD Spoofed Fingerphoto数据库的攻击。这些数据库涵盖了广泛的欺骗技术,如印刷攻击、ecoflex、playdoh、明胶等。yinqing-GRU-AUNet_2504检测这些各种攻击的能力展示了其鲁棒性和有效性。

注意力机制与 Shortcut 的集成:作者通过用一种新的注意力路径替换 Shortcut ,修改了Swin-UNet架构。该注意力路径结合了通道注意力和空间注意力,以帮助模型专注于用于准确分类的最相关特征。注意力机制与 Shortcut 的集成增强了模型捕获判别特征的能力,并提高了其整体性能。

全面评估与比较:作者进行了广泛的实验来评估yinqing-GRU-AUNet_2504的性能,并将其与最先进的方法进行了比较。结果表明,作者的基于Swin-UNet的方法在多个数据集上的APCER、BPCER和HTER指标方面具有优越性。这项全面评估验证了作者无监督学习方法在非接触式指纹防伪方面的有效性。

对生物识别安全领域的贡献:作者的工作针对无接触式指纹识别系统中的一个关键挑战,该系统因其便利性和卫生优势而日益普及。通过开发一种能够检测各种呈现攻击的有效防欺骗解决方案,作者的研究有助于提升无接触式指纹认证系统的安全性和可靠性,从而推动生物识别安全领域的发展。

提升泛化能力和可扩展性:通过仅使用真实指纹图像训练模型,yinqing-GRU-AUNet_2504解决了现有依赖于真实和伪造混合训练数据的方法的局限性

unsetunset2. 相关工作unsetunset

作者在表1中总结了无接触指纹技术的先前工作。Fujio等人[15]是早期研究使用深度神经网络进行无接触指纹防欺骗的先驱,实现了令人印象深刻的半错误率为0.04%。Marasco等人[16]在IIITD Spoofed Finger Photo数据库上使用了卷积神经网络(CNN)架构,包括ResNet和AlexNet,AlexNet实现了2.14%的检测等错误率(D-EER),ResNet实现了0.96%的D-EER。他们后来对其 Baseline 方法进行了轻微改进[17]。

然而,值得注意的是,ResNet模型在真实图像和欺骗图像上都进行了训练,这可能限制了其在真实场景中的代表性及其可扩展性。2022年,他们引入了一种增强PAD系统对彩色纸张打印攻击的抵抗能力的方法[18],采用带有ResNet-50主干的U-Net进行图像分割。这项工作取得了令人印象深刻的APCER为0.1%,BPCER为2.67%。Kolberg等人[12]引入了COLFISPOOF数据集,专门用于非接触指纹呈现攻击检测(PAD)任务,包含7200个样本,涵盖72种不同的欺骗攻击类型,使用两种不同的智能手机设备捕获。Purnapatra等人[19]使用DenseNet121和NasNetMobile模型以及一个新公开的数据库,在训练中结合了真实和欺骗数据,实现了0.14%的APCER和0.18%的BPCER。Hailin Li等人[20]展示了使用各种模型进行呈现攻击检测(PAD)的有效性,包括AlexNet、DenseNet-201、MobileNet-V2、NASNet、ResNet50和视觉Transformer。其中,视觉Transformer实现了最佳的APCER和BPCER。他们的研究包含超过5886个真实样本和4247个欺骗样本,考虑了四种不同的训练情况,用于测试不同类型的欺骗。值得注意的是,ResNet50模型实现了8.6%的等错误率(EER)。然而,尽管在训练期间表现出良好的性能,但这些最近的模型在新伪造图像上的泛化能力有限,导致在这些场景中的性能不佳。Puranpatra等人[21]组织了一场指纹活体检测竞赛,其中获胜方案实现了各种APCER值,如纸张打印为9.20%,生态弹性、面团和乳胶为0%,木胶为0.1%,合成指尖在BPCER=0.62%时为99.9%。

picture.image

unsetunset3. 提出方法unsetunset

所yinqing-GRU-AUNet_2504引入了GRU-AUNet,这是一种专为非接触式指纹防伪设计的先进架构。该架构集成了Swin Transformer V2[26]主干网络,并结合了基于GRU的注意力机制增强的编码器-解码器结构,以及在 Bottleneck 处引入的新型动态滤波网络(DFN),如图2所示。这种组合使模型能够有效学习和区分真实与伪造指纹特征,提高其对广泛呈现攻击(PAs)的泛化能力和鲁棒性。

picture.image

3.1. Swin Transformer

Swin Transformer V2作为特征提取的主干,为输入指纹图像提供分层处理[27]。该模型将每幅图像划分为不重叠的块,并将这些块嵌入到高维特征向量中。这些向量经过连续的多层自注意力机制和块合并操作,从而捕捉数据内部复杂的空间依赖关系和层次特征。自注意力机制基于一个缩放余弦相似度函数:

其中

表示 Query 向量

和键

向量之间的投影,

是用于归一化的缩放因子。项

考虑了像素

之间的相对位置偏差,

是一个可学习的标量,用于调节注意力分布。

3.2. Bottleneck中的动态滤波网络

作者架构的核心创新在于 Bottleneck 处集成了动态滤波网络(DFN)。DFN根据输入特征特性动态调整其滤波操作,使模型能够捕捉到区分真实和伪造指纹的关键复杂模式[28]。DFN通过两个并行分支工作:空间滤波分支和通道滤波分支。

空间滤波分支应用

卷积,随后进行滤波器归一化,专注于局部空间特征。另一方面,通道滤波分支采用全局平均池化(GAP),随后通过全连接(FC)层和ReLU激活生成通道特定滤波器。两个分支的输出随后结合,生成精细化的特征图,该特征图进一步进行归一化。动态滤波操作可以表述为:

其中

表示输入特征图,

代表可学习的滤波器权重,

表示基于输入

动态生成的滤波器系数。这种适应性增强了模型根据每个输入的具体特征定制其特征提取过程的能力,如图2-e所示。

3.3. 带有GRU增强机制的注意力路径

GRU-AUNet中的注意力路径取代了标准UNet架构中传统的 Shortcut 。这种新颖的路径集成了通道级和空间注意力机制,使模型能够动态调整其关注网络中最重要的特征[29]。基于GRU的注意力机制通过利用循环连接来保持网络不同层级间的时序一致性,从而进一步优化这一过程,提高了分类精度,尤其是在区分真实和伪造指纹方面。

3.4. 注意力分类器

GRU-AUNet的最终分类层旨在高效区分真实指纹和伪造指纹。该层由卷积层和注意力模块组成,每个注意力模块均通过基于GRU的注意力细化进行增强。注意力模块采用Convolutional Block Attention Modules(CBAM)[30]并进行修改以整合GRU功能。GRU细化过程可表示为:

其中

是更新门,

是重置门,

是新门,

是更新后的隐藏状态。可学习的权重矩阵

控制GRU的运算,而Sigmoid(

)和双曲正切(tanh)激活函数确保了注意力精炼过程中的非线性和稳定性。

unsetunset4. 实验设置unsetunset

4.1. 损失函数与优化

为训练模型,作者使用包含真实和伪造指纹图像的 Token 数据集。模型的参数通过结合Adam优化器[31]和学习率调度器进行优化。

作者将Focal Loss [32] 和 Contrastive Loss [33] 结合起来,以增强模型学习区分真实和伪造指纹的判别性特征的能力。组合的Focal Contrastive Loss定义为:

,其中

表示Focal Loss,

表示Contrastive Loss,

是一个平衡两个损失分量贡献的超参数。Focal Loss 解决类别不平衡问题,并强调困难样本 [32]:

此处,

表示第

个样本的真实二元标签(0 表示真实,1 表示伪造),

表示第

个样本被伪造的预测概率,

是样本总数。参数

是超参数,分别用于调整正例与负例的重要性,以及聚焦于难以分类的样本。

对比损失旨在促进可区分特征的学习[33]:

在这个公式中,

是一个二元标签,表示第

对是否相似(

)或不相似(

)。

表示第

对特征嵌入之间的欧几里得距离,而

是一个边缘超参数,用于确定不相似对之间的最小距离。对比损失鼓励模型学习一个嵌入空间,其中真实的指纹聚类在一起,而伪造的指纹则明显分离。

结合Focal Loss和Contrastive Loss能够增强模型在非接触式指纹防伪方面的处理能力。Focal Loss通过聚焦于困难样本来解决类别不平衡问题,而Contrastive Loss则通过提升真实指纹和伪造指纹之间的特征区分度来发挥作用。两者协同作用,提高了在检测呈现攻击时的分类准确性和鲁棒性。

4.2. 数据库

作者使用了三个公开数据集:CLARKSON [19]、COLFISPOOF [12] 和 IIITD Spoofed Fingerphoto Database [34]、[22]。这些数据集涵盖了广泛的欺骗技术和材料,为yinqing-GRU-AUNet_2504提供了全面的评估。每个数据集都包含真实和欺骗指纹的 Token 样本,便于进行领域自适应训练和评估。

4.3. 评估指标

模型的性能通过真实呈现分类错误率(BPCER)、攻击呈现分类错误率(APCER)和平均分类错误率(ACER)进行评估。这些指标连同接收者操作特征(ROC)曲线一起用于评估模型区分真实数据和欺骗数据的能力。

4.4. 结果

作者对训练好的GRU-AUNet模型在CLARKSON、COLFISPOOF和IIITD Spoofed Fingerphoto数据库数据集上的性能进行了评估,这些数据集包含活体和伪造指纹样本。该模型使用这些数据集中的 Token 数据进行了训练,包括真实样本和各种伪造样本,以有效学习用于准确分类的区分特征。

4.5. 跨数据集验证

为进一步评估yinqing-GRU-AUNet_2504的泛化能力,作者进行了跨数据集验证。在CLARKSON数据集上训练的GRU-AUNet模型在COLFISPOOF和IIITD数据集上进行了测试,在COLFISPOOF数据集上实现了APCER为0.4%和BPCER为0.11%。类似地,当在IlTD数据集上训练并在CLARKSON数据集上测试时,模型实现了APCER为0.3%和BPCER为0.12%,这表明模型在不同数据集上具有稳健的泛化能力。

4.6. K折交叉验证

为进一步确保yinqing-GRU-AUNet_2504性能的可靠性和稳定性,作者对每个数据集应用了5折交叉验证。GRU-AUNet模型在所有折中均表现出色,平均Apcer为1.3%,Bpcer为0.08%。这种验证技术突显了模型的鲁棒性,表明即使在不同数据集子集上进行训练和测试,模型仍能保持高精度。

unsetunset5. 结论unsetunset

在本工作中,作者提出了GRU-AUNet,一种用于非接触式指纹活体检测的先进领域自适应框架。yinqing-GRU-AUNet_2504集成了基于Swin Transformer的UNet架构、GRU增强的注意力机制以及 Bottleneck 处的动态滤波网络(DFN)。该架构结合Focal和对比损失函数,有效提升了模型在多个数据集上对活体攻击的泛化能力和鲁棒性。在CLARKSON、COLFISPOOF和IITD Spoofed Fingerphoto数据库上的综合评估表明,GRU-AUNet显著优于现有最先进方法。

yinqing-GRU-AUNet_2504在CLARKSON数据集上实现了APCER为1.2%、BPCER为0.09%,优于先前方法如DenseNet-121和NASNetMobile,后者分别报告了88.03%和82.15%的APCER。在COLFISPOOF和IIITD数据集上也观察到类似的优越性能,yinqing-GRU-AUNet_2504在检测多种活体攻击仪器(PAIs)时保持了高精度。此外,跨数据集验证结果证实了模型的强泛化能力,当在IIITD上训练并在CLARKSON上测试时,APCER低至0.3%。

unsetunset参考unsetunset

[1]. GRU-AUNET: A DOMAIN ADAPTATION FRAMEWORK FOR CONTACTLESS FINGERPRINT PRESENTATION ATTACK DETECTION

点击上方卡片,关注「AI视界引擎」公众号

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
火山引擎大规模机器学习平台架构设计与应用实践
围绕数据加速、模型分布式训练框架建设、大规模异构集群调度、模型开发过程标准化等AI工程化实践,全面分享如何以开发者的极致体验为核心,进行机器学习平台的设计与实现。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论