近日,我协会成员撰写的论文《Fighting Attacks on Large Character Set CAPTCHAs Using Transferable Adversarial Examples》在CCF-C级会议(IJCNN 2023)上发表。第一作者为傅宇成(2020级网安本科生),合作作者为孙国恒(2020级网安本科生)、杨涵(2020级网安本科生),黄骏天(2021级网安本科生),指导老师为王海舟副教授。
作者提出了一种基于对抗样本的大字符集验证码攻击防御方法。作者在文章中采集社交网络平台上现有的大字符集验证码数据并进行人工标注,同时模仿得到的验证码生成新的验证码,从而构建扩充的验证码数据集。通过此数据集建字符检测模型和字符识别模型,字符检测模型包括用于生成针对字符检测模型的噪声的白盒模型,以及用于测试对抗样本的迁移效果的黑盒模型;字符识别模型包括用于生成对抗样本字符以防御字符识别模型的白盒模型,以及用于测试对抗样本的迁移效果的黑盒模型。作者使用Faster-RCNN、YOLO-v5和SSD作为字符检测模型的目标检测架构;使用Faster-RCNN,SSD,以及YOLO-v5作为集成的白盒模型。对于字符识别模型,作者使用Inception-Resnet-v2作为白盒模型,基于字符检测模型和字符识别模型分别在验证码的字符和背景上生成噪声。最后结合梯度攻击、输入变换和注意力机制的对抗样本生成方法,生成针对验证码字符识别模型的对抗样本字符。
实验证明,生成的对抗样本使得多种黑盒的攻击模型对字符的检测和识别成功率均有明显的下降,说明对抗样本验证码具有较好的迁移性。同时,对抗样本验证码还可以一定程度上地抵御攻击者使用过滤器和对抗训练的场景,显示了对抗样本验证码具有较好的鲁棒性。综上所述,基于对抗样本的验证码在抵御验证码攻击的问题上表现优秀。

图1. 大字符集对抗样本验证码生成流程图
会议简介:
IJCNN全名International Joint Conference on Neural Networks,是CCF-C级国际会议;主要研究的主题涉及神经网络理论,分析和应用等方面的内容,是人工智能领域的知名会议。
官方介绍:IJCNN is the premier international conference in the area of neural networks theory, analysis and applications. Topics of interest include but are not restricted to:
» Agent-based Systems
» Artificial Life
» Bioinformatics
» Brain-machine Interfaces
» Cognitive Models
» Collective Intelligence
» Computational Neuroscience
» Connectomics
» Data Mining
» Deep Learning
…
论文链接:https://ieeexplore.ieee.org/document/10191881