|
|
|
机器之心报道
1 [ }+ y* b0 [" ]- p机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。
2 e8 g, }- J6 ?0 f 在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:+ Y' s$ A/ _' t. {7 E# b0 N
( X% z2 P) ^! _! Z) q8 a: A8 u' ?1 F; N' D5 ^
AI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。9 F( t/ C4 p" g6 y: h4 W4 o
- S& f+ y4 \% j* {5 n- k' X
4 K4 S; ^2 A1 U# K, r- g贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。& d$ @' T! a* q/ \ D% F7 U! B! d) {
% s4 y6 q2 T! @7 y7 T9 h, \- {! r+ X$ m8 y( r2 \0 W
变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。+ E0 }# L6 [3 W9 z7 e8 y) w
9 s, \# I" T" ~* A' Q& v# ?8 r: d使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。
C/ n7 z8 f' {, l
5 i: ~$ R# R" v从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。
' n5 G+ }. N5 |! Y* V, o4 |0 t
研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705
$ c. Q/ _7 O4 b1 s
6 {! N0 C7 r* d5 d+ ~: U' _; A更是直接公开了项目的代码:https://github.com/papermsucode/advhat0 k5 v: U- x$ I
( k/ P- z* v4 U5 ?! s「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。) G3 Q7 B+ {3 o4 S' {' Q1 ?8 f' B
7 N5 K* ]# e C& T5 U在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。
' s, O' p# a4 f% i; s1 @& C' R1 h6 X8 m. t
研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。5 V1 b1 r* N1 U/ u; p
5 T& i2 F. y* M! }5 Y/ q现实 Face ID 也能被攻击
' p/ L" k5 X3 ]. d$ t. H R. e+ J1 W$ g+ o u; Z# F; f
以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。
; F7 S2 J: K/ e
0 j( |1 z. J9 A- g 2 g; {, o1 Q- Z/ E
一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。' ~6 v) l% X; S! y# ?
0 P1 A0 V. T2 x
对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。0 T6 @# [/ Q) h8 S4 L' u# F
( H8 t6 m) c2 d0 s/ u/ C
沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。
0 j0 f% Z- _ D* X
q5 |8 W# z5 K# |# o1 R研究者表示他们提出的 AdvHat 有如下特点:
3 S. x d. R- R; n( H4 D
# S+ `3 i! A9 p) O% p# J7 b
7 g [' O5 X9 z$ X/ I/ | B* _- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;
$ B. G% N# V! j, L* ~ - 这种攻击是非常容易实现的,只要有彩印就行;
4 L" m- ]( t$ Q4 k: T - 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;
: M" B m& d' Y2 e3 [ W - 这种攻击可以迁移到其它 Face ID 系统上。2 }8 q# e6 H, M6 X% v
z- Z2 U: g. n4 ~7 N' a4 a
7 q8 h8 L5 M0 f* u5 WFace ID 该怎样攻击
E% F0 B$ _6 n. a% K
+ ?3 r. y4 q, M在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。) P0 g7 a5 u* G1 {
9 f9 h( w3 l I这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。8 p( q- m: T3 @5 F+ Z7 l# V6 \
- O s0 y0 `8 B& Y
这种攻击大概包含以下流程:1 I/ u0 j9 q% m9 ^
0 z1 x1 L' C; [
) ^. ^6 x2 J1 M( l- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。# R6 [) Z. S/ b+ m
- 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。$ c h3 u5 Y' J" C
- 将得到的图像转换为 ArcFace 输入的标准模板。
, l/ F! @2 w1 E6 J - 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。
* Q6 \% a6 X2 l8 M% j3 ]; t 8 @, H( v. G" }( K3 O+ g
5 [" t' p J) Y" U流程图如下图 2 所示:" x9 X) [& e. [: B' k
* e3 a: I( |) y% F7 Z
; \* W' X# k2 I: m图 2:攻击流程示意图。* c9 d& r- \: u7 ?# }. p
5 r; v4 h D# O6 {0 M9 D9 }首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。
' s! f- f* l$ i- \: f5 U
( \+ F5 s' n+ L b1 }/ W# V 7 `: x( r' V0 G0 G: ]5 a
图 3:步骤 1 转换贴纸的示意图。
4 z" z3 ?: g9 W h- U4 c f
: R* b9 Q1 b' F5 p8 e2 G$ v贴纸攻击试验细节
x6 [1 g+ ? C% q9 ~
' i( Q; w ]/ Z8 |: B u如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。; I, D5 V! W0 ^; d& X' _
: @+ p" x" l; ?) O注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。
! K% V3 E0 A M
" T0 L1 [! i* A+ k1 Y) j研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。
7 ^. o) D" w( |( q
* m0 R, u) l. Q. b" `7 I" w5 o研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。
% p. m% z3 `! J2 A( x# v3 x8 @- q9 W0 f& J4 N* m
他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。
8 U! r# i! P$ e/ _
; w4 q; C7 U! B6 U8 q「对抗样本贴」效果怎么样! Y& Z& F+ p# d1 O3 r
1 @% G9 {( s9 @/ M* l. N
研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。
' p+ C; P. K' r9 t. q6 F: u7 p, P& c( v( i0 m4 A0 w
为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。
$ y* m/ R) y5 L5 `, d( r( n& O; n& U2 [1 t# ]. W
下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。1 c) p _; J! z! R; @
( j& e5 |4 k1 o# d8 }1 M & O5 B3 K( R& d$ d
图 4:对抗贴纸示例。
* h' _( M# C' F8 V* i. d1 M; ~# m5 Q# l! ^$ q2 C9 n. J. s
为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示: s9 p9 B. R6 M/ k( N3 s
5 J5 o6 k$ X8 g

5 l# m) J3 y3 X2 ^6 t; G图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。
# A2 ]- D* Z' N% h' A; g; i/ D6 s/ B6 f. ]) |: n
检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。4 x e3 z: P3 h+ p+ a
9 j5 Q) z2 `3 v! d h0 Y/ X9 B# U7 Z1 F \
图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。3 U! F3 A8 i( X1 r' |$ |; K4 P
) a% s' R3 c( m+ C# W最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。
, P% m3 U- Q8 i& s5 R
3 B$ n; G8 I! ?: D+ m4 F; i
/ [0 x" y: T7 |' a- E图 8:不同模型中,基线和最终相似度的差异。1 {7 A7 t# p* b
! {' d( Z- _( y+ l# C: q" f
虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?8 j/ C. Q1 h: f
( H- f0 d: K! \$ L* t) Z( \- P本文为机器之心报道,转载请联系本公众号获得授权。/ Y1 E9 w- |5 h b0 C
✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com
7 B3 U8 ~ |) J- f来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=1
3 _9 f2 i4 n7 g' \. R" [1 ~免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|