|
机器之心报道
) t! W7 i5 X" l0 t机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。" f* u( \" F% X4 h( F) K: j0 e
在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:
: s* F$ H: k4 q
5 V- g. m, k! ]( N" D! r/ p1 j: a m Y* u; A2 W2 u& O: k
AI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。
' M% M, O% D6 j7 H! }. Q: t# c w$ V, W: m ]5 t' `
8 e1 ?+ w% m: s- ?- |
贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。) [/ q2 E( j1 }3 B& m, N m
$ n7 d2 z( @$ n5 l
' ]+ }/ w" e) ?8 G, l变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。
$ l7 ]7 U1 m" `! m% }1 z
# g" o: N1 z' x2 a3 v! y/ Y使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。
: u2 s" b( e. u' K. _7 c' M" a2 b9 A1 j$ h% [2 L5 g' N, ^$ ~/ D
从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。, T! V$ j- W. o9 t( }0 ^
0 ]& O' w- W7 z. P G
研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705
) o& f% m" Z8 f. ^! R
B/ a( X& V2 v5 `更是直接公开了项目的代码:https://github.com/papermsucode/advhat
; ^3 a+ w( x7 U9 ^
( ?, b0 Q0 F/ o& \0 I「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。5 n3 ^ `% } d5 N9 l. D7 y8 S
2 e- _$ s! {, P9 c+ i7 i在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。
; ~+ M8 V6 w9 X8 l' M) _* s8 ]5 b4 u1 R1 D+ V
研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。7 G+ \' r% }" V* H [( a/ o! c
4 _; x& I j& N0 D
现实 Face ID 也能被攻击
) Q5 x8 V9 Q) `1 S: b: m4 t5 {. Z ]) T( k: Q' J
以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。; u! {% `0 R. @+ k# g
/ l! @" r4 V3 }: g' z& }6 L; [ * ?4 i1 ]4 T: I# m/ Q
一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。
7 C/ {5 H. m( r: Y8 ]5 c& C; | s1 t* V2 h; c# C
对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。/ k+ p( U m" a O
) P' L7 Y% Z! {" X2 x& y沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。
* E+ ^) S2 ]" N2 s k$ p
7 I2 V$ P, _7 d3 b研究者表示他们提出的 AdvHat 有如下特点:9 A/ w4 d9 A: l( Q
5 }6 v8 h/ w2 [! t b+ ?
6 q6 I& }, d+ `- O6 M
- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;" K# ^ h8 u1 F9 P5 n8 E
- 这种攻击是非常容易实现的,只要有彩印就行;! B, D' E) ~: b
- 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;- K( w, w6 P; H) u# S/ P
- 这种攻击可以迁移到其它 Face ID 系统上。
* H0 K! ^" u% M5 b& G3 y. j! k4 t
4 y# U- m4 y( b6 d$ j9 I7 J1 m# G6 [0 Z1 S
Face ID 该怎样攻击- E/ N+ p" A. w4 \
8 F0 n/ Q* ^/ |' c g _3 V
在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。
, p! ^# N4 q X) _* H- z: g% f) N) D6 n- i0 L' s% O1 h! C' y- A5 U
这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。
* p$ P- I: _6 a6 r, n b' E, h5 [$ y
: X: H' D* }, Y+ R! x9 x这种攻击大概包含以下流程:
" h5 T: n3 G& [" u; B$ ~( P4 t8 p+ l
( x0 g6 q6 w" |/ c" D& [5 l+ B: |$ I
- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。
& v j) E9 M1 w) K" H. `; B - 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。$ p0 u. E, i u! [2 g: W
- 将得到的图像转换为 ArcFace 输入的标准模板。5 C* N) J) ]) t
- 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。
* r+ Y1 T2 z$ C2 ~; ? 6 c% {' g# G Q; B2 ^6 l
& B5 _7 M3 }$ w6 p+ L( F$ _
流程图如下图 2 所示:
( B6 T' d9 P: \9 h+ c- P: W$ s) L

. g* |1 y% R2 N2 O9 o m# [8 G图 2:攻击流程示意图。
) @+ d, |0 ~1 ]# k. I9 X5 r; G
# k4 |: \8 P" @# ]0 c' x# r首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。6 V. S4 `; w+ Z2 W
# z; y" H1 V* v8 N 1 g$ {8 _0 ^6 E& w+ m! W- D9 o
图 3:步骤 1 转换贴纸的示意图。# |. `, ^5 @( O' q- G
/ v" ^7 q; \/ L, x8 c5 H
贴纸攻击试验细节7 B! P( b7 R5 o7 n- i( b- r
4 l6 c, C- n: M( l! J9 W; d如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。+ m3 I0 V9 @3 [6 {9 Z/ |
9 ^, I' V6 q+ s/ V0 |7 F; B注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。, ~6 @. b4 Q" j$ N0 K1 H5 S% ~
: P" G% l) R& a& H% r6 t研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。
9 E- P. ^% h# C1 d- \! h% \$ H9 ~/ a: N- o6 l/ V. S6 J# A; S
研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。( X7 D% z( B8 q5 ^
" M& H+ }# U% P& k* {, Q他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。
9 |* ^; `( h% b6 O: o- i4 t; y* m) P& w
「对抗样本贴」效果怎么样
( M% x( d( A) v& `- A5 Y% P7 Z3 q+ q9 I9 Z5 s7 ?) l( V
研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。
: w2 C! I# H6 o% h2 L" q3 u4 w
9 s/ m5 a. f9 x6 K+ M; J! z为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。- \! l& a3 Z* T8 ~1 b0 ?
" Q% z) _7 _0 @7 l& c% Z
下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。) J/ P8 t7 w' e h0 A& \8 T
& y0 P _8 y1 T4 |8 Q, j8 K
& l$ H3 Y" {; b2 b
图 4:对抗贴纸示例。
' Q1 u5 `2 @9 s, U* T9 s- c
: a5 m7 J. v s) n为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:
, ?0 |7 d# a; J
" ^9 y( A7 Z5 f; ^% e " ]& F/ `0 L( @: o
图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。
% h( n0 c- q9 B: y$ h! s
8 ^5 x& Q8 E& O3 \1 m6 J/ u* O检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。
' O" y# P0 y, p y3 a; j# F. H/ x3 Q# b1 l. t

' b2 V& _4 a# c7 y' C \+ \图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。
8 c9 ?8 P' E. \! A! A ~ u& T7 o+ ^
" s7 L o; N5 ~- \2 ~$ l+ m最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。1 c. d0 Z8 Z& w& K" T5 S
$ v6 g5 r& Q% X+ F 2 W# ? o- B8 S$ D
图 8:不同模型中,基线和最终相似度的差异。
( n' Y8 C t$ v1 ?( P( i1 v5 P1 t8 C- s) q% M+ _
虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?
* Z5 B8 d2 {1 Z; t. Z( e0 P7 C0 O/ L, U- Z- C$ |
本文为机器之心报道,转载请联系本公众号获得授权。. z: H" d& A o* D2 {" a& K6 t
✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com
- V2 e0 X- h7 u' `) s) |8 d7 h来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=1
, X- h: y1 @) u" `$ `& `( H免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|