|
机器之心报道 0 o6 ~; u* n; r( \( K) ?; ]
机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。8 W3 p' ? }9 W4 V+ O1 |
在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:
/ K/ c0 C2 a5 l7 L C8 y- a( ]3 l4 G9 I) {
+ U; u! q: a; v& i4 J
AI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。
5 h- ]. c: w I* P0 I4 d, v: E; x8 p7 W1 U
6 r3 K" O7 _$ d$ T# i, O
贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。
* t6 d( ]& m6 ]8 r! }
6 r4 z0 a) j& Y/ y4 g# g
) k7 p6 m$ q6 U+ L. C变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。
5 j' f, J& z9 @# l% j& o" ~* y7 U% t( P0 B! D8 {4 e
使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。* a `3 r6 r$ w' C" i
7 l7 ~/ W% Z" A% t从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。( T. q% }# B0 C- C$ S/ p8 ]- \
' z: Z3 J" v* C6 O/ E- w
研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705
8 p+ { b0 L" A' i; x1 o, u, m; Z$ }0 q6 w
更是直接公开了项目的代码:https://github.com/papermsucode/advhat% c% J( f1 U! G# h; J! [7 o
* g* \$ p3 q7 a「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。* `0 @6 |7 X1 P. @2 M; T
% v, E2 |4 V, \( f/ W
在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。
" d9 j# Z! r9 D* G$ c" }6 \
" T& e* o- U# k/ c4 \! m研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。
9 s. b9 c2 D: b3 A1 l+ |5 Y M2 R+ l% @" K
现实 Face ID 也能被攻击
( v e$ N% @3 p8 ~- [ u3 E
) g( a2 @! x( }7 {; d8 j以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。
5 T' O0 A% _1 |/ R2 ?, A4 u/ g' u' W( e, e2 e7 o; E8 s
% P" s9 q1 |: M, Z. [
一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。
/ V6 @, k" |0 I% q& M$ Y0 ]7 ?) F. _0 b3 @6 ?
对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。- x( g" Q2 j# U4 [" g+ H+ |
3 X' g$ A8 a! B" U- U* W
沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。
7 r7 \9 ~3 }$ Z- ^2 i+ k$ {- V" K: R1 I* [ J; a
研究者表示他们提出的 AdvHat 有如下特点:
' Y& }# W0 `8 ]3 e# ?
, J9 k7 H! V' A3 C5 \) s: T7 U% N. \* H h! `+ i: a
- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;
* ~; j$ o3 B4 |- d, K! Y0 b - 这种攻击是非常容易实现的,只要有彩印就行;
- U* t2 ^% l. C" p" z - 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;
( `( H, x0 v5 N" o3 d - 这种攻击可以迁移到其它 Face ID 系统上。# y0 Y, r0 t" O0 ]
. ]% s$ ?& ~; Y0 {5 z
' m, G) d& q9 x4 N1 d8 o2 G: n* [Face ID 该怎样攻击
2 E( z6 i& V' k3 W$ c: i
! Z; H: W- X- C6 A) I- p( C( K$ R在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。2 f+ g" `; T: f2 q( @* _
7 ]3 r3 I6 A: J G
这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。9 t4 _; H9 v. c+ ]" ^) Z: d/ c* o; z
) a, ~ M8 ^0 I3 H& x' O
这种攻击大概包含以下流程:1 F! _" T+ [% S J7 j; W
& w3 d5 a) F) Q @7 N |
) y; s& A' W) w; W% U! D- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。
% Y3 ~! j5 U M$ b: z0 z4 W - 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。
4 |* d7 h( U! J' z' }( u# G, [ - 将得到的图像转换为 ArcFace 输入的标准模板。% D" j+ A+ O" t+ f
- 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。
8 G$ D: }. r6 n) m* e( M , A7 Z* h) c7 @ f
7 y0 c$ m$ I' J& ?* d y& Z& T流程图如下图 2 所示:
' r' q5 j; y4 I* G2 }$ c0 V' x% \4 u
( H8 M' G! L% u1 s4 A
图 2:攻击流程示意图。6 y+ C% _; @7 ?9 {* Y% B
h+ {7 U/ E) f4 S0 F/ @' j' W+ ?
首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。+ f. G+ w: V7 f5 y! D1 Y
9 y+ b5 b" V. ~( Y3 b& u

: E7 E- E5 b& J) ]图 3:步骤 1 转换贴纸的示意图。. d0 r- T ^# E8 [; ]/ P
6 Z3 k+ e: ?7 d5 H, _贴纸攻击试验细节: l2 K9 \0 d* b/ s8 O
! k+ P& y' |, _# f
如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。
1 f- G n& a5 Y! x( ^$ G, F* h2 \
) p! q- |8 y) W$ b6 N: d注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。
$ ~0 u& S9 L; B7 t- n+ ] s
; ~; |' c7 g. a5 g, _; k研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。0 U6 v& ?1 D* s- m0 B
1 X/ b1 Y# }4 H6 h0 E' n* \
研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。. W8 |) x8 W; ? S
) j0 h7 p" [% m( g7 m他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。6 z9 o* M3 h6 ^4 u, G# ]
* ]# t# |3 L: I& v3 d& W9 ?% ?- K
「对抗样本贴」效果怎么样+ \7 l( x3 d6 A, c7 r
$ B- t/ _2 g/ @* h/ a* I
研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。
4 g- f6 ~8 U0 W) b5 U" S# L4 P+ W+ Q
为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。% o K7 z" D9 D& c4 Z
3 b: }* E. j9 Y3 a下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。8 j4 c7 M$ \/ J+ w5 N1 {+ w. @
% p3 R$ ^2 Q3 v* C6 p

2 T0 v0 C y* B图 4:对抗贴纸示例。
# r' a3 k4 F' ]# W8 Y% b
+ I3 n r- P+ k p3 \为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:6 E0 |( U, _! |
J0 Y* ~& H, G5 v; i6 u
0 l: K7 [! u3 X5 h3 i8 \图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。: }4 N# a* g, `* @; R6 a9 P) |4 i: r
^! S( b: w* I+ e
检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。! K( C; J* H5 Y
; T! T( ^# {$ L+ V' x
6 M: P! R2 D5 j8 ?7 h* k Q8 {6 ^图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。% p9 J) @( I7 @6 u! P9 C7 B
3 i5 J1 X. Y) ]' q6 J2 O& `& Y
最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。2 h. _3 P& E4 l$ L
7 R% N$ J5 E4 j( {2 `/ y

- y& I6 y0 |6 ]- x0 T9 i; L l/ w9 z图 8:不同模型中,基线和最终相似度的差异。' z5 L( ^: S* n, K! @. }" j' I
9 v7 t9 E- x7 }& o& ?0 k虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?
1 ?( r% c! h6 b5 Y! N8 F' i0 _ e1 W+ Y0 e8 w
本文为机器之心报道,转载请联系本公众号获得授权。' f2 F+ N5 `/ \- `
✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com
7 K7 b" }" L& {来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=1
* Y b- `- M5 B* P免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|