|
机器之心报道 5 D/ @3 E* o3 `% ]1 J6 C
机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。
7 n: S1 q' c* R2 Z3 K4 R. B 在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:% x" O4 j3 R% {& B( D4 G
) C4 A) s0 D; l# S, e% n3 f
8 g4 M2 P; N+ [! u" L
AI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。
! n7 Q' K5 a' t, k' u6 [
! N; h+ l8 H" n$ D+ v% c3 o. ~3 G7 J: `% K/ `/ r# }. D) F
贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。
. J j2 }" _* X! o& {1 \$ k9 I- H8 A1 M/ H# D# R
. \. ]0 [5 U! P, O& F
变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。' l! T+ M9 l* H1 \5 [4 y6 g$ o
9 `+ G; j0 A$ z+ L# C/ s* ~0 }) I
使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。
3 [- ]" f/ z/ ]" m- u3 Q
: o1 U5 x$ {0 ~: m- X# A8 ~7 f从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。. L9 Q' x, Q* v0 [; I$ p
' W: [; x9 J1 L/ r9 ?$ Q研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705
5 n7 F& o4 X! {3 A1 ~9 V `
3 t; A7 }) ^3 ]; f: R" o% F1 b3 k6 \更是直接公开了项目的代码:https://github.com/papermsucode/advhat( A1 k9 h7 R2 s1 M+ b8 h9 r
* R6 q2 B7 G& F/ V0 I「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。1 a1 I% t4 l2 p; E/ q
6 Z: ~ x3 c3 g0 N+ A2 {/ `
在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。
5 ]) g. r, i5 l) f l" O5 L3 b7 I' v+ ?) s: l
研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。$ [2 L4 M; M6 Y y5 A( v( H
9 u+ K& `3 q2 B) w; }0 {9 Q现实 Face ID 也能被攻击
( q. j9 p* U6 w1 r6 h
5 m1 i# P$ l8 u: \, X- n" o以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。! L) n+ ~. f1 y
) B0 \9 c7 x0 G% }' p
7 Y% D% o0 ^" [- y8 ^; }$ {一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。* r( D, z/ a# X5 j5 J# n, k2 O
) n& u/ |# X, ?8 K T9 f" P$ p对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。/ O' T! i# Z% V" z- x
2 _* v+ p# P( s: ^沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。; ]0 U& W& H# n% N9 b7 F
9 |0 g2 U( u; G7 ~6 B! k! A
研究者表示他们提出的 AdvHat 有如下特点:
1 ~" R1 i( L% n# e. s7 Z7 w Y/ ]# d4 y/ R9 o) v) C/ I' G7 b" \7 e/ t
$ a* }/ }; C% ~/ w6 w5 k
- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;2 c) X! C9 t3 s5 B% l* h( h
- 这种攻击是非常容易实现的,只要有彩印就行;
) i8 B) Q( `0 r1 \ - 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;! n. j3 y0 t) S9 R1 E- l! S) v
- 这种攻击可以迁移到其它 Face ID 系统上。- m( i: k: k0 K) h
( V3 Q3 q' R+ S) G/ [- T, u$ w! J
Face ID 该怎样攻击
7 ~7 Z- q( [' f$ R& U" G4 |& b
0 z( [! b; Y" Z+ k在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。
8 o; p- J3 y# l. d
# ^, I+ e2 u3 ?4 x5 E6 H3 H这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。8 G( ]$ _* e5 S6 J T$ [# e
3 z# ?+ E- ^* o R4 y这种攻击大概包含以下流程:
% Z! t3 Z4 w1 g9 Y
+ m( S2 F9 X# |0 x$ @+ c& f6 O
- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。
1 O4 c+ @% {3 S - 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。+ n8 {3 t2 f9 V" A3 L
- 将得到的图像转换为 ArcFace 输入的标准模板。8 x8 ^" o8 |! Y
- 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。/ v$ P( ~) q! D' ^' k
9 }' m0 r* L& d. ?* S% e
5 p z2 @; L. D" Q
流程图如下图 2 所示:
8 O6 x: z) I/ O# v5 ?
- u9 `: N- y, n; j7 z s4 u& ]2 g- H+ }+ V' X' m
图 2:攻击流程示意图。! B: M: @; ?8 |. v& C& u4 b' |
9 \6 T* c% ~% q1 g首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。
0 p2 c# r" N* g1 ?7 l- {! L' r+ [0 }& p `5 X9 f/ t+ [* z ?& `3 _) x
" s- t- M' ^: n! k2 e
图 3:步骤 1 转换贴纸的示意图。
4 ?" k- l+ u8 }4 F$ M
+ m9 y1 l% n$ \% B. h( j( R贴纸攻击试验细节
m# R( ~! a7 g) `7 @+ Q6 L
1 v9 N- V5 h' E+ B如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。
* r- f' |9 q7 i6 |& a: b
; z$ E/ h( P' u# E/ {. I, h注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。
+ I; r4 r1 L. S) W: M! `7 p
& }0 D/ G/ L5 \8 ]4 c研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。& R0 Z$ |1 Z% K+ I
4 X% o% I4 P5 W- c3 D5 W1 a+ q
研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。- U. E' N, R( ~# m/ h
- s4 \; f2 M7 i5 Q: j
他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。* M; d) x. Y! S7 Y7 ~9 l$ a
) u) z& _6 O$ x! B1 W「对抗样本贴」效果怎么样" _$ b. L0 [; R
3 t6 x3 A7 s. y" g- R1 T; @研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。
2 ]) U9 Y$ Q/ e" }' y& j- G0 C5 c" e3 q E
为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。
- E' O( O3 k; s J6 V2 m9 L. }) i0 |+ i- `: T) B( H( |" c- j) }
下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。
9 F* d; {2 ~! f% t
! ^) C6 R+ S/ ^, M) [ 1 V$ _, `6 I& j; A3 T) I0 f4 ~9 `
图 4:对抗贴纸示例。
- v" H) D, k5 `& V9 g$ X& r6 y
0 T8 Y. j# J& e% m+ l9 B为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:# q+ Z3 O. w4 V
: Z. A6 ]5 k" r) V, X1 i. w- V
3 E3 m6 s" ]0 E5 i; ~
图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。
/ m2 E7 d7 H! H2 Z p. G$ c0 R% r, e( l5 z: [. u4 R
检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。/ }9 a/ X" W! C# q
# N% Q Q% o( w9 J! @
8 U& Y; {6 n1 A5 m/ Z0 G图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。9 S* G& Q( {$ J1 u, \$ ~( V
9 t. ~+ E! I0 k+ @4 R; F8 s. ?6 T
最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。
# v2 e* G( ^+ w7 E6 P E
6 c/ ^, ^( ]# s' z9 r( p2 u
) j6 ^- M5 a+ F2 W图 8:不同模型中,基线和最终相似度的差异。
8 A& b; X' {7 H" Y. }" j( x6 f. B1 j `
虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?3 g( ` s z5 O1 P- G
2 s: }% P; P9 ^5 F, Z3 _
本文为机器之心报道,转载请联系本公众号获得授权。
) d' v! d7 U2 F7 J8 D/ Q, H/ Q✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com! h$ s6 H' i# V* p" c% s
来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=1
" G# p0 h0 G9 L7 Y2 r! \2 h4 E3 x免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|