|
|
|
机器之心报道 0 t' C/ w- s' `0 s* q q! |9 u
机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。
1 w) Q- i7 T5 n2 i 在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:
' @1 A* E4 j$ r Q% T6 e- o4 g9 `! J4 d- ^( _
( c; _7 ~! `9 \$ B
AI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。6 l4 G; r5 n3 z6 c: D
2 {! w. J+ d0 {' W+ D
) E6 U( t! o T$ b贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。
! C# D* p1 u5 b6 ]$ H/ x
+ v& K8 J5 n m. z: a/ ^5 S& U: ?3 h' F( ?$ k! H# N
变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。
) L* U) v: p# c# r0 x$ Y" c- F0 T. D2 h/ V6 \& U
使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。( W+ f4 d; |5 K$ Y' ]. U9 b2 |+ u
u, m' G4 y A6 b/ X# j从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。
) P* [1 h* m2 b' |% K: Q) X$ [. r; ?5 I3 n x
研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705: ~( V0 |8 `& M* f- g" S$ h4 F9 I
1 r" N8 |! q- w. j; C3 ~
更是直接公开了项目的代码:https://github.com/papermsucode/advhat
+ ^" c$ e4 s% ~# V: w# _0 j; h H* S4 ]% ~6 z( l
「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。
@5 c. o! d! p* ^: G
; g# h# z1 a: g) {3 Y) V+ h- j在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。; \* `3 B! C8 d) Z+ Z
1 d# c5 G* L, p9 P6 `
研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。) G! P$ ]- P' `5 N$ L$ w% h9 J( |
* h: `: l& C7 R& n8 r0 u! p现实 Face ID 也能被攻击7 k t, ^8 L* c4 J8 Y
- n4 @7 X6 j+ J; |7 o) h
以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。
, a4 R" w; E1 U( Q, W% G. s/ Q) j" l. O! D3 |

8 Z0 x0 d' [/ h H) N. h一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。
+ P$ @- ?5 _; l7 c* S% o# l
) w& u2 [0 r( o5 E对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。5 g4 a& K* }' }2 `4 U
& i! Y/ y" [9 h* x/ i
沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。
2 w% R1 n# C6 Y: g
" y4 q8 I" Z& a5 T. r& V研究者表示他们提出的 AdvHat 有如下特点:
1 X; c! _# e2 g
7 ~" r& p. s/ _2 Q" b
+ ?9 ]/ x, j: f: v# [- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;; `( _3 _/ _5 K* B# Q* Y
- 这种攻击是非常容易实现的,只要有彩印就行;
1 F- @; t/ M$ e9 D6 X; [ - 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;
: y7 O$ s- V; F- U5 `% k7 f - 这种攻击可以迁移到其它 Face ID 系统上。0 M8 I/ D" `& d2 P. P1 v' b# v
. ?; f6 y9 k7 ]" I+ N
g5 y. F( ]0 m1 y- |& QFace ID 该怎样攻击/ [! [1 d7 B5 V e9 l" G
1 f6 Y+ S6 v; g: E5 T1 e& d
在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。- k, }- ]9 H% k* \9 _( P* H5 e
! D- ]4 E$ j3 Y0 k
这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。
4 R; d3 `$ N/ g) o; m3 s. `7 S9 s7 q& ?$ b w$ `4 O" k+ L, A
这种攻击大概包含以下流程:. P1 @7 s7 P$ o9 g' G+ H
- R; f' L" B, Q' B
M0 E" V/ r& F. V- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。4 E: l7 P! k- |$ ?- \1 K/ V. V
- 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。 h( A; C/ J% g
- 将得到的图像转换为 ArcFace 输入的标准模板。; b/ M" i; D9 Z' J5 y
- 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。* c N: r6 l8 s0 T5 Y7 y
. J( ~) X. X9 h2 h3 L1 ^: Q
7 L; O, M7 ]3 B4 S9 a流程图如下图 2 所示:
/ p% f+ G8 O( n; `+ s# M& w1 ~' R9 W
8 y9 `) }0 i: G4 ?6 G' H2 b" \6 H " B9 h( z! W$ j* C- k+ ?
图 2:攻击流程示意图。0 [" Y3 M) L+ V! T/ w3 ?
) H' {2 z% D; P# o, v) u D$ {: k( Z9 {首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。
* K; d4 y. E( s; _9 L5 K
+ q( o0 y' h& E$ i
) [4 F& ]; t3 D8 k3 I3 g4 s图 3:步骤 1 转换贴纸的示意图。
+ s$ E) ~4 v( [7 V
% z9 R" v4 q, Q贴纸攻击试验细节
# e; [5 Q) x( {; S
% W+ M3 R! D8 O5 f+ w7 Z9 A如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。6 w: {' D \1 D: p2 Q* o) |. z
6 k0 u4 e4 U! a3 j. T4 H+ E+ k注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。, B2 M4 `, C! t; M* x# t* l+ M7 u
4 b% Z0 H$ C0 F3 a" Z6 L6 n0 C研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。
7 W/ m4 g, \: I# C+ v" I2 N. ^- m; t5 v2 ]! Z+ s$ [+ @
研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。: q1 `. O# R* w, S+ M
3 i, v/ W) @& V4 S" m* ^3 @
他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。
. j( t- V& j& b" u; O7 C- s( O- }* J, o
「对抗样本贴」效果怎么样, j0 P+ m3 V2 p2 E
4 H. s* z# U% M0 a' L
研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。
' N( p% M- U% ~0 o
# E% s5 k) i s# [' l0 c, V6 L为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。
& b% s8 j( P0 Q
- T, N: y& Y: C' y下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。
- C& ?4 u' D0 ?" i( v6 @. I) M- r/ H$ f) b
# @% z1 }2 Y) \3 k
图 4:对抗贴纸示例。$ H6 W" h. B, W' K# v: F
& c7 `; k) i" T }- g为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:
1 i/ d$ i7 v' n5 `4 F& B
v; W/ g5 s F/ L0 H
7 v! d9 {8 u* {1 |2 y图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。
+ r$ x5 z0 z5 Z& Z! f2 R, W7 T; x# q1 i
检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。; ^& w' H/ F8 M _
8 _4 |/ f3 I2 Z( P5 t: J/ k: R / x2 |7 f1 v6 S& b/ }% N) u
图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。9 f8 ~7 v3 r4 V4 h0 L8 f
6 [' z- n8 z* V; q" }. n
最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。) C+ |4 @, l- z
" F/ @, k2 l# `/ ~2 r- e8 A
0 x4 n/ J1 W/ q
图 8:不同模型中,基线和最终相似度的差异。
7 e# H, Q4 E# e. F0 W0 Z- @* u: X# l- W4 c
虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?! q) F- u T7 V a
1 E& g% _) ^, a' }9 h; {* k本文为机器之心报道,转载请联系本公众号获得授权。! `$ y$ D8 x/ e6 a' \. l
✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com
$ \! d+ g, K) g' W( n来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=1
8 L: G* F" W% G8 I" b) d+ t/ e免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|