|
机器之心报道
" b4 h: l$ }/ d+ z) J机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。
2 q+ v: m w# W* p5 o 在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:$ i/ i! d7 B- F% S; l( g7 x3 J
1 R! R3 [7 {! ^
) _" @9 t m- Q# ^+ C2 g1 f7 h3 y# R
AI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。
) w% R7 [- X0 E) W7 S6 P5 {0 [
7 Z! \, |0 }& i1 y( t. K, {
贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。6 J- F0 W8 l. k. Z* b7 d
3 e$ W3 H& G; a5 z) t! X3 @2 F; F" {- Z }! j
变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。" Z0 L A4 D# V9 r
& n) m( c( y, ~5 V使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。1 ?( y1 N. d) S3 A6 W% X
& `% k9 |) Z7 O% t从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。
8 {, ^$ { j+ X, Q) S. Q: z
8 d( e9 ^7 h- {; f! y2 h研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705' |4 u, V% A0 }+ r
0 H/ u* K" B! Y. R- b9 a: O1 ^
更是直接公开了项目的代码:https://github.com/papermsucode/advhat @6 x9 e3 z) ]; r) a
! G+ C0 V/ b/ l* u
「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。
+ r, T- v3 t8 B! c! \' O: b5 _5 K7 Z, K* u$ n
在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。
' e. f+ S/ M* }; a3 d. \) {* N$ V/ r; Y9 t |+ O2 G
研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。8 h; h y M7 b; \
( B) F+ i3 n5 [, f
现实 Face ID 也能被攻击3 S: S3 n- m ~0 p0 x1 b
/ h4 b6 s9 Q) Z. O
以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。
- ?6 K# F+ G* W
. c! |& z* ?% C3 d" p ' T$ ~: s% m/ }. t% Q$ a
一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。: N K6 G. I3 Q( N" Z
|7 P% v9 ]4 K: @, b) _( n9 J
对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。
' j3 {. E( g; A- e% K" w+ I2 x s1 g( [# X$ J
沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。
& `) w! B3 C- E7 y
+ ?3 C$ D4 n) [研究者表示他们提出的 AdvHat 有如下特点:
. B9 A, c9 ^/ q2 K( Z
; g$ U5 I1 N( B: z; Q2 F5 P3 _+ A; F% b/ ]4 m) a* N3 F! Y
- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;
# n* |6 U% l/ D7 b4 p. m - 这种攻击是非常容易实现的,只要有彩印就行;
$ N2 ^0 w4 B7 F2 ]9 j - 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等; t Q' W7 L. d! y
- 这种攻击可以迁移到其它 Face ID 系统上。
, _0 s/ S8 O0 h" A 0 P4 k$ `* v8 P% x7 j# I, }( b: A
# ]0 m* H$ V2 ~# y" T: dFace ID 该怎样攻击) p6 D5 S9 u, }" ^% S3 K
! H2 h7 h( ]8 L' U$ ]) `( {
在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。
% l2 U$ }7 M5 a/ F) E
* x7 @. N, a% |0 C+ G( M/ S这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。3 f/ Y+ O/ M5 S0 P/ i3 p! o1 d
; U3 M C3 G* {& b/ q8 z; f这种攻击大概包含以下流程:
3 |/ K" H- c8 A0 q' K8 ~7 p* G9 `1 V/ B- G
8 e, N5 y" e5 r8 m/ C) N# B+ \
- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。
. s) H0 P- C7 L3 h0 f, d7 T' | - 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。" {, U" ?- n( X* I7 O
- 将得到的图像转换为 ArcFace 输入的标准模板。* p( a0 o* O; `. c R, z
- 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。
4 S# p( G7 F( Y# a( \1 L
1 d6 n5 @# w% G% H# y
( Z0 S6 M" @- y E' |流程图如下图 2 所示:
* L$ |8 S! B. `0 D
$ u& A$ }9 w+ ~, ` 4 I- h0 q" P- A. M [
图 2:攻击流程示意图。6 r6 l- m2 ^! s+ ?' G& \9 ?
! H, z3 ?4 n U首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。
5 E/ Q. v2 r) m! r
! b7 ~+ {4 g# Y$ M . {* J k* i8 S" l: m+ _
图 3:步骤 1 转换贴纸的示意图。
4 M4 T* |6 h2 o9 u- \8 q
2 l& {' V# {7 N3 o* A H贴纸攻击试验细节
5 E9 @4 J, q, A. H/ S! {
2 p$ {* l6 f9 E+ U1 _如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。5 I! @8 t- M! N: P% F7 ?
: H3 B5 _ k e
注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。
, l* Z0 I5 c; l! |' K6 f2 Z+ K" Q$ }$ L2 Z
研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。
/ Y- C2 c8 M% B- @! g
# v/ X+ o$ a+ \研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。
! l$ ^, z2 W- w8 Z; j8 x! n9 n+ U# P# Q+ k2 ~) n
他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。
4 ], O' m; u4 I
8 ]2 s# g4 D8 o6 K% _「对抗样本贴」效果怎么样3 Q/ G+ ^- N' P2 j2 O
! _ ]! z( u/ ]6 ~& C- j a# _9 ]研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。
3 R3 O+ Q% M' _/ X
3 O1 L1 k# C, o: ~为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。" \% A. L8 S3 Q, E# S
# _: j! h7 B* o# G) b
下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。- ~( X0 P! u+ O
8 e/ r5 ~$ Y( p+ _2 j# x1 \) n + z* b" c6 m9 p* |1 w1 j
图 4:对抗贴纸示例。- G6 U( \4 g4 y
6 l0 J* x5 {* E) j
为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:
& x& y, P) g! k* Y: K5 y6 [5 m% |3 X7 H, l6 Y" B# X0 B3 \4 P: `" @
! _- e$ J# o$ {$ i* I8 B" ]$ e# a
图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。" B( k6 n }# h C. B
$ E8 `9 J- Z9 Z/ z' V检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。
( e, [ X, S# W% ]; k# L/ ]. f2 A( g0 E% f5 f6 A' q

9 \6 Z0 T9 y, I* `. y图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。4 Q$ `0 G. K/ i; F1 k( q' ?
' a0 N5 q( b' n
最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。2 p: X: J" b2 t4 X
# N4 ~! I S, t5 A8 T( c
; B' U" D0 K# [# L图 8:不同模型中,基线和最终相似度的差异。
0 _& v( W( P# ~& j% y; M+ n6 O7 ^$ u( ~% c p
虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?
) [8 w5 |/ i8 x- j: b' t' f+ ^, _0 Q$ v8 T
本文为机器之心报道,转载请联系本公众号获得授权。/ N$ [. }% W7 k+ E8 Z% t- L A
✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com
9 f5 e& V7 A8 [1 ?0 @+ v6 H来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=1
( a- J3 J4 ^, U( D; l6 D免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|