|
机器之心报道
( I( h5 ~0 y8 q( |机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。6 U# @0 _8 I2 ]
在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:
" f, t. |% S' D4 x7 c5 U N6 G# f+ H9 @
8 v1 M. n# l! \* F: OAI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。
! F/ {1 A; j7 M, n" u: H8 t: {3 _( \& e& _! L7 v
. g" s3 j2 G9 M& `* W; ~( J贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。8 ^8 N j6 x" M8 o
3 Y6 o* l! \0 R: r0 K
( k6 l; v( T/ K! E& w F& q4 o+ ]变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。
$ o* P2 V U1 K* x9 l1 @4 |" t) Y' `) J+ u9 M, {
使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。
9 ^! n- |7 T* O% [$ q3 \& J j
; d# J* R0 f R从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。7 v; v1 H, h! f
3 ^. {% X6 l7 @- y! s4 F1 p
研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705
0 L7 A$ s6 K$ o d( W, U* t! B2 l2 {. q J" {% e3 Q4 j" D* A
更是直接公开了项目的代码:https://github.com/papermsucode/advhat
( |( |+ F2 N0 A# x3 b
: h$ N' I s! C「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。
, P. p# ]' f" P! Z/ X& E
3 k# R( Z3 V8 Z* e在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。
' R( G+ j$ J) G' _ G% L- F, x( J" R! V* u' Q r& K
研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。
) d7 k: w8 b) ` X) f/ A' S/ m9 I4 Z1 J) i7 S3 Y2 v* ^$ G" j3 J
现实 Face ID 也能被攻击
4 i+ ~+ {8 z: [( j. P+ \3 `
9 ^4 `6 u/ S, K0 [* g以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。
9 q; }4 ?! `* l3 U- r0 A" @8 l* e a# F8 V5 a5 D

- G, M: B: g* M% V. X! U一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。3 p1 G; a V7 a2 E9 D
6 v* J0 W9 s' K
对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。
. p' J1 q* I w" n% |: F3 k
0 k" O" g- [5 G沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。3 J4 @5 H) }1 J) A
6 V$ u, P% w: [8 ]2 j+ t7 c6 B
研究者表示他们提出的 AdvHat 有如下特点:/ f. I0 t' G, A; F' j( i; E
! I4 p$ o" J6 j) b
8 O2 Q5 f" W' @; |+ ^" E- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;# G& ~3 W+ i2 i9 A, i
- 这种攻击是非常容易实现的,只要有彩印就行;! r# T ^) F1 B
- 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;
2 \6 Z& D8 [- L6 Y" R - 这种攻击可以迁移到其它 Face ID 系统上。
1 T) ?) t: o. B 1 m6 k8 Z" V: V! Z; O
- v1 A: e. k* Q, L" S, Z
Face ID 该怎样攻击4 r6 F' M2 u& F3 T7 l
5 H& _7 f$ k4 R4 t
在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。6 {6 s5 O7 J3 P6 W# {$ }7 T
. g: F6 M7 {1 N0 [
这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。* ?8 w- t9 q8 N+ h8 ^6 f
[; T1 }6 b2 E( [
这种攻击大概包含以下流程:
( [; S! B! U. A2 ]3 r
a- w0 C# b9 ~/ {3 Q
2 L0 Y! B/ P8 c* G% N0 n5 U( f9 A- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。
7 Y" U% B+ z1 T8 c3 R2 ^ - 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。- |# D. j4 a, n, G) Q
- 将得到的图像转换为 ArcFace 输入的标准模板。
" o# `/ x' I4 s! o8 _; y* p - 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。8 t' V/ I5 C2 D" k* L
. K- b% H( r# U9 j. o
9 J# L. o4 c! m: C# D
流程图如下图 2 所示:
& ^3 O$ r& l" `8 Z/ ~ t$ M+ U# y- V; Q; b9 ^' K

( ?! s4 [6 @3 ~# _1 q7 u# V图 2:攻击流程示意图。+ F7 C \9 ^) Z, L% w$ c+ p3 K
/ E( J; E$ d) m* I5 Q首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。$ q. l; t! y! F) {8 N
0 r+ V. h0 ~8 P 6 @! _9 [* m8 B) }( Z
图 3:步骤 1 转换贴纸的示意图。- V0 V- T+ y0 D6 |6 s0 B& Q
) c# l2 C8 I7 v
贴纸攻击试验细节4 x* N# T* X9 P# ]( O
" v T) @! [2 Q
如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。8 H9 w/ n' e4 K" I
6 z* d& I: U3 R8 |8 \! I
注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。; k E: h# F( K7 F5 ]
0 h7 z3 x4 }+ ]
研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。
* R, \+ Z6 ^* Y. E8 o: O; C
; r( A% j P- I! }. i5 t) e/ Y研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。
$ q0 H& ~5 R( x& ?2 ?. N8 c6 _( u# m, p5 ~# Z
他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。1 i/ P1 T- l1 |! k& H1 Y
' N' a$ C( v2 S5 x
「对抗样本贴」效果怎么样
: X# v5 V; g* |, u* R5 }
( M' `, x3 r2 A, m研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。
. I. y/ i% a( z2 C4 A" _: z1 n# x
# x) i3 R9 M$ e- N为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。( s* U s* V/ P8 V* `
1 i* {7 I' D I下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。
+ x6 \) ]4 |2 r% Z7 Y' | _! o, Z' s0 u& u, u6 o, R
# b$ t8 o& C9 g& T1 r
图 4:对抗贴纸示例。( D" B* j! Y1 i( D2 n* Z1 M
9 Q b" [/ U( p' [1 t, o) l
为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:' f$ N4 I" ~. N( H* ^: H
2 d0 v4 g: e5 A/ }" [) U5 h
& g9 _; z1 G1 E# y* Q( K# A
图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。
4 ^: `4 r( b" B" }8 n$ T$ S7 y1 Y$ Q: w: O* j% p( a& C% c
检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。6 c6 @+ ?7 |7 j+ v
. @! [; a$ K( P$ K7 @* P

1 F; Q; k7 Q0 E+ o( r- r* i图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。& V" {' q! Q4 l
" {& L& s3 D4 V& c: b/ {5 [最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。
, l$ x D5 A. D ], f. I7 }; m
# N" w, n8 q6 c4 x- { Y3 x8 X7 H8 |! c# @8 J
图 8:不同模型中,基线和最终相似度的差异。- \% Q, D' s/ u* d, M, J
' G/ A8 m" S2 z0 _7 Y
虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?
\1 v8 t- j6 z/ T8 X' j2 A' j: |) t4 P. p! ]4 C7 k
本文为机器之心报道,转载请联系本公众号获得授权。6 L6 V- Z8 @, N, D: x
✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com1 N% N# H* @3 ^# b5 W6 ~0 u( P
来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=1. ~( H& x* g) c' `3 j( ?- n
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|