|
|
|
机器之心报道 6 H& s0 T0 x8 [
机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。& @( c$ b+ A" N: ?% P% e {
在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:/ y/ g' P! T K2 b( P# |3 ?
$ t' V, n9 |2 \' u- w; a* r$ G4 L t; P* Y" V
AI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。4 i' X. W5 L- [3 p, A. ~
$ D- P4 w, f6 o ]5 K
/ r/ e. h& {/ N& S1 n贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。
" J0 F6 t# d0 y4 O$ |3 ]5 r7 \4 W4 \5 t" ]/ Q
1 f- ~9 U. X! ?7 \变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。
0 ?- [$ q+ o+ b e5 w7 c" ~
' q5 ~6 d2 t r) B3 l; j# g" U使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。1 I/ y$ r, L, w2 g% c; w M
( {& {+ t4 N8 V$ j
从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。
& l% M# p0 c0 g. w
+ i# B8 z& S+ O# l+ Z研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705: A$ e6 j7 y8 Q6 e6 L
) q$ h7 h3 m3 e# T8 M3 C+ t6 g
更是直接公开了项目的代码:https://github.com/papermsucode/advhat( Y, \+ ]0 V! c8 L! J* |
$ M1 q \2 V' F/ ^8 u/ l「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。8 d: V& h" Z2 F6 I3 y6 z7 U
5 u* v/ G- D! d& v$ N% Y
在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。2 q$ H1 @1 s3 n* D, c3 J
8 ?6 Z! E3 B" J U% {
研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。
' z$ i% k. g! F( f! B
0 ?( R/ n, \* h) k现实 Face ID 也能被攻击
- Y9 A l7 U w: ]5 [; `9 R4 ^5 A" u. r8 v2 S
以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。# p4 Y; m1 Q }2 t3 @+ _
+ j W5 g: n ^; e) o : f* `: z3 s! Z( r ?% M% k
一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。
9 H+ {) V0 H6 D3 E. t& ?' {8 k4 h- b
) t/ D2 }( e) J" w& V8 ?对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。- L" S& \3 a3 a: p4 Y; _
- T6 H) ?. g) ]1 }- ^9 n沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。
0 c5 |' s6 N! E! [+ R" w. b, N2 n. E% q/ Q$ I6 C g
研究者表示他们提出的 AdvHat 有如下特点:
; W; M% G1 E7 l0 I( m$ o, U4 C [9 I3 |" j6 K* C
$ E5 K8 N& A' H2 G2 @- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;! Z* m; |, m5 v8 _/ Q- W9 z) v
- 这种攻击是非常容易实现的,只要有彩印就行;
+ y. ~8 Q/ {! Y* q+ D0 g) d - 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;, r8 b. e" ?" m2 E5 x8 N! Y) T
- 这种攻击可以迁移到其它 Face ID 系统上。
9 K9 n* ]6 _ x- K0 p* _
. n$ J F. n% V# D3 g# {
9 L" r0 x( J3 m* H( J5 d) RFace ID 该怎样攻击6 a5 p* E ?" Y% N
; ~# G- I# o+ A" M+ E( S# m在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。
4 d" u- l1 S* p* K; }" u9 Q/ L. D. Y" J
这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。
5 N# p6 Z# m8 j# l. j* ]/ i/ [3 Y. ` R
这种攻击大概包含以下流程:7 {: V" j3 o9 g+ A% B& Y
8 {3 P4 J4 s( B3 R) R9 k$ j
. {0 ?, `: S# E# i) H- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。
3 \0 S5 B/ H* d - 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。; d. O# ]2 K- \% t& k5 ^1 {) v J
- 将得到的图像转换为 ArcFace 输入的标准模板。& r3 \$ h; ], q! C
- 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。. t% u) Z. r/ ~% K( M, r
4 z( x7 V! p: Q3 | I# C
" s( x$ `1 s0 x# r1 `' p
流程图如下图 2 所示:* P8 z# x+ b! d E
$ A. D! f% g* n; T) P
" i# L& y9 l. t4 W图 2:攻击流程示意图。2 W4 V* y* S. [- M& r+ ^' n2 }
( b. p4 l! B" w) V1 Z$ i: G
首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。% W: i3 c; u! _
; K: D+ P& ?) A" Q" K
3 q) A9 k9 k4 R D6 @8 D图 3:步骤 1 转换贴纸的示意图。
6 j! ?/ ] d+ q& N7 [8 W: a
3 ?# I, E& r6 Y3 \. _贴纸攻击试验细节
# O8 @6 T" Q5 \, W; _) z
3 ^7 ~, h% Y, e: W9 V4 _7 ]5 t+ A如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。7 h; F9 P% \+ M& ^
& W9 T( @2 \/ y' ^/ W9 O注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。
3 G. S' p5 m: O# I% Q% Z1 p" F' ]' R: e6 M( \
研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。, `# q K1 {1 c% l. u
; G" g4 @/ a' t' Z研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。& w8 T8 k" w, O/ l4 S* }" _& P
; L. }! s) B9 G% s
他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。
" @7 V/ _& M. a g- u" u
* W; C5 y* Y- _8 d8 u, v# s0 N& t. F+ ^「对抗样本贴」效果怎么样4 [- \' T& |( a4 W2 {
( @2 V$ h: ~, ], {% B& t
研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。" l0 v5 K$ f! r
" d" j' C/ D, T. t7 |# J+ k
为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。! [- r* t- }9 E% N* {5 o. E- I( J
- r) s: e, r1 X4 L" K
下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。# n0 C# e( F3 g7 q0 ]6 V
& n! U6 Q9 o; n) Z2 A/ {1 p
- A6 c, t* r( W& Z+ [- g/ j3 @; p图 4:对抗贴纸示例。
# u3 E# U' e) |! g" J. v* b
+ }; t) V+ E" d% G0 H为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:
3 O8 m/ K5 L, g, W5 `- n. q8 ?7 H+ x
, A. \. l5 c5 G, ^% p- n
图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。7 }0 h' y; x/ k6 P" k% D' t
- }1 X" s' e' m" Q7 {: i
检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。: ]/ g; o. ]: W( v/ H
. x, ^* S% E+ M: f Y/ D! h
0 E3 r, s( x7 H* K图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。
6 U! ?2 q) w: s5 o1 R, O9 ? v
+ n w' e* {; U最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。
T! ?. F/ J$ w8 o. p5 p( W
6 L& b; ?) }2 P
' q" a! ^7 l5 p% y图 8:不同模型中,基线和最终相似度的差异。
: K: S% u$ J* ?9 r( w
) p& S% l) [! J1 d+ G' R虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?/ N( E7 @5 Q" d5 f$ L8 d' k/ h
8 z* I F8 G9 y7 _% O; j/ w4 ]5 H
本文为机器之心报道,转载请联系本公众号获得授权。
+ r9 F1 {/ T2 m$ g" _✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com
) ~8 T* i" B- P& x' r+ f来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=15 [& f* [* i) w: f7 w
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|