|
机器之心报道 1 K$ Z7 E7 i {6 g. a6 A4 y
机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。+ J7 E( v n, p t
在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:
/ Y: |2 v8 M1 v( i" H E3 l6 e3 C* K; R
5 u' `& d* s& zAI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。
6 }/ I2 |. S6 p w9 c( r( o. j- \6 n- u
; c5 c( {0 D! c) \" u
贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。
* I( @+ T& N; J$ q6 s0 K. ~9 }0 v. p: x/ |
* z1 A" ^6 Z* B7 \% k) K( X变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。- `0 r, @, a1 u
: T; G( q L& z) ~
使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。
9 X/ x9 |* Q) V; \' c2 z4 q
) j, A% ^ `! l! B7 W4 P6 r- G从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。
0 R1 b) v ^# k- \5 K7 ~- q! D. ~$ _% J# }0 {
研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705
+ d' _ v- `; f. d9 i! I) c& \" I2 d6 T! `- }6 m. k6 X
更是直接公开了项目的代码:https://github.com/papermsucode/advhat
0 e- P9 C: r% \+ R" K, n! v2 y3 b' ~& g, z/ V
「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。
1 K8 g# g2 E4 m+ a9 L# h- l% \* B& O# \7 t* w3 ?# F
在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。
% D! G# w5 h% B9 d9 i4 D; f, ]& m: b4 A6 |- z( o
研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。
+ K& n" m* | o* F2 N7 T
W0 q x. D% S# N现实 Face ID 也能被攻击2 K: B; j7 Z2 ^! n( D. w
/ D* M" O& A0 }# f: D/ o以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。6 X4 x. ^" {9 w2 C
; i4 ^* A8 ?1 @
5 ]0 m- e" f& p8 g# g( f4 L9 _
一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。
3 s: z* O" K1 c+ A# a
8 H0 \( F j8 D {1 _4 |/ ?9 [对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。1 Z/ u0 b; I4 i
# L! N/ F1 _& q
沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。
; r% V9 S$ C' h/ D& d9 ?( _$ u- F' z; d) \- k
研究者表示他们提出的 AdvHat 有如下特点:0 m% k" M; E+ W/ X0 x4 @ B) N
0 n: @, C D2 `$ V: s% ^0 x$ V
" ~) R7 ^2 o- l* q9 X( D- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;- g* `$ M \& f4 y8 p0 o
- 这种攻击是非常容易实现的,只要有彩印就行;2 K* W( h1 e2 ]
- 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;" I3 ^7 x4 {# p+ {9 @; U/ B
- 这种攻击可以迁移到其它 Face ID 系统上。: n5 \3 d# X: K5 r# o U. ?
) y/ h& r- g* S; ]8 b6 {
3 a; ~0 d" C% \/ {6 p, S% xFace ID 该怎样攻击- O& _- S+ C: r+ U! t
9 Q+ ~: G# p4 i( j; p在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。
$ f( T' \" e% ?2 U8 Z4 k
4 i0 c) _- [7 D. x4 E6 O r3 Y这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。; l) Y/ w0 R* q% t, G
0 J3 e) r3 Z, E8 f/ C5 u G1 i# R
这种攻击大概包含以下流程:1 D6 S9 K& T8 |% o' _ F4 m) H
: x$ @8 W8 G5 j! |
6 m5 Z2 K* S1 @3 k. f- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。
4 v- W" g4 |) n& e! g( n8 M - 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。$ s1 R/ z) H# p2 Q8 H$ E
- 将得到的图像转换为 ArcFace 输入的标准模板。* Z! E4 i8 Q0 ?! ?& E* c( b" Z \
- 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。/ b! T8 ]% H: `
6 c- G0 J k+ ?+ F# U6 |: ^
; N# T: G- o2 n0 z6 G# ^9 f/ S
流程图如下图 2 所示:
% a9 G; c! D( u4 ` {: |" e
- J$ ?, G9 d) J3 G2 ]5 W: r) Q1 ^& i/ n$ J- n
图 2:攻击流程示意图。4 W) a/ D" O+ {6 m2 b
! [# b' o+ p5 n( O B2 C, j
首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。
# y& ]2 M+ u8 x/ {6 {
! J. q7 J/ ^. q9 z2 h2 _/ q8 x" S8 b- M7 i0 f0 B
图 3:步骤 1 转换贴纸的示意图。
+ K& S4 ]2 Z" M2 f
9 w7 H- q+ v$ L( `/ @3 G+ N; `2 W贴纸攻击试验细节
$ K' L9 |) u; e2 o& `' l- x) {% a2 o
如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。$ I2 L/ M' Y% p7 R) }9 {7 B
% T; e2 P8 [* B8 F; l+ `) a注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。" j. u6 g% ^1 t( {! X
2 N. s# I% l+ N* `8 x- c研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。
! Z( O7 I/ p0 j0 z
3 }, x5 e5 ~6 ]9 C4 o7 G$ a% N研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。
9 g, ~" O% p: I1 K5 F' z& N" y1 E7 Y# h, G0 h, `& [- f
他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。
7 I3 m/ y* B' T _$ U. p* p. H" F/ ]
「对抗样本贴」效果怎么样
5 @0 w7 ?( {; k+ A/ e7 Q( h; |; L. c7 U. g+ `! ]1 g; J
研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。! w# T3 ?, o- w' r* V& Y
. n; L ?1 ?2 a9 F7 F3 x为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。& p9 J* O8 J5 Q H! l
3 m9 s9 L0 o8 B& [2 X/ |
下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。
$ \8 O9 s6 `& M2 ?3 l0 }" `& B7 _( y5 v
% z# `1 j+ Q7 _ T9 W0 e. _7 ]' e
图 4:对抗贴纸示例。
& d5 X& U( W4 k& F0 z
5 \! `9 D N W5 `为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:
( n0 M# a4 o% Z+ O7 M$ L. `: b: j: D3 [
5 q, S2 h2 [- L8 C图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。# W! r' b0 L4 e6 b5 U
" [% n* U. b3 o' f; G% l
检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。
& C. H- a* e& w' w) }+ q: `( ?6 K0 Z: F3 ^7 z- c/ F( ~' r! v
5 {) N$ b7 c F# @- l: V/ o
图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。
! m$ d" y7 r, x6 V- T& v
: {/ Q$ f% B9 Z最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。
* y& A1 Q$ E$ j; t( r) z, x O: j' S# G6 g% K+ G) C
# B' K: B3 n6 ?( _8 m' e图 8:不同模型中,基线和最终相似度的差异。
4 Q- G. T( X6 |) T4 ]
2 s9 k& m* }2 a9 ]虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?
@# S" p7 f2 y: ~& X6 _7 N* y& u# n8 _' q. Y, y
本文为机器之心报道,转载请联系本公众号获得授权。
& `: [+ @; E) u9 e; B+ H✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com G a3 h2 ?; j) x, o3 l+ f
来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=1: X3 E; _+ b7 T8 ~& X9 d' ^5 `
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|