|
|
|
机器之心报道 ; B. q1 B/ M7 u
机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。) l4 h: w% O" Y( P
在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:1 i4 I7 ^: a9 s W
+ J3 Q' U- l% ^
5 v* t7 i% G# f, v3 X, dAI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。! ?4 l$ z: z$ \ @
3 r( J- I+ f; i& _* M0 p
" ~: G) l3 t. s6 D/ ~$ D6 f/ e( h贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。! F5 U4 i+ d) i
5 |+ g$ D5 E; {% t$ J! Z+ J
0 q' K4 |' W8 K' I变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。/ O4 n$ F) C( p& W [- D5 Q
" ]9 c- X7 E5 C0 g使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。+ b/ ^ N1 j: q/ }9 G. w
4 S% D5 q2 t% H' P: @6 c5 S1 r
从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。* g0 c" q' r! n
Q/ I2 w+ p7 V/ I8 a6 o2 q v& q研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705
z. y+ N2 M& e' k
, i3 n# S- U/ z更是直接公开了项目的代码:https://github.com/papermsucode/advhat
& f9 z( H/ X9 ^$ I4 n6 |1 C' C% S" }/ ?4 o V2 s6 M
「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。
9 ~/ m8 Q: `0 Y: |" L6 N! v! B7 y
/ I) C1 D7 H5 y0 ]( {+ ?) w在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。
# L1 [5 @. Y! n6 f9 A2 k) Z& W0 ^/ F/ c/ z
研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。
C' o" ?8 p7 `/ h8 b9 Z# K: j0 F2 \4 A5 R8 H& v
现实 Face ID 也能被攻击- \1 t# [* e8 \
& e+ \# b2 c8 G) B
以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。# {- B( S1 ~$ b( X: @5 o9 G# U
/ d0 R* }9 U1 V5 a" Z; n

5 i: T; l- j0 [$ t, u8 j) ^一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。6 c9 S B5 w, `8 x1 `0 U: h
. @9 Q& j3 I+ w+ V
对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。
0 Y# W/ H+ a7 k$ e m3 W/ m+ V4 Y* ^8 {
沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。
9 E Z8 m0 q" G; T
. u" O: j W4 _3 j$ b研究者表示他们提出的 AdvHat 有如下特点:7 J- J3 x1 u& u+ V
1 t _0 U( s8 J1 W2 |4 O9 Y6 C( T" }. G8 B
- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;. L0 L. X8 Y. W( a/ ~0 M6 c e
- 这种攻击是非常容易实现的,只要有彩印就行;+ i7 X% z* y8 T' x) e+ g
- 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;
0 }% q) q% M, Q$ {, H/ Z - 这种攻击可以迁移到其它 Face ID 系统上。; P" m& F/ D. T6 [9 l
i8 ^$ [2 W" [4 E* M
! }2 g$ }! r6 D& Q& N; p tFace ID 该怎样攻击/ k8 ?2 p' e# o% a
9 ?: m _# l* r7 m) ]2 s在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。9 |1 r" M% C' s% c. g
: X/ [- q7 S7 R, `3 b. M
这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。
( D) H' k- w! C, W3 Z
% k" m: P, X- L. [这种攻击大概包含以下流程:
/ @! k' R" F" R% `0 |0 G Y0 V1 o+ { ?& M2 S
- w! J4 {& O7 O9 x2 P/ Z1 t- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。$ D9 C( T8 ?& [9 E6 ~6 Q
- 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。
8 T* ~8 N3 ~0 ^, n4 K - 将得到的图像转换为 ArcFace 输入的标准模板。
- h5 D+ c1 m/ |. E/ l - 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。: {5 [' P/ L/ `3 d
( y; w) r% u5 W7 v0 N! K3 q' r) q; [1 t
& {9 ^5 {0 o$ }+ |
流程图如下图 2 所示:; w, _* t8 n8 h4 A* H$ X" [4 [* O
* f9 H/ j- Y$ k: J4 w% k. S9 T
) p/ Z, @9 e% K+ C* V图 2:攻击流程示意图。
$ P4 A- |/ \+ @# q8 o' i! e, U4 \
首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。
: S- K1 f/ X9 D! r' W5 R: I$ |6 l" U; Z4 K, z$ C ~. T
; v# s" c9 r7 j: q4 |9 f1 W! K8 _
图 3:步骤 1 转换贴纸的示意图。
, q4 M8 Y; H5 E( t
* I4 M, g. x, f7 Q, B, r( X贴纸攻击试验细节. M+ n- a1 }" X# J5 ~
& \: R3 e0 W' |0 ]
如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。8 [7 i) m, q9 _. X* X7 L- {( B
5 `% ~) i: _6 E; i) v8 \8 r$ Y注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。0 T2 m: j# H8 }$ T5 ?6 {
5 d5 ^# `. s4 e+ S4 F2 [% d# ]" u研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。( r Q) d; v# f& {5 c
' z* r( I) ]% j9 h5 z# z: z7 Y' [- e
研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。9 R) c8 C) R# S' I$ j
4 y ~, t3 X& m7 W8 c4 A
他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。
& k5 |. h- n5 ~
; L- t( b1 Q: h7 [0 g7 ?「对抗样本贴」效果怎么样, S+ [3 l( C' j0 c! U% B( G
r/ G( c& F: d8 i7 ]研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。6 G4 V9 O3 Z- n% i. Y/ G
6 {0 B+ M* @# W* j8 n5 _1 l0 G为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。
# t$ u. L! u8 N' q: `
( Q& W$ {, k8 ~* F( ^$ ^& X$ `7 E下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。* @5 }" W: U+ e
* x: L# Q! Z8 k2 a3 F/ \

. l2 ^" [+ E" h' \# z图 4:对抗贴纸示例。( S6 p( X3 g2 W
3 P9 g% M6 B2 }: D- F* L6 X
为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:
a$ _7 }8 y8 g3 M& x
i# d. d$ s/ j0 u! e
7 i" [- e5 N' _7 q图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。
$ M4 Q9 c& l' C7 n# w R3 d. V8 \. @
检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。
8 p$ o, G+ j( q `4 _2 V2 v o7 s9 ^$ \8 b2 }4 B: |

+ d3 p- }; b5 ^; N9 r图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。
' ]1 x: F( N/ T9 [# f9 x6 J
, A& G0 ^6 ], E' o! N最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。& T8 P7 m z. H. w+ Y
" _3 I) |0 P$ q+ W/ h2 z. g5 L

! H% j+ K) a7 c% C* `0 L9 D. E, f图 8:不同模型中,基线和最终相似度的差异。2 V% w0 N" a( K, a# s* l4 k
4 u+ t5 k3 v( Q. A
虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?
" U) A; P3 U$ _" H3 e( f, N' A7 K" B% h. N' G
本文为机器之心报道,转载请联系本公众号获得授权。
% B) y$ q+ C9 f* h; G✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com+ g: \, {( I! w8 W
来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=1
# k0 @* Z/ d5 f7 f, ^* j5 B# I免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|