京东6.18大促主会场领京享红包更优惠

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 9232|回复: 0

一张贴纸破解顶级FaceID,华为新研究让人脸识别不再安全

[复制链接]

10

主题

0

回帖

10

积分

新手上路

积分
10
发表于 2019-8-27 17:22:37 | 显示全部楼层 |阅读模式 来自 中国
机器之心报道

0 m+ |% C' v, @机器之心编辑部
用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。
$ n, B% \7 V2 b7 o9 b
在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:
; |+ u) j) i0 v# M1 [- S2 a3 t, m5 R7 W: B7 [
4 a8 |9 M. {0 ?( F& M6 t
AI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。' P0 A( b) S; [$ y3 C

2 n. u/ I4 a, B$ w: k+ i
$ w$ c! D9 t) ~$ f1 r+ O: Q0 Z
贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。$ y; m6 Z9 O6 l8 s
% ^' }: X  x0 n4 A

' p: D# y9 k1 ~# P变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。4 {, g) \& x3 Q: ?- b

& W0 ?. T/ M/ s+ V* @- |% _使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。% {6 W+ k& ]! C  G
; y. @4 Q3 M# M
从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。0 E) j  J4 e0 j7 A& T

# c4 s# L9 V4 C4 o/ w# U5 b/ Y研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705' Z% u) W$ c* g! `1 S' E
1 a$ A' l  V! m
更是直接公开了项目的代码:https://github.com/papermsucode/advhat
6 o9 r! k- z, H9 p) l; G
! [* i3 U4 m$ `) ~$ a6 {「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。1 V- b  J- b/ `+ F/ h  x! Q

. E* R6 v) }/ G0 V8 S+ @在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。
5 a1 O/ s  a* F0 z# N/ F6 J
7 K: ^( k2 \: K$ T# U( Q' I; a研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。
& f8 y/ u, D) Y* [3 y1 @4 n& c4 B" ^
现实 Face ID 也能被攻击* S4 |  a7 e; ?8 y4 g( P, K

4 V6 V! B' F2 x& h0 [( r以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。
" Z; c; _- Z% |3 y( e, u( @2 c
8 O( j" G$ w' a! k; n$ p9 \
1 q% Q9 Q  x# D+ L7 F1 \一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。
8 H/ r( L5 Q. x, E, ^; W. b( g% ]6 c9 h8 c1 s/ `' h4 D
对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。: u9 F( T* z, Q0 y2 {- W2 b
+ z  [+ U) b3 }+ y
沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。
) e' V1 U; p3 v8 y2 y3 L# b& r
! `* |% G; w* }8 p/ _研究者表示他们提出的 AdvHat 有如下特点:' c- W( P! ]! U* J% t, \! `6 Y

4 {1 w3 K# ^: \

    7 |1 W9 B! @* f7 ?  @" ~
  • AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;
    - M7 m8 e! y; d7 K, L
  • 这种攻击是非常容易实现的,只要有彩印就行;
    ) e2 M! q2 v* n1 w0 ?. G( x7 O; w
  • 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;
    ; C: f( y" j) q
  • 这种攻击可以迁移到其它 Face ID 系统上。! [$ C9 [; p4 b6 `
( z. P7 W2 ~! h- j

* F2 G3 c) Y6 u5 z" z3 O: w3 C7 X6 hFace ID 该怎样攻击/ a8 n; j% ^3 k) v

- S. j; r# C  g; H在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。
& }0 m- }6 U( ~* D! f3 R
6 S- ?+ v6 N7 }7 F' E+ s这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。
$ g$ f+ b3 E) K9 n, b" \7 Q. b! h0 X+ H' d. _0 \5 H7 i
这种攻击大概包含以下流程:( Q7 c; C. b. ?3 l; W
: H; m9 z. s! u4 g3 ~

    ( J! m# V: o7 R! U2 t& m
  • 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。
    ; U4 \$ C2 N! z8 m& @
  • 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。
    + w% G$ S" q* s8 e0 {3 s: K
  • 将得到的图像转换为 ArcFace 输入的标准模板。0 N6 i" \; }1 x, P  p/ V7 y5 S' y
  • 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。" h& c7 S$ c, J" C# F, M

! ~/ T$ r8 Q% U6 w& o+ W: V- b
2 M& M0 P) d  H  m* T& t/ y流程图如下图 2 所示:
0 o' ~" I4 Q8 l5 P$ l2 V: E( I1 N. o

9 F: {4 j( k1 |2 ^( v# }8 _图 2:攻击流程示意图。, r9 l' _8 |# M5 F( p  z
. \3 h: a8 B; S
首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。$ }  a& L: J' D% T. S+ Z! V1 n

+ k7 Z9 @& C1 Z( y6 {/ D
: q! x* W4 Q! w2 ?图 3:步骤 1 转换贴纸的示意图。
% C0 D2 h5 u' Q8 L) ~/ a  r, n* M% o& k4 X. q# k& S
贴纸攻击试验细节
) ?9 H4 q# w- w4 U% s$ m. W; p& |- }4 V7 j: O- p0 V5 o
如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。# M5 y! R' W$ F0 X' H4 S

3 b6 I6 e9 A/ a  e- n" G4 O注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。5 C9 M5 e5 R, m+ j9 C- ?1 f
( S) ?- b7 H- u( c" |6 [8 V5 K/ t
研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。
" y) o6 b# _0 Z  Z( T7 S- n8 @
, N8 z* Q! ?# ~: p& `7 ~' \) C研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。
1 ]0 F, i1 ]) a
1 T# Z7 J% ~% ^  r8 Z- x( K% J他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。
! d9 ^( H( P: X, h& `$ |- j
9 d8 `: g/ t' k5 |6 O# K% r4 ?「对抗样本贴」效果怎么样: F. s0 z0 j! }2 d7 b8 p: C

, U3 l, ^. X; e研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。
& S: w  ^- G* n1 L7 K6 I# \7 |% T1 Z9 q7 c& X+ x( ?5 B1 [
为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。) Q- M3 |8 b# O$ m% [+ j; h2 u1 O$ x
' }5 b: t8 u( t1 }( N* O
下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。
* J8 \8 l+ K& E2 h2 R1 N! o' L, y' t3 c

1 t6 H8 S/ [: {9 K+ T. ]4 L图 4:对抗贴纸示例。
" k7 q/ M0 |' t; r
+ U# ]' E7 c- B8 L+ Q为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:
3 ^) F/ [5 p4 M' _& K& [
( U+ o% p! e3 }$ ]' Z( }% s7 s. O( Y1 Q; V4 f& y
图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。
6 N1 Z; n7 V/ e) T6 I5 }4 a6 o
3 i1 \" T9 e4 _3 F3 \6 I检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。
: q8 c8 U* N7 R. Y. E" F) _
8 L5 `: ?( v& g/ k! ~/ E( w
6 U0 b7 M- Y4 J( K# S! i2 R" _) F/ a! v图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。  j8 r+ {5 G6 F

  D$ R0 [. w2 a3 |& j# L* S7 |$ D最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。
' p! C9 W# y5 \
; C  N. v0 `. c; O& u0 {- s# Y/ n, }7 J! o5 f) _% t4 b# y' Q
图 8:不同模型中,基线和最终相似度的差异。
- J1 H5 ~/ h5 U5 P% q; u
* `1 ?$ {1 i3 F0 n( {; r虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?
- U7 s5 s( @+ _, o& Z/ X+ T+ x
7 B. v3 ^5 A5 c4 K% F文为机器之心报道,转载请联系本公众号获得授权+ e* _" ]/ A2 h3 C- p+ [" [
✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com
4 \8 B+ W3 v! s& n$ i% c来源:http://mp.weixin.qq.com/s?src=11&timestamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=1
$ y- K, ?5 l  |/ a2 e; u8 [免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

帖子地址: 

梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|小黑屋|梦想之都-俊月星空 ( 粤ICP备18056059号 )|网站地图

GMT+8, 2026-4-20 23:11 , Processed in 0.050527 second(s), 28 queries .

Powered by Mxzdjyxk! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表