|
 $ P# U$ m% Q/ H4 d0 Y$ z
" Z0 D: s: |' N% e
7 T" T/ O" S, B" ]' J& W* _$ M欧盟网络信息安全局(ENISA)于2019年3月发布了题为《建立网络安全政策发展框架——自主代理的安全和隐私考虑》的报告,旨在为欧盟成员国提供一个安全和隐私政策发展提供框架,以应对日益普及的AI应用。! ?1 B: T; W5 d8 D
" T4 ]) _& z2 s" k) T
/ H; a0 \5 h( Q
. I+ C( `/ ?( ?3 ?
* G' Y6 l8 S8 k3 `, N本文主要观点一览:
) F: N* _9 a1 ^& u0 |
/ j7 A: A6 b+ h% D# u% T; _
* ^: c9 l& d6 \; f, u$ b
7 b( |% L, `" s$ {: j1. AI进入主流商用,数据收集是关键。
7 C, x% A% T) V m4 S; o5 ~3 x" [3 @4 u2 F( q) N' `$ w- o* }1 ~ h
- L. P) T- v* @* T2. 欧盟提出有关相关倡议,涵盖安全和隐私设计原则、技术规范和标准、道德准则方面。
- {5 e: h- f. w) i' h
( l/ y& N% q* o: P
. a4 }( Z" s8 f* I6 o* D; r3. 全面梳理AI的安全与隐私问题。其中安全问题包括:数据劫持和误用/系统干扰/透明性、可审计性的局限/坚持安全原则;隐私问题包括:普适性与最小化原则/数据的保护、聚集和再利用/数据处理不透明性。: t8 Z8 P% e8 i, X+ U; I
* _4 \# g7 v/ j+ }! e
% ~* d9 j; k% u4 C3 Q/ c" X4. 网络安全领域的政策发展框架应该坚持2个原则:包容性与开放性原则3 D5 w4 W- _2 p# u# g- x% b
3 J M- H& v' Q" S9 P3 P
. D+ q0 c/ W( n# g' K, G
5. 本月8日发布了正式版的人工智能道德准则,提出可信赖人工智能的七个要素: 人的能动性和监督;稳健性和安全性;隐私和数据管理;透明度;多样性、非歧视性和公平性;社会和环境福祉;问责制。4 ^9 w; i* p7 p2 ~- O
* U/ D3 p9 d9 t6 \- `
! C9 c- B2 u' G. `6 ^一、概要3 G* `+ w( h( I- m3 o3 ?
: b7 n6 N* e$ y# e6 B( l& Y
7 d* n2 r4 W" |/ c: V! h0 rAI进入主流商用,数据收集是关键
% l& h0 D$ l) i* E* G/ J0 K& z* e% z$ b+ \6 K' h. B* E4 ]3 u6 s
. m# C# e- F/ y* c在过去几年,人工智能(AI)迅速超越研究和学术范畴,进入主流商用,创新的自主代理利用人工智能并改变信息的访问和使用方式。自主代理多种多样,从智能手机中的数字助理到支持供应链的自动机器人。因自主程度和操作环境的差异,安全性和隐私考虑可能会有所不同。自主系统的一个关键方面是数据收集,主要用于以定性和及时的方式支持要求苛刻的功能。然而,由于处理的数据丰富,可能还涉及个人数据,除了依赖第三方提供商之外,还需要考虑安全和隐私等诸多因素。
$ C. W7 T8 z* O
$ j8 Y* L! v' ~* v& h: [0 V3 g v1 i. T2 Z% [# j6 N
欧盟倡议:安全与隐私2 K# Y+ E* P& C z. U" T0 p+ s
: e% B5 r$ F( z4 t1 t& j5 Q
1 M% W% ~+ U- R. g( F, _ J- R本报告强调了一些需要考虑的因素,例如未经授权的自主系统,劫持和滥用透明度和问责制,普遍性,存储和处理的不透明性,并给出了一系列影响未来欧盟政策倡议的建议,包括:
, G9 o0 M$ @$ [4 H) Y! B+ e
h3 _' n0 f& f& _3 }" J# ?* e. O8 n- Q! N9 |' L
●欧盟委员会、欧盟相关机构以及公私营部门利益相关方应进一步促进和支持采用安全和隐私设计原则,作为自主代理和系统的启动、设计和实施的先决条件。% y* j1 [4 X* o# X6 S3 c9 b9 ~
1 ~% Y8 F7 n8 O4 k9 u. B* ?0 ?4 i
/ o( g o3 e6 z( s( w8 f, R●欧盟委员会、欧盟相关机构、公私部门利益相关方应促进识别和交流最佳实践的合作方法,逐步提出一系列基线安全要求,然后转变为可广泛接受的技术规范和标准。
' e6 O- b4 C6 |1 Z
/ ~/ G' T8 O [1 D
|* K& e1 T# C! K8 q& w1 A●欧盟委员会、欧盟相关机构、公私部门利益攸关方应通过建立适当的道德准则,进一步保障和支持关于促进和保护人权的现有举措。. G+ l5 _" q9 j7 ]! _
& v% l0 w0 M5 C
' `$ H7 H/ D8 O) h二、安全和隐私' f% P6 Q7 ~/ M, T
8 E# }$ N$ m2 V! _$ m
8 ?, \$ R) N/ J" P& @+ X(一)安全问题
+ ` n( _8 w3 b4 T) R X' ]: p+ K* _; o0 u( N
" _0 [% z$ f6 h0 P# l( A& J
1. 劫持和误用
6 g2 |! {0 N6 l4 Q7 u( ^6 x# j1 Y* ~, w# D
1 [' P q! j5 \2 F
) ^: e5 k1 i* b自主无人机、无人驾驶汽车、机器人和其他设备都是通过软件系统来控制的。软件开发过程中使用的方法、以及软件测试的范围和广度都会影响漏洞数量和严重程度。开发者应该证明设计过程中采用了可管理安全(managed security)方法,包括记录安全软件开发、质量管理和信息安全管理过程。
/ a Q; ^6 w( r4 i( |# m9 h+ V/ V1 T" P6 \! U% v) M; Q
: s6 b/ Z9 `5 ] t4 r( E; R- C
2. 干扰
( |, ^8 `: q2 G0 }8 s$ u7 D8 k: A' W
. c: W" p f. Q9 B" v8 h T
自主系统非常依赖传感器来感知环境,因此可能会遭遇来自传感器的安全风险。安全研究人员在2016年就证明了自动驾驶汽车使用的传感器易受到非接触式攻击的影响。供应商应该确保交付的产品的设计和预配置是基于良好的安全实践,并严格遵守最小权限等安全设计和开发原则。
# D1 s1 V, A( X* M( s2 w: ~2 m, q! w9 r
- y7 |. _ Y( j3. 透明性,可审计性的局限
& f6 o' ?& N2 \- q
3 r- e0 w+ S6 M4 ]" K" P+ l, S
. l+ m7 l( N" B" O* _2 P$ D. Y6 x, Y; X/ d& ]: X% `/ G
自主代理的行为并不全都在软件代码中有详细的规定,而是根据软件、训练和感知的环境的不同,其行为具有一定不确定性。在许多高级自主代理中,训练和操作阶段是没有区别的,因为训练过程是持续贯穿代理的整个生命周期的。因此,训练的过程并不是完全由厂商控制的。那么厂商就应当提供关于代理设计的综合性和可理解的文档,描述自主代理的架构、功能、使用的协议、软件组件或硬件的实现,与其他组件和内外部服务的交互和接口,以确保代理是以一种最安全的方式实现和应用的。5 _$ u/ H0 J. D# k- Q
2 X4 ^" Z' y; Y9 s! ^% }) J
! }# {% ^( x& e8 k2 D7 H9 A6 f
4. 坚持安全原则
: C1 g; O$ G9 z ~' k) K+ T q& J- {6 q, i
9 r# p! h( b# H6 ~4 Y g
& Z3 i; m& k8 J7 A7 ^+ ^( B3 u与信息系统设计、开发和应用的基本安全规则类似,应当识别、定义和应用自主代理全生命周期应当坚持的基本安全原则。因此,自主代理的组件、使用和提供的服务应当是安全的: / Q: g7 N2 d: G5 c- L" N5 s9 h
3 G* X) h& Q7 x. q! \7 r, g
' Y/ c( G( k; M0 q% H" m( ]: p● 安全设计。代理或服务的设计和应用应该是安全的,以确保可用性、机密性、完整性和可审计性等关键安全特性;
- W5 x: o8 |5 d& K0 Z3 N8 n( ]: B6 _ w0 L6 p
, B0 D- G$ p' B& a* a1 _● 默认安全。代理或服务在初始实现时就应该提供能支持这些安全特性的能力;
) z. ^, c4 ^) [0 N% a9 a9 F( _+ S/ |: y
4 |& e1 d! R" b+ m
● 全生命周期安全。安全应该贯穿初始应用、维护到不再使用的全生命周期中;
2 y4 S1 W6 a/ L# q& W K$ j8 ]8 J( B' p3 F, A1 h
) G) s3 {. K: Y# a/ s: C& Y$ F m
● 可验证安全。上述安全特征和原则都应当是可验证的。
6 Y. H+ b1 E0 b1 i% I& d1 A) V9 H' t/ z: V9 Z% w/ a8 P7 u, ^/ y
" v) X% d1 u7 z& E
(二) 隐私问题
3 N2 i5 u: ~% C2 V7 v
5 \; i7 c0 ~: n t; g# c8 E( W" R S
1. 普适性与最小化原则
+ A, x2 ]' D& m+ I5 d, p8 [+ T: K7 ~1 ^
& C% b, y0 a: t( w( h自主代理的学习能力是基于机器学习算法的,而机器学习算法本身就需要大量的数据集作为输入。也就是说代理会去不断地收集尽可能多的数据,以自动驾驶汽车为例,自动驾驶汽车装备的传感器会收集半径300m范围的数据信息,通过还装配了摄像头和麦克风、雷达和激光传感器,可以创建环境中物体的高分辨率3D表示。
4 E: o5 {# S% @8 r
, s" ] A" ?& a) d5 a7 c
) W5 @; O/ y8 _* R从目前来看,自主系统还不具备区分有用数据和无用数据的能力。自主系统的能力高度依赖环境感知的能力,而环境是复杂和动态的,因此很难区分哪些信息是有用的,哪些信息是无用的。 H1 ?' y0 h8 M' M/ W, v
! F% @9 P' z: u$ m1 J3 ~# e) }6 G! O# V5 y0 x' D2 b$ n- ~5 y, L
2. 数据保护:删除数据仍能利用
' V- g% I, L' @/ l+ F* C# ~9 P& d
6 @ _- w% s; v' b3 @6 Z( W A0 j9 x( ]& ^, a" Z% c- J& F
# u4 u$ m a4 [8 n
自主代理处理的实时数据可以在使用后不影响性能的情况下删除。出于不同的原因这些数据一般都会长时间保存,包括事故和意外的调查取证。以自动驾驶汽车为例,训练数据也可能会用于事故和意外调查取证,因此也要保存。
/ X% |; D) u( E
. l' p+ l# n y6 ?6 R3 U7 A, T; a. O2 j& @1 m' K( R
即使数据被删除了,也会留下可以被利用的痕迹。研究人员在2017年就证明了在不访问机器学习模型内部结构的情况下确定特定记录是否是机器学习算法训练集的一部分的可能性。同时研究人员证明了机器学习易受到推断攻击。因此,对机器学习来说,删除训练集数据并不是隐私保护的有效手段。而且工程师、开发者、研究人员、调查人员和其他利益相关方都可能会访问到数据集,因此数据机密性保护也是一个复杂的问题。
$ ~5 l: V: y* r& ~: o! I% l+ I
. o5 H5 E+ O# Q. C3 I2 I
j4 c" k+ t* ^( q/ R+ J3. 数据聚集和再利用$ M8 p9 [% h% q) | n
( j2 g8 s0 U- Z5 z3 u6 z
6 b9 c# b9 W( ~; ]/ i' e) Z
7 Q5 ]# R P& M. G& t: r
" y( T; P' i' u# A数据的聚集和再利用已经非常普遍。比如,自动驾驶汽车和无人机都连接着所属公司的控制中心,收集的数据会发送到控制中心做进一步分析。同样地,软件代理也会与厂商共享数据,这样厂商才能提供更好的服务给用户。开发者和服务提供商将从不同用户处收集的数据与其他源的数据融合在一起,就可以创建详细的用户画像、预测用户行为、猜测用户的需求。
. h/ z* A* b: Q4 i" G
) c& ^( m* ~( R- w3 B
# H, ^$ |8 O+ A8 d从活动A收集的数据可能会被进一步利用和分析,用作活动B,这就叫做再利用。比如自主代理训练所收集的数据也可能会用于市场营销,事故调查所收集的数据可能会被用于用户画像等等。
- K+ S/ U" d: p1 J" S, }( @! V P4 T% h. N: f; O: r. A: m6 [' R+ t
1 ?8 {& `' c; o
4. 黑盒:数据处理的不透明性
& }$ q2 d o3 O8 {, N3 \
! X1 C, ], Z$ C f8 N
- p2 ?6 U8 p+ y9 H/ z* e( ~' k) z' T7 m: A' u
机器学习是以一种黑盒的方式处理和展现给用户的。机器学习算法并不对结果进行解释,也无法确定某个特定的数据实例是否会影响最终的决策。对基于机器学习算法模块的自主代理来说,无法证明个人数据处理的合法性、公平性和透明性。因此需要监管和执行机构参与来分配和确定相关的责任。3 j4 C* d# b- S$ ?* ^# n# ?$ R
; r5 s2 h- O) i
: R. K8 g0 z W7 F0 i( ]9 h1 C! c( f4 W0 P4 r
三、网络安全政策发展框架9 {5 j- L1 q8 G, H$ x
4 q$ T) K4 K2 W4 r D$ u; L' [9 `6 s! F+ o2 T' ?1 i6 W/ Q# N0 c
本文为欧盟成员国提供自主代理和相关应用领域在安全和隐私相关的政策发展提供一个框架。基于对人工智能技术的分析,研究人员提出网络安全领域的政策发展框架应该坚持的2个原则:
. y8 v6 k2 q. z
% Y) c! S0 e3 ?" V& h& M
" z6 N* N9 |# A9 m8 B# ^: M
% \) Q' o1 j! C6 ^) Y. ]- 包容性原则(Inclusiveness):应当反映和考虑更广泛的利益相关方的兴趣和优先事项;
; u1 D+ q' q9 v# b; Z3 O9 \ - 开放性原则(openness):应当支持未来数字革新技术在不同领域的应用。$ ?2 {) S9 m. P) v5 z& g1 M, Z
% b0 t8 \# Y7 X2 N9 l8 ?
具体来说,该框架应该:促进技术标准和规范的开发和采用;鼓励最佳安全实践和经验;促进利益相关方的协同和合作关系。4 Q9 K- P' b$ u7 O, C! N
2 \* a" ^* o7 ?% B
6 ]9 c- |1 m' m8 C! J% D" s四、总结与建议0 m& U# R) J1 V1 C: d6 \) i( l% L) \
5 p7 ?: _: v, U# I. s1 v) Y4 R) ~0 a0 X* t. s2 s
(一) 应用安全和隐私设计原则# r0 u( `5 Z! f' ~( @
% _, E$ Y" _8 i c; Z$ E: `# m
" ^9 Z4 X- p0 h* I3 m
自主系统的关键就是能够处理大量数据,但自主系统必须以一种可以确保安全关键特性可用性、机密性、完整性和可审计性的设计方法。通过在从安装开始的全生命周期拥有保证其安全特性的能力。
, l# F' W; j8 z! s3 O0 `+ k, {* X$ z; `4 p8 x) {7 A
% `7 p, N2 `% ]
欧盟委员会、欧盟相关机构以及公私营部门利益相关方应进一步促进和支持采用安全和隐私设计原则,作为自主代理和系统的启动、设计和实施的先决条件。
+ h& v" O, P2 j4 d3 c$ b, ]7 c# i. F+ f, y. f1 M
9 u0 j( G- p3 N8 z& f6 y8 B3 m$ o1 D7 j P9 g4 H
(二) 开发基线安全需求
" I b5 }+ {' Z x; |2 c3 R* N; W
# J! i3 T. m8 t
# V! [# h4 b; T+ r+ J; S人工智能和自主代理的快速发展催生了系统和产品设计、开发等过程对应的方法和指南的需求。开发者也可以从解决安全和隐私挑战的指南中获益,这种指南可以通过最佳实践、基线安全需求标准的开发来得出。. @( f! {$ j! X8 U
0 v4 @1 q4 T! T& t+ n
# e8 E, U0 M, R$ x7 `! A0 Z4 k9 R1 z欧盟委员会、欧盟相关机构部门利益相关方应促进识别和交流最佳实践的合作方法,逐步提出一系列基线安全要求,然后转变为可广泛接受的技术规范和标准。3 m W$ O A" S6 N0 p2 B
0 R# M3 M( Q( }1 v1 f+ f9 ?- T# N1 V: n0 P% I
, ?: j) _4 h3 I1 ~8 B$ b9 F" K(三) 解决伦理问题7 u$ R3 J, w5 H, n8 H8 Q! j! E
7 C( j* T2 B/ d9 i! l3 I1 F+ K# b/ E: @) h
自主代理和系统常常需要做出一些复杂的决策,因此引入了与人权、尊严和非歧视等相关的伦理问题。解决这一困境需要一种跨学科和协调的方法。$ [% P# U, A4 `! N' l* C" A+ r
# v* b8 U2 C. F! n2 H6 V1 I
. e$ j$ d" n6 i5 | S& `欧盟委员会、欧盟相关机构部门利益攸关方应通过建立适当的道德准则,进一步保障和支持关于促进和保护人权的现有举措。% a# M7 a7 ^9 \/ n' \$ g' [1 X
$ n* C8 K7 }) f" H
! @, A& U0 J7 z/ U' S+ h7 \: [9 H/ M( F" l. q
6 |/ z0 Z4 U& h" z
4 h/ G; @9 U" |& V另外,欧盟委员会还于本月8日发布了正式版的人工智能道德准则,提出了实现可信赖人工智能的七个要素,要求不得使用公民个人资料做出伤害或歧视他们的行为。$ [: q8 L( V! D9 ]. Y
3 t7 ~- ~: @5 V+ Z) K$ z
* }8 ~ w, T4 Y: Q* `! @9 v实现可信赖人工智能的七个要素分别是: 人的能动性和监督;稳健性和安全性;隐私和数据管理;透明度;多样性、非歧视性和公平性;社会和环境福祉;问责制。3 r4 T: g/ Y& N/ y& b, m0 ?
+ j. x" d; n$ E% y! {8 f2 d4 |
5 k( y( f' o# V4 `; t$ U, j, C J3 J. P0 w5 Q7 L. X
【报告下载与参考链接】
, [4 T1 U! a; G5 ~8 }% Thttps://www.enisa.europa.eu/publications/considerations-in-autonomous-agents
5 _ }: H1 e* _7 v+ B; M/ ~https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
$ P% N6 O% s3 |0 g. d! K7 [5 m- S0 i% C; m0 f
* x7 [8 j7 t1 V |
转自丨学术plus
, N+ L' @1 y2 X/ U4 A译者丨张涛
0 E3 S3 `) N& F6 @. \. n& f# g' e2 o) b% [$ Q
- w& n" b' E; Y5 \, E' R! F" }/ p
6 g) O% Z- i1 s9 x
' y9 q8 K. n' I& U
研究所简介% o6 _) p, d+ \7 a
* a% e8 L7 G% h* J; t
. ^. O1 ^ w( b国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。
* u# V$ [* f3 K$ Z9 \5 N4 s2 O3 E. W2 ~# ^+ _5 i4 h3 W
- \2 {1 P* }+ z3 m" }: N; k: j: F) K% k# q1 J
地址:北京市海淀区小南庄20号楼A座0 z# j" [0 P5 k1 L; d$ \: ~2 F, G7 |
电话:010-82635247/6558 Q% O, H/ V- h* d! _
微信:iite_er
/ O0 l# _. V) I' k" n
0 A0 e- A& K+ M3 G. R8 P+ ^, P; w7 u, }3 [
- e; G5 g+ V6 P. `) U
5 {$ z9 [' F, |- |
8 H1 g/ n- k1 B" j3 a! x& t- J
; n5 E- r5 c7 w* z来源:http://mp.weixin.qq.com/s?src=11×tamp=1555428606&ver=1550&signature=6VKG3vaE2U1o8iyg82mtSrk*fg1LJXkb*Y1gCk5MWChBmxbFISOFP0qhQ8-PaqEDLgpNVH7kH40Cke46IfYsp8RBzNEv0tZ6Hiup*X9ZcQCSCL1We8*D9yRYEnm6c6rU&new=1. Z. q) t1 s8 ?
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|