京东6.18大促主会场领京享红包更优惠

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 4138|回复: 0

可选择:人权、信念、言论,人工智能道德的基础是什么?

[复制链接]

18

主题

0

回帖

10

积分

新手上路

积分
10
发表于 2019-7-29 19:59:37 | 显示全部楼层 |阅读模式 来自 中国
全文共1997字,预计学习时长4分钟# d9 T9 c5 }! \7 I, ]
; i7 K  Q% q0 O  O) J
& @: C# R& K9 A2 v2 C) k
5 v8 i' G8 Q$ J* g" [! T
图片来源:pexels.com/@marcin-dampc-807808
/ u$ _! m2 j7 Q
3 b5 i% e  i4 Y) o1 a+ o" q; H
# x) Q/ K4 N# K, n- P 在涉及人工智能的业务上,谁应成为科技公司里道德委员会的一员呢?7 F- ]* {* j/ O- o

4 V& m& |# R" r$ s" F
  m6 l+ ~* U9 k 科技公司逐渐认识到AI改变了权力动力学。科技公司作为AI和机器学习系统的供应者,应主动考量他们的发明将带来的伦理影响。
- n2 A$ N; a/ F# t, m/ G- i 7 [% N# \' `' V* r+ Y

- G4 K9 I2 J) T) f/ B) }  _2 q3 q 这也解释了他们为何在未做出任何与以往科技相媲美的东西时,就公布如《人工智能的原则》一类的前景文件。但是他们应选择何种道德规范呢?伦理常识、原则以及判断因时间、地点、文化而不同,而这些甚至可能在当地社区都无法调和。由于存在太多的分歧,人们在真正要警惕的AI应用上没有划明警戒线。: I+ e; Y  X0 S2 Y* i6 G

* O; \2 e, U$ |1 H
/ S4 v0 `: ~# i/ }3 t7 ? 由于企业不同于个体或政府,他们要对股东负责,因此,越来越多的并发症出现了。履行他们的信托义务可能意味着优先考虑增长,强调利润,并与国际客户合作,他们的政治忠诚在民主—威权统一的连续统一体中不同。8 O, p7 }8 x/ x& T/ Y; F1 ^

) M' a6 y. U: g& n* S9 u9 q0 q0 Y' L6 m- k7 y7 y6 B$ n7 O8 \% D  V2 X6 K
可以理解的是,这就导致人们对企业道德的诚意产生怀疑。每当科技公司谈及道德伦理,评论家们就开始担忧,他们认为这是公司为避免强硬的政府管制并赢得商誉的手段。该手段只有空洞的口号,却几乎与遵守法纪不沾边。因此当科技公司建立外部人工智能伦理委员会时,该委员会可能被视为自私的、“道德洗白的”面子工程。) T: b" ?* v3 B' A9 p
7 ?4 c9 J, w+ m
0 e- ~" |# f. W7 o2 f3 G# D
愤世嫉俗总是合乎情理的。毕竟这些公司一面兜售透明化,一面推崇“阻止透明化的贸易语言”。它们被指责向那些总不公开企业资金的伦理研究员提供支持。一个重大的案例显示,这些公司对伦理委员会的成员秘而不宣。如果科技公司想创造有意义的伦理实践,他们得请正确的人到伦理委员会并给他们赋权,这样才能提出公开建议,使企业对透明规则负责。+ F; Z: r3 r! z& u  K. C+ `

- O( F) j! a8 n3 n. m6 s! M
2 o! N" d# G$ J/ z6 U 0 a. u* B& I  o  ~# O1 ~
图片来源:pexels.com/@belart84( c* y& W5 @2 N# p9 p! p

+ ^! @4 c; m5 i1 s; u5 u! h1 l, `8 M/ M) v" S% ^# f
人权和人工智能伦理
/ D8 k% N; N" K* b4 E, J8 u
* w. s0 b4 D; j" j7 K8 Q* g- h3 M: d  N. T: |. `0 j5 U/ L
通过决策设计、战略实施以及意外后果,AI有可能影响整个人类生活。在军事、执法、银行业务、刑事司法、就业,甚至产品的交付情境中,算法系统能通过自动化歧视、恐吓公共演说及会议、限制获取信息的渠道方面威胁人权。3 t/ w; q! ^) K- J
  V6 h+ p; _4 z4 Z- X! ^8 d

/ Q5 ^4 f. \7 P! H# q 意识到这些问题后,AI治理的主要框架将人权作为基础来制定措施,其中包括欧盟委员会发布的可信赖的《AI伦理指导》、《AI经济合作及发展原则组织》、《社会责任下的AI企业:一份以权力为基础的企业蓝图》、《数据及社会中的统治者AI:捍卫人权和尊严》,以及《AI时代中的人权准入》。
( B: u9 ^& M& E 7 F, X) C; S) ^  Q

7 [1 v5 R$ N/ v( [  S9 L( i 人权是不完美的理想,它屈从于互相冲突的解释,也植根于有“过于宏大理想”的议程中。人权理论上应普及全球,但其实并非在各地受重视。然而,联合国发布的《世界人权宣言》却是迄今为止最好的声明,它建立了全面的社会、法律平等,以及根本的个人自由。电子电气的工程师机构正确地指出,即使在多元的伦理传统中,人权也是可行的基准。
2 H" S' Y5 M3 Z$ s$ z0 S: } / c$ ]0 n- n! m  |# Q

, a- C7 Q  k2 D. s: G2 t “无论伦理实践是西方的(亚里士多德学派或康德学派),东方的(神道教或孔子学派),非洲的(班图精神),或是来自一个完全不同的传统,只要创造出自动化且智能的系统,使其能确切地尊重人权和使用者的效益价值,人类福祉的提升就会成为重中之重,并作为算法时代人类进步的度量。”
1 y5 e; v1 w- _# ]" e
3 T. R+ Y# u, [! T! f) k8 p* T, }& T1 g8 ]& Y
科技公司应欢迎这一标准,明确地致力于实现更包容、具有保护性的人权解释,并将其作为企业战略在AI系统方面的基础。这些公司应邀请那些认可普遍人权的人加入AI伦理委员会。
7 ^; b1 [% c8 P  t6 r
6 J% U* u7 G2 e! G9 @3 i- A$ N. L6 T$ Q( z5 s
从伦理角度衡量AI的影响时多样化很重要,这点尤其体现在最边缘化人群中。但委员会不应该包括那些参与边缘化的代表。一旦选好了委员会的成员,科技公司必须要求这些专家在任期内严守人权承诺。如果正当程序显示一位委员说了或做了与人权相悖的言论或事情,无论其职位高低或成就如何,他/她应被除去职务。道理就是这么简单。惩罚很重但合理,且抑制了“数字伦理消费”,即企业玩忽职守,通过吸引可塑的伦理基准为现状正名。' b5 x2 m1 }# Y; v4 S7 f
6 ^& b( t8 R  X5 Q& i$ H. ]3 S

4 H/ e$ {# G  _7 s& e6 E8 E. w2 x 谁的人权?
/ X# Q% V2 i7 P7 W% n) q2 a ( j6 S3 p" O7 A& A6 I
5 a' m9 }2 @2 E, N! k8 q9 U' @
联合国《世界人权宣言》第4条款称任何人都不得处为奴隶。诚然,现在这一条款在伦理上毫无争议。然而据国际劳工组织(ILO)估计,在2017年,有2500万人是强制劳动和奴隶制的受害者,其中包括非法性买卖、童子军以及家政、建筑、农业劳动力。所以如果这样理所应当的人权都是人们梦寐以求的,那些更复杂的议题,如第16条款中结婚的权利将面临更大的挑战。, E6 ~4 ~2 C1 R+ Q1 H- {' A
) y& a$ ^: R' i  s4 `

& V7 ?+ q0 q  D/ D1 d LGBTQ(包括女同性恋者、男同性恋者、双性恋者、跨性别者、疑性别者、双性别者)是世界上最易受攻击的群体之一,他们在所有方面都遭到管制,包括有限的就业机会(第23条款)及社会机会(第22条款)、性取向转化疗法,甚至遭受折磨(第5条款)。那些将同性关系及性别错位定为犯罪的国家会发现,这群人中患精神疾病率更高。另外同性婚姻也一直是各地颇有争议的话题,它常与以宗教为基础、限制性人权概念联系在一起。1 m. Q: i6 P5 m% M6 h5 ]: X

  r: o/ w6 W( C6 ?& Y: h& p( q7 \/ z, d% ]2 `5 |- l8 e1 R% N( ?; V
当谷歌任命美国传统基金会主席凯·科尔·詹姆斯为科技资讯委员会委员时,一些批评家,包括有些是来自谷歌的批评家提出反对,他们认为谷歌在迎合共和党人。谷歌的AI原则是这场辩论的焦点,因为它保护企业的承诺,即避免创造或使用“目的与广泛接受的国家法律及人权原则相悖的科技”。詹姆斯认为跨性别个体不符合她对人类性别的想法,反对LGBTQ,且带领传统基金会长期支持“传统”婚姻,她如何能让谷歌对其既定的理想负责呢?' M& M0 K( p" i! W# Z. x1 J6 m5 M
/ l1 [) q) p6 X4 w
+ ?5 r0 j) X  v6 u: d
同样地,谷歌邀请科尔到委员会这一举动正是默认了其在LGBTQ上的观点,这无意间伤害了边缘化群体。就算詹姆斯将她矛盾的观点放置一边,在委员会开会时仍坚守与自己理念有部分冲突的公司理念,边缘化群体受到的伤害也无法被抹去。
4 |1 k$ k  e# h8 P; B+ x* Y3 R* F 9 z- b: P3 a2 _1 y  J
4 G/ c: R  F% d0 _: O
咨询委员会的争端表明,谷歌的AI原则太含糊,不能作为一份清晰的政策声明。除此以外,这份原则包含许多警告,使得公司在与政府或企业合作时漏洞百出,因而无法全面致力于人权事业。如果一家公司不承认、不接受基于人权的AI原则带来的经济影响,那么它声称的价值观是毫无意义的。评论家将公正地审判这家公司,它将道德观的呼吁作为公关形象来做生意已是常态。0 U/ b. `9 r$ u! w

0 v0 e* E3 b0 o
1 I/ y0 E, u! g  f1 V 但是谷歌仍值得赞赏。亚马逊的股东最近举行了强制投票,内容是关于公司不顾潜在的人权侵犯,将人脸识别技术卖给政府机构。尽管终止销售的议案失败了,但呼吁人权原则的股东应受到赞扬。假设亚马逊已拥有完备的AI伦理委员会,且领导者能认真倾听委员会的意见,那么公司的战略可能就会和谷歌的一样:谷歌称将人脸识别系统卖给政府还为时过早。美国公民自由协会的尼科尔·奥泽赞赏了谷歌的道德标准。
4 W6 h4 N  P; \/ u, l2 ~ " f+ f+ ~$ H% `) p0 G4 M- C) d
$ Z( b! b9 J2 }/ x
6 I+ J% H: O$ ~8 Z* v0 g, o
图片来源:pexels.com/@belle-co-99483
5 r/ N- x' F, a3 C
& p2 Q$ N9 r7 M- H! _# L, n$ ^# @% t) `( |. _  P% O8 p
多样化言论及人权% ~' Z7 P5 G+ _) X+ ~+ r
8 Y% B& {9 k  x5 U+ c4 w2 _
8 |# D6 `% F, g3 ~, E
评论家将抗议,如果科技公司坚持对人权有更包容的解读,那么委员会代表多元观点的能力会被削弱。从伦理上衡量AI的影响力时,尤其在最边缘化及受伤害的人群中,多样化是关键。然而委员会不应包括那些支持边缘化的人。& `$ U! ?6 e+ ]; M9 K
: [8 U' B1 j1 ~1 _

0 S' x. ~( h8 C- A: U! t4 B 有些人不同意人类的内在价值和平等,简单地挑出这些局外人不是极端的排外。
. \2 P! w. z% ^  W9 ?
$ _) M* ~4 h: m; S0 ~( ]; r
' e+ C( W! X- m9 ]: e0 _2 h 致力于人权事业的人们已经代表了全面的观点和经验。他们在如何确定优先事项、运用原则上有分歧。多样化和人权是互补的,因为人权群体并非是统一、想法一致的。那些受影响的也并不仅是人们的成见,而是有血有肉的人,或生活本身。有些人不同意人类的内在价值和平等,简单地选出这些局外人并非极端的排外。而要理解,侦查仇恨言论的需求等同于反对自由言论这一根本权利,这才是极端的排外。
" c* ~( o  ^5 Q. ]* H
0 x7 M& J) j2 F" e6 F+ A
1 z% i3 F: T3 U% a0 C 中和另一种反对意见,坚持伦理委员会的成员不断支持这些权利,完全不会影响自由言论。企业言论毕竟不是政府言论,在政府管控之外有许多时候人们不能自由地发表意见,或至少是有惩罚性后果的。5 @& |4 \8 `  x* {- W) {' D# t
2 R4 w% ?9 e; u8 V' @- b

: d5 @/ B, \: n$ z+ u3 x8 O+ V 企业的社会媒体政策通过禁止负面的品牌或员工满意度表现,来控制员工的言论。运作正常的媒体将以倡导为基础的争论(如这个产业导向性陈述)限制意见部分,并有相应准则以避免在某些问题上出现虚假平衡,如气候变化或疫苗安全等问题。人们普遍认为大学与政府一样,有着相同的准则来保护言论。然而哪怕在大学,也不是所有言论都受到保护的。
. L5 g- N' Y; l! {! z& C; O$ t
5 o4 E/ h5 B1 n) F  Y! m' m/ _& V0 H2 `. Y9 s" U7 \( @5 v7 N) C
事实上,选择那些强烈推崇人权的个体有可能加强自由言论。原因是许多人权原则明确地包含了对自由表达的保护。相反,不推崇人权的人会招致攻击。
6 q* L+ D/ J& @% A  \4 }2 M+ J" ^: a 3 d% x7 h1 f7 S" c0 l

6 `& c) F( A/ x# X% A6 X 当评论家抱怨人权是压制保守观念的借口时,他们是虚伪的。涉及AI领域的科技公司只有拒绝偏狭、拒绝对公司奉承迎合,才能成为有担当的全球角色。具体来说如拒绝把“思想上的多元化”这一愿景变为武器,这实际上允许伦理委员会减少或重新定义人人应受保护的根本人权。
2 T8 k; X, o7 f4 a5 J
# h& r& q% D& G! J9 i: @7 p( e" `0 M% |9 k6 X! T6 L
对人权的根本承诺应带来更好的伦理决策,以完善以AI为基础的系统。首先,这份承诺警告了公司,如果公司无法强有力地证明它们的努力能与人权保护共存,它们就不应参与以下业务,如致命的自动化武器、政府评分系统以及政府的人脸识别系统。这份承诺尚未开始解决AI在不显眼的灰色地带中创造的一系列不可预见的后果。在更多人被影响之前,人们都应得到科技的保证,即它们会以保护根本权利和自由为目的来开展AI服务。% y$ x6 P& b! K. D4 T! d

% F, O; a+ s3 T. R- ]& K
4 n9 [0 T$ \. y3 w+ ~留言 点赞 关注
8 }7 h8 `8 E5 U# y+ G: z8 b8 |我们一起分享AI学习与发展的干货# S& V$ d& b( x& I. e3 }
欢迎关注全平台AI垂类自媒体 “读芯术”; l. C# U; u5 ^6 T3 S

; ~) a9 O3 j. K1 ?4 d0 C3 D1 e4 i9 y
7 ]5 z2 ]6 H" j8 w+ j
来源:http://www.yidianzixun.com/article/0MlnorT4
- G( H0 S, I  W4 q免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

帖子地址: 

梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /6 下一条

QQ|手机版|小黑屋|梦想之都-俊月星空 ( 粤ICP备18056059号 )|网站地图

GMT+8, 2025-7-12 19:42 , Processed in 0.041828 second(s), 24 queries .

Powered by Mxzdjyxk! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表