|
|
【猎云网(微信号:)】4 月 10 日报道(编译:福尔摩望)0 e& j1 a0 d/ h' p. O. R: P- n2 O8 m+ A! _
编者注:本文整理自 AI Now 研究所联合创始人 Meredith Whittaker 和 Kate Crawford 的采访。) g+ }& k: _5 \; A. G- `& S, t6 @
当我们问外行人有关人工智能的问题时,他们可能会描绘一幅《2001:银河漫游》或《终结者》等科幻电影中的未来景象。但是,AI Now 研究所的联合创始人 Meredith Whittaker 和 Kate Crawford 想要改变这种话题走向。% Y7 \, g0 {0 e$ f! D/ @
大约四年前,Whittaker 和 Crawford 开始意识到,在全世界范围内,没有一家人工智能研究所在研究 AI 对社会、政治和伦理的影响。于是,两人在纽约大学创办了这一本质上属于跨学科的 AI Now 研究所。她们认为,光靠计算机科学和工程技术,是无法解决这一问题的。要想构建一个能够产生社会影响的研究机构,她们需要来自社会科学、人文学科、法律、哲学以及人类学、社会学、刑事司法等领域专家的帮助,也需要广大社区的支持。
8 D t4 }4 a" i" G0 rWhittaker 已在谷歌工作了数十年。在被问及这种双重从属关系时,她表示:" 谷歌现在的确是一家几乎掌控着人工智能的公司。我在谷歌从事着大规模测量系统的工作。多年的工作,让我不禁疑问,如何在全球部署服务器并创建有意义的数据?如何制作具有某种意义的数据?又该如何确保这一点呢?"
6 ?0 t8 L2 W2 `0 @: x# n M这些触及认知本质的问题,开始让 Whittaker 意识到自身工作的问题。她说:" 多年来,我一直目睹着人们获取那些错误的、易出错的或不完整的数据,将其输入人工智能系统之中,并对我认为不可信或不可验证的世界发表见解。"3 f: N) Y$ q7 P; x& O$ x" [, j
在遇到 Crawford 之后,Whittaker 发现两人拥有着类似的担心。Crawford 多年来一直在从事着学术研究。Whittaker 说:" 当我与 Kate 相识后,我如释重负。我们在去参加会议的公共汽车上相遇,我们开始讨论这个问题,发现了类似的担心:如果这些技术正好存在于一些最敏感的社会机构呢?当我们开始根据硅谷会议室里人们的假设,自动执行刑事司法时,当我们开始自动化教育时,当我们开始对学生进行自动论文评分和眼睛跟踪来确定注意力或智力时,你如何确保不会复制歧视模式?"( u- I" q$ K& K" ]5 n E
这些问题牵涉到了一个重要的因素:数据。" G7 t( S6 s" Z- d1 ~% v
Crawford 表示,数据实际上是研究人工智能的一个大领域:" 现在,我们正在揭开人工智能系统的面纱,发现总是会有非常奇怪的训练数据进入管道。于是,我开始查看这些训练数据是从哪里获得的。"Crawford 以预测性警务数据为例。所谓预测性警务,即警察通过城市犯罪热图,来预测何时何地会发生何种犯罪。形成这些城市犯罪热图的正是人工智能系统所获取的数据,而正是这些数据,让警察逮捕了那些可能会犯罪的人。" 这不禁让我们产生疑问,这些数据的来源是什么?"Crawford 说。; p) r3 @, E6 b% h. b2 P& z' n: W
于是,她们调查了美国 13 个司法管辖区,这些司法管辖区皆因有偏见、非法或违宪的警务行为而受到法律制裁。这意味着法院已经要求该地区改变警察行为,但是通过栽赃证据或种族偏见的警务等方式创造的数据却被输送到了预测性警务系统。她们在这些地区发现了多个案例,尤其是芝加哥地区。在这些案例中,你可以看到,来自腐败警察行为的数据正在为所谓中立和客观的预测性警务平台提供信息,而如此糟糕的监管数据将会导致更多的不良信息。
4 ^8 M; z. a4 m% [ F" 因此,如果肮脏的数据实际上构成了我们的预测性警务系统,那么你就是在把我们几十年来看到的偏见和歧视植入这些在许多方面都饱受声誉的系统,"Crawford 说," 人们总是在说,这些系统是中性的,所以它们一定不存在偏见。但是现在你可以看到,恶性循环的出现,正是因为这些训练数据。"0 N" E" Y, t* c: X, R
为了更加形象化地说明这一问题,Whittaker 举出了一个最基本和最规范的例子。Whittaker 说:" 比如你正在向机器学习系统展示 1 亿张猫的图片,但是你只展示了白色猫。所以,这个系统虽然能够识别猫,但可能会误识别深色猫。" 我们可以向机器学习系统展示任何庞大的数据语料库,它也通过这些数据来模拟世界,它只反映了数据中的内容。因此我们所提供的数据是非常重要的,我们也必须意识到它们确实存在问题。
2 V. _1 _9 y; |. a% Y意识到问题的存在,接下里就应该给出解决方案。Crawford 说:" 这正是整个行业正在争论的事情,即如何创造所谓的公平数据修正。我们该如何清理数据?如何让人工智能变得中立和公平?" 但是 Crawford 表示,随着她们所做的研究越多,就越担心这种简单化的技术解决方案,因为解决方案最终仍然受数据生产的文化影响,如果这些数据是历史的,那么你就是在把过去的历史偏见引入未来的工具。
2 Q2 M6 P6 l) k, b& z+ q5 d所以,真正重要的是,谁在掌握着这个世界,谁在制造这些系统,他们又在试图解决什么类型的问题。
; m2 u( c4 M& Q' U如今,人工智能的工作方式产生了很大的变化。在很多情况下,你甚至不知道后台是人工智能系统在做决策。Crawford 以人力资源系统为例:" 很多公司正在使用人工智能系统扫描求职简历,以决定你是否值得面试。" 听上去,这极大的提升了人力资源部门的效率,但亚马逊所研发的一个人工智能系统打破了这种美好的幻想。! t7 z6 }% I3 }; H( e
据报道,亚马逊耗时两年,设计了一个人工智能自动简历扫描仪。但是该公司后来发现,该系统对所有女性申请者都存在偏见,以至于如果你的简历上出现了 " 女性 " 这个词,都会被排至末尾。/ B# T: i) f5 }) @( ~" o- d/ `3 M* t
" 这件事告诉,自动化这些工具实际上比你想象的要困难得多,因为亚马逊拥有一些非常棒的工程师,他们明确知道自己在做什么,也不希望这样的结果,因为他们没有发布这个工具。但这件事却透露了另一个重要细节,即他们所使用的训练数据,基本上都是来自白人样本,"Crawford 说。
7 d7 t* {4 O# O, A# o显然,要想让这些系统能够发挥原本的作用,让它们成为中立和客观的完美系统,我们必须更加挑剔。" 这就是 Whittaker 和我成立这家研究所的原因,我们想要能够通过研究,对这些人工智能系统进行审核,"Crawford 说道。 }# C. j. B* l y& c1 F
实际上,行业里的很多公司也已经开始了自我审核,比如谷歌和 Facebook。有些甚至成立了道德委员会,希望能够逆转来自文化上的歧视。$ R8 X- V/ V3 e0 ^
在被问及政府监管问题时,Crawford 表示对美国还没有任何形式的联邦隐私法感到惊讶:" 这在当今时代有点不寻常,到目前为止,只有州一级存在类似法案,比如加州就通过了全美最强的隐私法案,2020 年生效。"
; t2 j: q/ A; @3 i( q& I当然,很多人依然对此感到不满,尤其是与欧洲相比较。欧盟于 2018 年推行了通用数据保护条例(GDPR),虽然不是一项完美的立法,但却在国际上产生了影响。这也让美国政府面临着尴尬的境地,因为美国企业可能会受到其他国家的监管。$ {" c8 |& o. x
Crawford 说:" 我认为现在是开始制定法规、实现法规的关键时刻。这也将是未来五年里最重要的事情之一。联邦政府需要对人工智能及其附属技术如何被监管做出决策。"5 r3 W- e& m' L7 k
Klobuchar 参议员提出,可以使用罚款等手段来加强联邦贸易委员会的资金来源。而 Nancy Pelosi 也表示应该成立一个与 AI 相关的联邦机构欧来监控数据。- s1 n' v: O8 T2 ]2 ]7 ~
" 这将会是一场大辩论!"Crawford 说道。" 在成立相关机构的过程中,需要众多专家的建议。比如在医疗保健领域,你需要医生和护士工会,你需要了解美国保险系统的神秘运作方式。你需要把他们放在与人工智能专家平等的位置上,通过实际行动来验证和确保这些系统是安全和有益的。"2 v; V Q8 L) R+ K1 F. [3 X# U) K
9 I/ N1 y8 J9 I9 `
来源:http://www.myzaker.com/article/5cad34637f780b315f000001/: d/ n6 W* f( m' E- \
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|