|
·对于监管机构可能使用何种方法来监督人工智能技术,或者由哪个机构牵头,美国尚未达成明确的共识。地盘争夺战、政治分歧和有限的技术专业知识阻碍了治理科技行业的努力。在美国,科技行业没有类似于科技部一样的中央管理机构,而是属于多个机构的管辖范围。
0 L2 s; y! P% y0 t·在美国科技界,对于人工智能的态度如今分为几大阵营:AI安全派、通用人工智能信徒、AI末日论者和AI伦理学家。他们之间的激烈分歧正在加剧,对华盛顿的决策产生复杂影响。
/ [% _2 n0 `, r9 i i' f) C7 V6 S& X
在美国总统拜登就人工智能是否存在威胁表态后,美国联邦政府各机构开始正式采取监管行动,寻求提高人工智能的安全性并将危害降至最低。+ W1 B4 p2 x; _, _2 }
当地时间4月11日,美国商务部就ChatGPT等人工智能技术相关的问责措施正式公开征求意见,包括具有潜在风险的新型人工智能模型在发布前是否应进行核准认证程序。同日,美国联邦贸易委员会也对监管人工智能表态。美国联邦实验室国家标准与技术研究院则已制定负责任地使用人工智能的方法框架,并试图在政府的AI监管工作方面扮演突出角色。
& K* I0 t7 x$ ?7 ^5 g d' ]. c7 `在华盛顿,对人工智能的兴趣和担忧都在增加,捍卫者和批评者越来越多地向国会过道两边的政策制定者示好。在科技界,基于管理人工智能的不同态度至少分成了四个阵营,这给决策带来了十分复杂的影响。目前,对于监管机构可能使用何种方法来监督人工智能技术,或者由哪个机构牵头,美国尚未达成明确的共识。地盘争夺战、政治分歧和有限的技术专业知识阻碍了治理科技行业的努力。在美国,科技行业没有类似于科技部一样的中央管理机构,而是属于多个机构的管辖范围。
, f& \/ E9 `2 j7 ~7 n& f多个政府机构采取行动& U% J* b( Z1 Z! n; w. H
上周,拜登在白宫与一个科学家顾问委员会讨论了人工智能监管的话题。当有记者问及人工智能技术是否有危险时,拜登表示:“还有待观察,有可能(有危险)。”1 ]- Y- M( r% \
ChatGPT等人工智能工具可以快速生成类似人类使用的文字、图像与视频等。“这些工具即便在起步阶段就能做到这些,这真令人惊讶。”美国商务部下属机构国家电信与信息管理局局长艾伦·戴维森(Alan Davidson)11日说,“我们知道,我们需要设置一些界限,来确保这些技术被负责任地使用。”
6 p4 M+ o8 Q1 M- {+ p: L* {! s美国国家电信与信息管理局局长艾伦·戴维森4月11日宣布,就人工智能技术相关的问责措施正式公开征求意见。
& l7 \' R4 x& i k
8 D" P6 E4 v0 H( w/ }3 k* F& J8 s
美国商务部提出,可能采用审计系统,评估人工智能系统是否包含有害偏见或误解,从而传播错误信息或虚假信息。戴维森表示,可能需要新的评估和协议来确保人工智能系统在没有负面影响的情况下运行,就像财务审计确认业务报表的准确性一样。
, L% Z* C F0 G) j9 j- i9 _. ^* |据戴维森介绍,征求意见的期限为60天,这些意见有助于向美国的政策制定者提供有关如何处理人工智能的建议。国家电信与信息管理局负责就技术政策向美国总统提供建议,而非撰写或执行法规。5 u3 L) ] o1 B: ^) n0 L P
美国联邦贸易委员会消费者保护局局长山姆·莱文(Sam Levine)在当地时间4月11日的一次采访中表示,联邦贸易委员会正在检查生成式人工智能可能加剧诈骗或欺诈的方式。该机构2月发布了一篇措辞激烈的博客文章,警告其正在关注企业是否发布有关人工智能技术的欺骗性声明。“最近生成式人工智能的一些发展带来了一系列全新的风险。”莱文说。( z8 t6 {0 e d! q N
联邦贸易委员会主席利纳·汗(Lina Khan)的两位前顾问安巴·卡坎德(Amba Kakand)和萨拉·迈尔斯·韦斯特(Sarah Myers West)也在近日呼吁监管机构加强反攻,并在一份新报告中指出,科技行业的资源集中可能会加剧人工智能的危害。报告敦促联邦官员“迅速”使用已经掌握的工具,包括反垄断权力,并制定如何抵制硅谷“人工智能炒作”的路线图。# E, g, G. V- F+ R! O& s* g6 v
“少数私人行为者在开发和传播人工智能作为关键的社会基础设施的同时,积累了与民族国家相抗衡的权力和资源。”报告称。两位前顾问还特别警告,将美国人工智能发展速度与中国相提并论的言论,已被用来推动“在竞争、隐私和算法问责制的政策辩论中”放松管制。
/ j0 s$ B U& l) j1 b与此同时,为新技术制定标准的美国联邦实验室国家标准与技术研究院(National Institute of Standards and Technology)已经制定了负责任地使用人工智能的方法框架。一位不愿透露姓名的知情人士告诉《华盛顿邮报》,最近科技高管和立法者在硅谷举行了一个会议,与会者提出了由联邦实验室国家标准与技术研究院协调整个政府AI工作的想法。
; M# [' `/ K" s: _% S F在此次会议上,关注与中国技术竞争的众议院小组的成员与科技高管讨论了如何发展更多人工智能专业人才,高管们肯定了联邦实验室国家标准与技术研究院的AI框架,该框架描述了行业化解AI风险的最佳实践是什么,并推测联邦实验室国家标准与技术研究院可以在加强政府AI工作方面发挥作用,就像网络安全和基础设施安全局(Cybersecurity and Infrastructure Security Agency)协调政府应对网络攻击一样。1 |3 O' n4 K9 r6 t4 a3 ~+ x. i( {( ]
全面AI立法的可能性“微乎其微”?
0 R' S( M5 g, b- f1 i1 k随着人工智能军备竞赛在硅谷升温,华盛顿的机构正在努力研究,它们在监管快速发展的技术方面应该扮演什么角色。美国没有类似于中国科技部的部门,尽管在上世纪50年代,该国曾围绕是否设立科技部进行过一场大争论。
2 j. c u% Q. b e% G6 ^“由于未能建立相关体系,政策制定者正在为人工智能的恶意竞争创造条件。”政策研究机构艾达·洛芙莱斯研究所(Ada Lovelace Institute)所长卡莉·金德(Carly Kind)上个月警告称。. m. P. z" \2 v
弗吉尼亚州民主党众议员唐·贝耶(Don Beyer)曾抱怨,他提出的一项要求审计人工智能的法案未能获得支持,原因是这个问题“对议员们来说并不紧迫”。现年72岁的贝耶正在攻读机器学习硕士学位。
9 Q7 z& s5 W$ r/ V加州共和党众议员杰伊·奥伯诺特(Jay Oberolte)是国会唯一拥有人工智能硕士学位的议员。他说,议员们甚至不理解这项技术:“令人惊讶的是,我花了太多时间向同事解释,人工智能的主要危险,并不是眼睛里冒红光的终结者T800。”
9 L, [% }2 A0 {) v8 l$ H; ~还有一些议员则更强调美国在人工智能发展方面保持领导地位的重要性。得克萨斯州共和党参议员特德·克鲁兹(Ted Cruz)就曾指出,国会必须“确保美国在整个21世纪都保持全球领导者的地位”。) B' [. s! S* n: I9 B7 _6 o+ @5 o
由于没有用来分配资源和增加监管权力的新立法,美国各机构正忙着将现有工具应用到生成式人工智能的“狂野西部”。智库R Street Institute技术和创新团队的高级研究员亚当·蒂勒(Adam Thierer)认为,美国国会通过全面的人工智能法律的可能性“微乎其微”。“因此,所有的行动实际上都是在联邦机构层面进行的。”) I7 A% g1 m: m
目前,人工智能已融入美国人生活的关键领域,监管机构将面临一项特别棘手的任务。研究通常不透明的AI系统需要先进的技术操作,向审计员提供访问AI用于训练的大型数据集的权限也会引发隐私问题。一些技术专家警告称,合规负担可能会削弱美国公司的竞争能力。
. d, X7 {9 g& J( \4 v人工智能“四大门派”
$ X8 `! e* i& C4 P在民间,围绕人工智能监管的讨论几乎每天都在学术界或企业界展开。
$ R1 X+ f$ Q1 J据美国媒体当地时间4月10日报道,著名科技投资人、互联网“教父”罗恩·康威(Ron Conway)4月12日将在旧金山召集生成式人工智能的领头企业讨论人工智能政策问题,OpenAI、微软、谷歌、苹果、英伟达、Stability AI、Hugging Face、Anthropic等公司的高管与政策代表将出席该会议,讨论如何负责任地开发AI、分享最好的实践案例,并商讨相关的公共政策框架和标准。
% f5 ]/ g7 l, ~6 g# {而在3月29日,特斯拉首席执行官埃隆·马斯克等千名业界和学界人士联署公开信,呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的AI系统,暂停至少6个月,以便制定和实施安全协议。
h& b6 `/ B# f9 {% y; |: ~6 s在美国科技界,对于人工智能的态度如今分为几大阵营,他们之间的激烈分歧正在加剧。, p, b; k9 q' [5 [
人工智能态度四象限图:往上是不能停,往下是减缓;往左是恐惧与绝望(反乌托邦),往右是美好与理想(乌托邦)。
$ p P( z i7 v* V. Y6 F- n* z1 E
5 d* Z+ }+ x) d9 B. S! f7 E
第一派是“AI安全(AI safety)派”。“AI安全”一词用来指实际的安全问题,例如确保自动驾驶汽车不会撞车。近年来,这个术语可以与“AI对齐”互换,用来描述一个新的研究领域:确保人工智能系统遵守程序员的意图,并防止可能伤害人类、寻求权力的人工智能。流行于硅谷精英中的“有效的利他主义(effective altruism)”与这个阵营相关。其中许多人在OpenAI、DeepMind和Anthropic等顶级人工智能实验室工作。
0 t6 _& Z, b. P( F/ A% u第二派是“通用人工智能(AGI)信徒”。这个团体也关心AI安全,但对构建通用人工智能感到非常兴奋。OpenAI和DeepMind这两个领先的人工智能实验室以此为使命,马斯克、OpenAI创始人山姆·奥特曼和硅谷投资大亨彼得·蒂尔(Peter Thiel)都是幕后的重要人物。这个团体的影响力越来越大,以致微软首席执行官萨提亚·纳德拉、谷歌首席执行官桑达尔·皮查伊和微软创始人比尔·盖茨都在越来越多地谈论通用人工智能。
G" |$ a7 v* Y8 C) w7 q- t第三派是“AI末日论者(AI Doomer)”。这群人和AI安全派有许多共同的信念,但他们更悲观,认为足够强大的人工智能将消灭人类。机器情报研究所(MIRI)联合创始人埃利泽·尤德考夫斯基(Eliezer Yudkowsky)是代表人物。他在《时代》杂志的一篇专栏文章中写道,美国在必要时应对外国数据中心进行空袭。最近,MIRI获得了以太坊联合创始人维塔利克·布特林(Vitalik Buterin)一轮新的投资。尽管尤德考夫斯基的著作被批评为不适合现代的机器学习,但他还是影响了著名计算机科学家斯图尔特·罗素(Stuart Russell),而OpenAI创始人奥特曼对他也大加赞许。2 M6 X; L2 t5 g4 E; r" o. Q( o
埃利泽·尤德考夫斯基(左)与山姆·奥特曼(中)合影。
3 W8 h3 C% j; `, e J5 c7 D+ ]! \" a8 t# G
6 j/ a: o- y$ V; n" j- v2 \还有一派是AI伦理学家。他们多年来一直警告大型人工智能模型存在问题,包括输出种族和性别的偏见言论,可能破坏信息生态系统。这个阵营相对温和,一些人认为AI技术可以在不伤害弱势人群的情况下发展。谷歌道德人工智能团队前负责人、分布式人工智能研究所(Distributed AI Research Institute)创始人蒂姆尼特·格布鲁(Timnit Gebru)是代表人物,她曾在欧洲议会谈到,需要缓慢的人工智能运动,减缓行业的步伐,把社会安全放在第一。在当下的人工智能热潮中,尽管很多科技公司都在解雇其人工智能道德团队,但政策制定者和公众一直在倾听。" n2 t6 k L0 s o j6 e. a {
面对这些阵营发出如此多元的声音,美国政策界如何听取建议并采取行动仍需关注。
; B1 D5 j0 Z: I- o% n$ s美国的监管选项' M- B) \! Z g/ B8 R
就监管可以采纳的选项,美国国内的分析人士也进行了广泛讨论。3 o1 C2 {9 Q0 t- S( |! O
除了上述联名公开信,呼吁暂停人工智能训练的还有前民主党总统候选人杨安泽。但反对者近日来也已充分表达了各自的意见。以谷歌前首席执行官埃里克·施密特为代表的科技界人士,以“失去和中国的竞争优势”为理由抵制暂停开发的想法。美国网络司令部司令保罗·中曾根(Paul Nakasone)则告诉议员:“人工智能机器学习是今天引起共鸣的东西,也是我们的对手将继续寻求利用的东西。”9 j% x0 |( m/ @! B8 Y
另外一种更激进、也更不太可能实现的方式是对高级人工智能实施国际禁令。“AI末日论者”代表尤德考夫斯基就主张,在国际上永久禁止训练比ChatGPT底层更强大的大型语言模型。“如果有人建立了一个过于强大的人工智能,在目前的条件下,我预计人类物种的每一个成员和地球上所有生物都会在此后不久死亡。”尤德考夫斯基在《时代》杂志的专栏文章中写道,人工智能训练禁令需要“无限期和具有全球性”,世界各国政府需要采取更多措施来遏制AI开发。
$ N- W6 t& Y5 n: T; [7 Q+ F具体而言,尤德考夫斯基认为,GPU(图形处理器)是用于大型语言模型复杂计算的专用处理单元,需要进行跟踪,大型GPU集群需要关闭,各国应该“通过空袭摧毁流氓数据中心”减轻人工智能威胁。4 U. h4 s( }( o" b! ^0 X& Y
相比这些不切实际的愿景,立法规范人工智能的发展是更现实的路径。白宫已经发布了“人工智能权利法案”的蓝图,要求开发人员在产品设计中强调几个优先事项,其中包括确保产品收集的数据不被滥用于恶意的目的,设计者要考虑种族或性别方面的算法偏见,所有收集的数据都通过适当的隐私措施进行存储和保护,以及用户必须知道算法何时正在影响他们的用户体验,如果他们愿意,可以选择退出。0 X+ E O q# S$ a+ w0 A
与美国不同,欧盟目前已经在准备通过一项法案监管人工智能,监管内容包括面部识别和关键公共基础设施。该立法将要求人工智能公司对其技术进行风险评估,违反者可能会被罚款,最高可达其全球收入的6%。欧盟三大机构预计最早将于4月开始的三方谈判中敲定人工智能法案的最终细节。2 _8 b" _# G6 l3 |& c' @
在中国,国家互联网信息办公室4月11日宣布,为促进生成式人工智能技术健康发展和规范应用,国家互联网信息办公室根据《中华人民共和国网络安全法》等法律法规起草了《生成式人工智能服务管理办法(征求意见稿)》,向社会公开征求意见。这份文件要求,利用生成式人工智能生成的内容应当体现社会主义核心价值观,防止出现种族、民族等歧视,防止生成虚假信息,防止侵犯知识产权等。文件要求,利用生成式人工智能产品向公众提供服务前,应当按照相关规定向国家网信部门申报安全评估。文件还提到,产品提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。
: `: I$ ^/ Y' }+ Y1 H& ?《互联网信息服务深度合成管理规定》于2022年12月12日由中国国家互联网信息办公室、工业和信息化部、公安部联合发布,2023年1月10日起施行。8 f+ n# F6 `. D2 S% v
对深度合成等人工智能生成内容进行标识,也是全球行业内经常被讨论的监管方式。美国科技记者克里斯托弗·哈顿(Christopher Hutton)4月11日撰文建议,为了防止滥用AI生成的图像,美国国会可以通过立法,要求AI图像生成程序在所有图像中包含一个“水印”,以识别其来源。4 O% q$ X& {5 i8 ]
在人工智能领域,对面部识别的监管也是各国讨论的焦点。除了欧盟正在立法外,美国多个城市和州已禁止使用面部识别软件。例如,纽约在2021年通过一项法律,禁止在学校内使用该软件;加利福尼亚州2020年通过一项法律,禁止执法部门在其随身摄像头中使用面部识别。类似禁令是否会在联邦层面上执行,值得关注。在中国,上海近日公示了《公共场所人脸识别分级分类应用规范》(征求意见稿),面向社会广泛征求意见,值得注意的是,这是中国首个公共场所人脸识别分级分类管理的地方标准。 |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|