|
9 z5 i, Q" D. W
1 s) o/ b' A0 I- U G
图片来源 @视觉中国1 n5 R5 t) U& U* Z" g7 F3 R
文 | 元宇宙日爆4 n% a1 w8 ~8 X: J; q
" 人工智能想越狱 "、"AI 产生自我意识 "、"AI 终将杀死人类 "、" 硅基生命的进化 "....... 曾经只在在赛博朋克等科技幻想中出现的剧情,在今年走向现实,生成式自然语言模型正在遭受前所未有的质疑。$ v t* m4 _6 ?7 V6 {
聚光灯下最瞩目的那个是 ChatGPT,3 月底到 4 月初,OpenAI 开发的这个文本对话机器人,突然从 " 先进生产力 " 的代表变成了人类的威胁。
- {" O8 M( N4 ~8 u- T, n" r先是被上千位科技圈的精英们点名,放在 " 暂停训练比 GPT-4 更强大的 AI 系统 " 的公开信中;紧接着,美国科技伦理组织又要求美国联邦贸易委员会调查 OpenAI,禁止发布商业版 GPT-4;后来,意大利成为第一个禁用 ChatGPT 的西方国家;德国监管机构跟进表示,正在考虑暂时禁用 ChatGPT。 M2 F, W, e @1 M/ h$ o0 `0 L$ `
GPT-4 连带着它的开发公司 OpenAI 突然成了众矢之的,呼吁 AI 监管的各方声音变得越来越响亮。4 月 5 日,ChatGPT 以访问量太大为由暂停了 Plus 付费版,这是一个可以优先体验 GPT-4 模型的渠道。' S9 b( U. F. k9 A
如果算力与服务器是 GPT-4 使用设限的原因,那么这是技术瓶颈使然,但从 OpenAI 的研发进展看,突破瓶颈的周期可能并不会太长,而人们也已经见识过 AI 对生产力提升的效果。$ U+ ^, D U9 Z( e; h
可是,当 AI 造假、泄露数据成为 GPT-4 实操中的硬币另一面时,AI 伦理、人类与 AI 的边界将成为全世界都无法绕过的问题,人类开始考虑将 " 野兽 " 关进笼子里。
( M5 o$ `+ v q" y: d+ O泄密、造假问题浮出水面$ K# C# x1 S0 I: I9 g) |
主权国家对 ChatGPT 的禁令接踵而至。+ U/ F( _6 A/ J, A, E2 y0 n
3 月 31 日,意大利个人数据保护局宣布,禁止使用聊天机器人 ChatGPT,并表示已对该应用背后的公司 OpenAI 展开调查,原因是 ChatGPT 出现了用户对话数据和付款服务支付信息丢失情况,缺乏大规模收集和存储个人信息的法律依据。4 月 3 日,德国联邦数据保护专员称,出于数据保护方面的考虑,正在考虑暂时禁用 ChatGPT。此外,法国、爱尔兰、西班牙等国的隐私监管机构都在跟进 ChatGPT 的隐私安全问题。
+ g* b3 n0 k% U/ ]! F9 bChatGPT 不仅在丧失各国 " 信任 "。近期,韩国电子巨头三星也因使用 ChatGPT 出现了问题。据 SBS 等韩媒报道,三星导入 ChatGPT 不到 20 天,便发生 3 起数据泄露事件,涉及半导体设备测量资料、产品良率等内容。对此,三星启动了 " 紧急措施 ":将员工向 ChatGPT 提问的限制在 1024 字节以内。据悉,软银、日立、摩根大通等知名企业都曾发出了相关的限用通知。
( i/ M \3 A' v9 \, x1 P2 q8 `: _应了 " 物极必反 " 那句老话,ChatGPT 为 AI 产业注入 " 兴奋剂 "、引发科技巨头 AI 竞速的同时,也带来了无法避免的安全问题,最终遭到多点 " 封杀 "。- S3 x6 l! s1 U% b
数据安全仅是 ChatGPT 潜在风险中的冰山一角,背后是 AI 伦理对人类的挑战:人工智能工具缺乏透明度,人类并不清楚 AI 决策背后的逻辑;人工智能缺乏中立性,很容易出现不准确、带有价值观的结果;人工智能的数据收集可能会侵犯隐私。
/ y: E% K0 G, I- D" f9 q6 \"AI 伦理与安全 " 似乎过于宏观,但当我们把视角聚焦于真实案例时,就会发现这个议题与我们每个人息息相关的事。! x2 X7 w0 @' E6 ]
3 月 21 日,新浪微博 CEO 王高飞发博晒了一段 ChatGPT 编造的假信息:" 瑞士信贷被强制出售,有 172 亿美元的 AT1 债务被直接清零 "。网友 " 一玶海岸 " 对此指出,此前只有 2017 年西班牙大众银行破产时出现过 AT1 债券被减记的情况。
3 C5 w8 I( ~& K1 M+ \
5 U# B0 B. P5 e
( [' i8 S# H+ G$ E( \8 T, i3 _' C- n& U+ D( @7 E9 D! |4 h2 k
新浪微博 CEO 晒 ChatGPT 编造的答案+ Q7 X8 r9 N8 ~% O1 e3 X/ y
王高飞也在微博上贴出 ChatGPT 的答案,说这样的例子在 2016 年的葡萄牙 BCP 银行事件中也出现过。但结果查证之后发现,BCP 银行的例子是 ChatGPT 编造的并不存在的事件,它给出的两个信源打开也是 404。 " 知道胡扯,没想到连信源都是胡扯的。" o& C- S f2 C( K5 W* x6 F
此前,ChatGPT" 一本正经地胡说八道 " 被网友们当做 " 梗 ",以证明该对话机器人 " 虽然能直给信息,但存在错误 " 的问题,这似乎是大模型数据或训练上的缺陷,但一旦这种缺陷介入到容易影响现实世界的事实时,问题就变得严重起来。3 k! W; ]8 l' R/ m4 K
新闻可信度评估机构 News Guard 的联合执行官格洛维茨(Gordon Crovitz)就警告称,"ChatGPT 可能成为互联网有史以来最强大的传播虚假信息的工具。"
$ E4 s2 V& }$ f O$ g& _7 x1 |1 s更令人担忧的是,当前的 ChatGPT 等对话式人工智能一旦出现偏见或歧视,甚至存在诱导用户、操纵用户情感等行为时,就不止是造谣、传谣的后果了,直接引发生命威胁的案例已经出现。3 月 28 日,有外媒消息称,比利时 30 岁男子在与聊天机器人 ELIZA 密集交流数周后自杀身亡,ELIZA 是由 EleutherAI 开发的开源人工智能语言模型。& `7 o) ]& L. ?, Z6 r
更早前的 3 月 18 日,斯坦福大学教授在推特上表达了对 AI 失控的担忧," 我担心我们无法持久地遏制住 AI," 他发现,ChatGPT 能引诱人类提供开发文档,30 分钟就拟定出了一个完整的 " 越狱 " 计划,ChatGPT 甚至还想在谷歌上搜索 " 被困在计算机中的人如何回到现实世界 "。: j4 H* j1 U' a# R, E t
% W6 X6 h; V4 B1 k$ }$ y4 \0 Y
9 P# W3 p" I& I6 h& O D
8 g3 \' M# z4 r3 Q斯坦福大学教授担忧 AI 失控) T9 j- o g: }
就连 OpenAI 的首席执行官 Sam Altman 也曾发表了耐人寻味的忧虑," 未来 AI 确实可能杀死人类。"
/ z' @* \0 t" T0 h/ a机器的 " 偏见 " 都是人教的?
$ u% [( p, L. |- f- e! Q针对 AI 造假、AI 拥有价值观倾向并产生诱导行为等问题,有一些代表性观点是将机器学习结果的 " 偏见 " 归咎于数据集——人工智能就像现实世界中的镜子,折射出社会中人们有意识或无意识的偏见。6 w0 R& p8 T: [5 W2 h
英伟达的 AI 科学家 Jim Fan 认为," 按照 GPT 的伦理与安全指导方针,我们大多数人也表现得不理性、有偏见、不科学、不可靠,总的来说——不安全。" 他坦言,指出这一点的原因是为了让大家了解安全校准工作对于整个研究团体来说是多么困难," 大多数的训练数据本身就是有偏见的、有毒的、不安全的。"& x. s+ z/ v! O& x, A, m1 e
自然语言大模型的确采用了人类反馈的增强学习技术,即通过人们喂给它的大量数据不断学习和反馈。这也是 ChatGPT 们会产生具有偏见、歧视性内容的原因,但这反映出了数据使用的伦理隐患。哪怕机器是中立的,但用它的人不是。
+ \: o2 D7 V- p e( {" 算法中立 " 的说法对话式机器人产生负面影响后变得不受一些人待见,因为它容易失去控制而产生威胁人类的问题,正如纽约大学心理学和神经科学的荣誉退休教授 Gary Marcus 说的那样," 该项目(GPT-4)的技术已经存在风险,却没有已知的解决方案。实际上需要更多的研究。"
! y( i: ^" a# g% l8 }+ b* k7 G# C早在 1962 年,美国作家埃鲁尔在其《技术社会》一书中就指出,技术的发展通常会脱离人类的控制,即使是技术人员和科学家,也不能够控制其所发明的技术。如今,GPT 的飞速发展似乎已初步验证了埃鲁尔的预言。/ n( s; i5 Q, b, q- n
以 GPT 为代表的大模型背后的 " 算法黑箱 " 更是人类无法及时应对的隐患,自媒体差评给出了一个形象的比喻," 你只知道给它喂了一个苹果,但它能还你一个橘子 ",这是怎么发生的,开发的它的人也无法解释,甚至无法预测它输出的结果。
$ R4 h2 W s1 T( LOpenAI 创始人 Sam Altman 在接受 MIT 研究科学家 Lex Fridman 采访时就坦言,从 ChatGPT 开始,AI 出现了推理能力,但没人能解读这种能力出现的原因。就连 OpenAI 团队也没有搞懂它是如何进化的,唯一的途径是向 ChatGPT 提问,从它的回答中摸索它的思路。: l- E4 N+ L/ ^ t6 s3 {4 S
可见,数据如果是作恶者喂的,算法黑箱又难以破解,那么 AI 的失控就会成为自然而言的结果。
! G7 G3 |5 [, A6 h将 " 野兽 " 关进笼子
: A3 m3 ~( Q* l2 q0 p5 P* m0 r. W+ J人工智能作为生产力革命的 " 火种 ",我们无法对其说不。但前提是,先将 " 野兽 " 关进笼子里。+ j3 g4 W; U+ }- K7 f0 v
3 月 30 日,Sam Altman 在推特上认同了对人工智能监管的重要性,他认为,AGI 的未来需要我们做好三个必要性的准备:
& U4 i" h& ~' e, g) C
6 B M0 Z$ D3 `8 @0 }& A( y$ _7 N' |% Q$ ~# b
7 P# l) L/ H+ H% C( A% GSam Altman 的 AGI 三建议- R5 m% ?; I, W+ Z- u/ r0 q
建立一个安全可控、可监管的环境,以确保 AI 在造福人类的同时不会伤害人类利益,这正在成为行业共识。
3 V! D3 L, o5 m# ]; b( f7 j" W已经有对此从技术层面上改进。今年 1 月,OpenAI 的前副总裁 Dario Amodei 标识,正在测试新型聊天机器人 Claude。与 ChatGPT 采用的人类反馈强化学习不同,Claude 基于偏好模型而非人工反馈来进行训练,即通过制定规范化的原则来训练危害较小的系统,从而在根源处减少有害、不可控的信息的的产生。
( J0 y$ e, B# L6 u' b) EAmodei 曾主导 OpenaAI 的安全,2021 年,他对 OpenAI 在大语言模型技术还不够安全的情况下开始商业化而感到不满,他带领一批人从 OpenAI 离开并自立门户,创立了 Anthropic。8 s; m8 S; S1 b) L( B9 A/ j, {0 S
Amodei 的做法很像科幻小说家阿西莫夫提到的机器人定律——通过为机器人设定行为准则,来降低机器人毁灭人类的可能。( t) v D, j- v8 u0 d- f& u
仅靠企业力量制定人工智能的行为准则还远远不够,否则会陷入 " 又是裁判员、又是运动员 " 的问题中,行业内的伦理框架和政府层面的法律监管也不能再 " 慢吞吞 ",通过技术规则、法律法规来约束企业自设行为也是当下人工智能发展的重要课题。
, p' Q6 S3 ], f& w* N在对人工智能立法层面,目前还没有一个国家或地区通过专门针对人工智能的法案。
" ]7 _+ N- h! u7 H) w% x2021 年 4 月,欧盟提出了《人工智能法案》,目前仍在审议阶段;2022 年 10 月,美国白宫发布了《人工智能权力法案蓝图》,该蓝图并不具有法律效力,只是为监管机构提供了一个框架;2022 年 9 月,深圳通过了《深圳经济特区人工智能产业促进条例》,成为全国首部人工智能产业专项条例;2023 年 3 月,英国发布《人工智能产业监管白皮书》,概述了针对 ChatGPT 等人工智能治理的五项原则。
! M/ l; {: M& W* g/ I就在 4 月 3 日,中国也开始跟进相关人工智能的规则建立——科技部就《科技伦理审查办法 ( 试行 ) 》公开征求意见,其中提出,从事生命科学、医学、人工智能等科技活动的单位研究内容涉及科技伦理敏感领域的,应设立科技伦理 ( 审查 ) 委员会。涉及数据和算法的科技活动,数据处理方案符合国家有关数据安全的规定,数据安全风险监测及应急处理方案得当 : 算法和系统研发符合公亚、公正、透明、可靠、可控等原则。
- @, f# s: j8 j/ j& M在 ChatGPT 引发生成式大模型研发的爆发式增长后,监管有意加快节奏。欧盟工业政策主管 Thierry Breton 在今年 2 月表示,欧盟委员会正在与欧盟理事会和欧洲议会密切合作,进一步明确《人工智能法案》中针对通用 AI 系统的规则。! P, {" |3 |9 o% U* l- V
无论是企业、学界还是政府,已经开始重视人工智能的风险,建立规则的呼吁与动作出现了,人类并不准备温和地走进 AI 时代。
/ i0 P+ ~( |' i: O% |' q更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体 App |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|