|
|
. ?3 k; x$ r+ K' ~ U1 ~2 n
' ?: A2 G5 D6 c+ c5 k4 v
新智元报道
/ N( n3 ~7 X: O7 e* s3 Z x编辑:编辑部0 j( K0 ~, X- j, U4 k
【新智元导读】入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。! `' e( V/ y t6 G
一觉醒来,整个科技圈惊掉了下巴!!!6 I( G" D( k) ?8 A8 C
2 O! G5 M3 k+ l W- j深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。
% e" c, z t9 q! L9 E* K
4 @# ?0 @: [0 h6 b0 E$ Z* n, C; a( Z5 |" q! E1 R
* y1 M0 H; J O0 w
为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。 0 y/ `9 H$ I" A( J E* j+ g
纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!
0 H1 I' _! a$ D1 R& h而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对自己的毕生工作,感到非常后悔。」6 O$ B: H9 ~; s/ Y8 x4 n
如今,距离Hinton入职谷歌,刚好十年。9 `! d' J3 q3 Z& n5 D+ f
+ O: e' p, ~2 Q7 F
! R$ n: d# K. a7 G3 Y4 `3 T" a对于Hinton此举,有人甚至劝说,应该将关注人工智能安全常态化,而不必辞去工作。
0 F* d w: l6 i3 j9 ?& [; o+ z
' l5 e; `7 K) E
2 S7 `4 f' ^% m( o8 ~这更应该是你留下来的理由。因为世界是不会停止的,像你这样的伟大人物应该坚持下去,并将人工智能发展的更好。5 C2 n* D' B* C) _
# [/ d( M7 E: p: Q: Y! X
' w6 |/ q. @/ \& s你应该劝说你的学生Yann LeCun和Ilya Sutskever。
/ O& d6 `- j V( g- {/ E值得一提的是,ChatGPT背后真正的英雄正是OpenAI的联合创始人兼首席科学家Ilya。
1 L7 c& C6 K% w1 T# }, ?; g
# ^5 q! ?+ S' Z. O& J
7 d. O0 H5 N; ]; g3 xAI「关键时刻」,人类控制不住了
/ T! C1 c' y1 @) \ Z8 d被称为「人工智能教父」的Geoffrey Hinton,一直都是该领域最受尊敬的先驱之一。' z$ U8 s% x0 h# s
F# h# T- y. {, G. @
9 b2 ]* O1 j" U8 K& a. _( Z而Hinton提出离职的时间,正是在此之后的4月份。' W+ B7 _1 w# D( V1 f$ {
0 Q" Z* F2 l3 Z- y4 r E+ Y9 ^: z8 @ c" @
从他的推特上可以看出,无论是最近GPT-4等超强AI引发的巨大争议,还是谷歌高层的剧烈动荡,Hinton都始终保持缄默,不发一言。! f! }- i9 f( Q" U2 e7 Y8 |2 k
许多人关注着这位人工智能教父的态度。' P* v3 a8 t2 E" E+ c
在CBS的一次采访中,Hinton表示「我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。」8 x0 I4 |, I& E: Z6 j
# h( W1 O6 x" `/ z3 T
/ h1 o+ t7 t& d& ]& I! _7 V
从人工智能的开创者到末日预言者,Hinton的转变,也标志着科技行业正处于几十年来最重要的一个拐点。
& \+ x8 b! @5 o$ X3 k先驱的沉痛反思,让我们终于不能再掩耳盗铃,假装没有看见AI可能给人类社会引发的深刻改变和巨大危机了。 q Z$ T# t7 V
盖茨等许多大佬认为,ChatGPT可能与上世纪90年代初网络浏览器一样重要,并可能在药物研究、教育等领域带来突破。; i; X9 `6 A9 v5 K
与此同时,令许多业内人士不安的是,他们担心自己所做的研究,正在向外释放某种危险。
3 G P1 h0 P: B8 _7 {3 N因为生成式人工智能可能已经成为产生错误信息的工具。并在未来的某个时候,可能会对人类构成威胁。
" J; R2 c7 k3 |5 d. H4 R. v8 b- Q6 |5 u ~5 B
& e: x$ ?$ I9 v6 _5 V9 `$ I
在Hinton看来,如何防止坏人利用它做坏事,我们还未能找到方法。% k u! K8 `( B) L7 b$ J$ p
在3月底呼吁暂停超强AI六个月的公开信发出几天后,人工智能促进协会的19位领导人也发布了公开信,警告AI的风险。
& L2 {# M9 w( {6 _+ Q0 t其中就包括微软的首席科学官Eric Horvitz,而微软已在一系列产品中(包括Bing搜索引擎中)部署了OpenAI的GPT技术。& u1 L( r w Z5 g
在喧嚣的反对浪潮中,人工智能教父Hinton却并未在这两封信上签名。( W- Y9 t1 _8 b' C
他说,自己在辞去工作之前,并不想公开批评谷歌,或其他公司。
- o* O' l6 s v2 z& V0 C忍到上个月,Hinton终于下定决心,通知谷歌自己即将辞职。
. l3 S: j% S% c5 c# m选择离职谷歌后,Hinton终于可以畅所欲言地谈论AI的风险了。1 [' U3 n) u- R: J! k4 D- X
. B4 x/ h' X, V' C, k, i( v
我对我的毕生工作,感到十分后悔。 我只能这样安慰自己:即使没有我,也会有别人。
, h/ T! }- r- r
3 \* r5 @& O- K% P% y! K
! e1 q$ G m, v, S! B) I上周四,他与谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了电话,但他表示不便透露此次谈话的细节。1 U( J$ Y- t n
作为一家大公司,谷歌对于AI的态度一向保守,甚至保守到,眼睁睁看着自己在聊天AI机器人之战中被甩在后面。! k1 ]4 I& p$ {
早在2015年,谷歌的图像识别AI曾将黑人标记为「大猩猩」,招致的批评让谷歌成为惊弓之鸟。
# e) Q" f5 o+ Q' Q3 ]在OpenAI推出Dall-E 2、名震全球之前,谷歌就有类似模型,但并没有发布,因为谷歌认为需要对AI生成的内容负责。
9 r1 ^" O6 O# g而早在2021年,谷歌就已有了类似ChatGPT的LaMDA聊天机器人,但谷歌始终未发布。直到2022年11月底,OpenAI凭ChatGPT占尽风头。# J$ s* d4 L5 G; H. m2 X- }
如今,谷歌首席科学家Jeff Dean在一份声明中表示:「我们仍然致力于对人工智能采取负责任的态度,我们正在不断学习了解新出现的风险,同时也在大胆创新。」# Z% r& o. j+ N+ _
开启了历史,也见证了历史
0 [) d4 r2 |# n8 _1972年,Hinton在爱丁堡大学开始了他的研究生生涯。
' \0 m2 l$ k! b7 @) w6 Q6 H在那里,他首次开始研究神经网络——一种通过分析数据来学习技能的数学系统。( D# k1 p; v! V/ N3 H* @* N. x
当时,很少有研究人员相信这个观点。但这成了他毕生的心血。# k1 U2 `6 f! q4 ]3 n9 G
7 C7 T# ?4 T% R @/ w- ^0 i9 G: w9 y% m! s3 n: k
2012年,Hinton和他两名学生Ilya Sutskever和Alex Krishevsky建立了一个神经网络,可以分析数千张照片,并自学识别花、狗和汽车等常见物体。
9 t) z( d' _4 ]神经网络成为他与两名学生共同创建的公司DNNresearch背后的突破性概念,该公司最终在2013年被谷以4400万美元收购。8 a3 D- b# H& r
2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因对神经网络的研究获得了2018年的图灵奖,而神经网络正是ChatGPT、Bard等聊天机器人背后的奠基性技术。( |4 Z# `0 ]. K* p' \
! {0 N% P6 y A3 L, b& J& K3 H
7 `3 M5 ?9 M3 N0 S M8 b+ Z
而Hinton的学生Ilya Sutskever,也在后来成为OpenAI首席科学家。! g9 t O5 U. Q- L" o e
9 f: N. G6 m$ s* z6 d
" E* N+ }' W% ^6 j) }* X
大约在同一时间,谷歌、 OpenAI和其他科技公司开始构建从大量数字文本中学习的神经网络。9 O$ M+ z* v% H% X) r* m2 p
那时的Hinton认为,这是机器理解和产生语言的一种强大方式。当然不得不承认,比起人类处理语言的方式没,神经网络还是力不能及。
/ a( w0 a3 L4 v9 X* `1 n2022年,随着谷歌和OpenAI 利用大量数据构建超强AI。
" ~/ k) W3 U; G" c/ y0 C2 RHinton的观点发生了重大转变。他仍然认为这些系统在某些方面不如人类的大脑,但它们在其他方面正在超越人类的智力。( }1 }' e$ W& k5 M0 q. M
GPT-4发布当天,Hinton曾表示,9 L" Z) o/ t5 {( U B
, N. m) u( T+ w% w
毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。
) Y: q1 Z! B9 B# G, A0 T& S/ [- q Y9 e
% G( A3 ?9 |7 Z6 W" w9 {5 s* f9 @
Hinton称赞的背后,让许多人看到超强人工智能系统的智力已经非同寻常。
, ]$ t% F9 ^- ^9 `* p9 [) w对此,Hinton谈到人工智能技术时表示,随着科技公司改进人工智能系统,它们变得越来越危险。
+ E: \4 c* A0 g7 {& f看看五年前和现在的情况,如果还要继续传播这项技术,后果就太可怕了!9 j t- z1 c1 Z7 r
在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技术上谨慎的态度。
7 M/ f* q/ z! X6 q他表示,直到去年,谷歌一直扮演着这项技术的「合适管家」角色,谨小慎微地不去发布可能造成危险的AI。7 T& }" q3 U6 v. _
这恰恰解释了,为啥谷歌在这波人工智能浪潮中落后的原因。4 O6 B! U7 G! q( ^$ \. n
但是现在,微软为其必应搜索引擎接入GPT-4的能力,已经让谷歌焦急地不得不做点什么。) P5 w. A& E% B* |8 D; @1 J' M, h# Q- p [
Hinton称,科技巨头们正在进行一场可能无法阻止的竞争。
4 ]4 Z! B, E# Z' f) w4 i, U6 K3 h% L: k
4 n$ j4 t8 I/ f0 c他眼下担心的是,互联网上将充斥着虚假的照片、视频和文本,人们也无法去辨别什么是真实的,什么是虚假的内容。, Z5 J2 C3 h7 `$ a* A l o
他甚至还担心,人工智能技术迟早会颠覆就业市场。3 o& z/ T' U; Q6 [% Y
如今,像ChatGPT这样的聊天机器人往往能很好地辅助人类工作,甚至取代律师助理、私人助理、翻译、以及其他处理死记硬背任务的人。; i. [# A8 L- u
未来,他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。& P9 t* U6 B1 ^' r% [* D
人工智能系统不仅可以生成代码,而且自己运行代码。前段时间爆火的Auto-GPT就是一个非常典型的例子。
: t- B7 \! O( Y, `
8 Q+ A7 t9 ~& Z& q0 Z, {& V7 C4 F/ i! U# ~
他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。
- c$ A7 p0 y f% a% \/ K上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。8 ]0 q: \& B) n5 s/ f( x
/ i3 W) d P% V" N$ R$ b
5 j/ [5 j0 Z6 l- _0 r" Z% }
在一些人看来,类似的系统实际上比人类更聪明。Hinton表示自己曾经认为,这太离谱了,最起码要30-50年,甚至更久才能实现。0 ~. L# |0 j9 a4 x: J& s: P5 ^$ x
6 h8 q% D% x, W1 H. _# {. U# Z
而现在,我不再那么想了。 / [9 m# r8 I3 T0 ]: k
许多其他专家,包括Hinton的许多学生和同事,说这种威胁还仅是一种假设。
& B5 s2 l$ u6 o, o! E" I+ p7 z他指出,谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!
. P" U2 n ?' C6 I9 ` S2 K! I- l. L' s8 u) u4 g9 ~& U& Z
& g( E9 [: ^' F: b& h' @+ ]0 t但他表示,这也不是绝对的。与核武器不同,我们无法知道哪个公司或国家,是否在秘密研究这项技术。
; ]( ~( A3 |; v$ E. m" ?% S网友热议
- B: J7 N& {8 [+ E: _- i8 n有网友认为,Hinton对于的AI的看法太悲观了。
2 N' B3 k& _' o1 P! _5 J @我见过的ChatGPT积极应用案例远多于消极的,但现在的趋势是把AI描绘成邪恶的炼金术。这些担忧是合理的,我们会学习,我们会纠正它,然后我们会继续前进。2 o* w. h: p- {) m8 x- P
4 k% a4 J+ L0 G' G0 ~9 ^0 r
8 C b$ m; B2 [& _& b甚至有网友将其比为天网,但我们还不能将其关闭。「人工智能就像潘多拉的魔盒一样,一旦打开就无法关闭。」% `( J7 l+ Y/ A4 v0 g2 M
( C8 l# |, M1 E3 \5 s
' w) m( o8 M1 Z1 J2 g
还有人对谷歌「负责任」这一观点提出异议:
$ } i) p# Y$ |" `) L-使用Breitbart训练AI模型;-让负面信息在YouTube上大肆传播(反过来又为推荐算法提供依据);-散布有关安全和隐私的科学假信息;-开除专家
9 U1 i5 v+ o2 |
; R% {0 _3 k/ ?7 k; e) M
! P, V$ E3 F% R' ^谷歌大脑和DeepMind合并这一事,与此相关吗?1 o6 M$ @1 M R0 m: W: o
3 R: |, S4 k, L; d$ E T
0 `, d% G8 Y; }( T' O2 u' q; t还有网友发出疑问,连Hinton都离职了,下一个会是?7 A6 K5 m* @% K, I
8 Z" U- L2 `+ E& c+ b5 I, l/ R3 E8 S
参考资料:
1 r6 D( i7 s: _https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|