|
3 F+ {$ U, ~% B1 e# a l0 B0 s
, c1 c$ W: N0 k+ X
新智元报道
' z/ p' }4 W# ]0 z1 L/ C8 K1 D4 x编辑:编辑部8 q& W7 v' S8 r8 D2 P/ r
【新智元导读】入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。
- T1 H2 S* P, ]) o+ Q1 J: M一觉醒来,整个科技圈惊掉了下巴!!!
5 {, S. n8 W( |& w& [. @3 [* j1 S$ w7 A
深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。) V: I2 z+ ]: d. X' V6 `- ~* ~" {
5 h4 c2 Z2 B* b9 Z
0 B+ x9 v5 j- F$ ^! r1 b/ |
) f9 l9 m! ~3 D. D3 h为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。
9 y! z8 w+ R& n# N! _4 o- a纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!& T; [$ p6 h7 f2 @' K
而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对自己的毕生工作,感到非常后悔。」
+ _- I7 \$ R2 B7 d. A0 Y如今,距离Hinton入职谷歌,刚好十年。
4 U2 _6 Q* c# a" w+ s. U% F
9 v$ \4 s7 J0 r; x) k+ ^$ @& |0 x6 Q3 F
对于Hinton此举,有人甚至劝说,应该将关注人工智能安全常态化,而不必辞去工作。
7 y8 Z7 y: a% |; s2 |% b7 n
* H9 U. W5 M u$ ^0 E& u9 q" f) x9 w. N# {+ c+ p1 P4 Q7 I
这更应该是你留下来的理由。因为世界是不会停止的,像你这样的伟大人物应该坚持下去,并将人工智能发展的更好。
S( k" r( z6 y2 o8 N, M q: t3 d% l! K
( l: B& u! E& o- h( ^
你应该劝说你的学生Yann LeCun和Ilya Sutskever。, h6 _$ S/ w1 U2 s2 ~, \
值得一提的是,ChatGPT背后真正的英雄正是OpenAI的联合创始人兼首席科学家Ilya。1 ^% V; r9 H4 ^7 u: r/ s7 r6 ?' p
" y7 H1 ], l2 n4 z( c
* S. W7 V& S ?4 o& XAI「关键时刻」,人类控制不住了4 U2 |( ]5 a1 ]
被称为「人工智能教父」的Geoffrey Hinton,一直都是该领域最受尊敬的先驱之一。
1 V6 T, r- K" `7 |! T& I7 i7 p; _1 Y$ F% n6 [" i
( H' K/ d; w7 V2 B+ O1 s而Hinton提出离职的时间,正是在此之后的4月份。' [$ e# ~" P" T+ ]6 P
j' C; `; v* `) }5 P0 p5 p3 p5 S% L* C. b: ~
从他的推特上可以看出,无论是最近GPT-4等超强AI引发的巨大争议,还是谷歌高层的剧烈动荡,Hinton都始终保持缄默,不发一言。. }8 A+ E E* s5 A& _
许多人关注着这位人工智能教父的态度。
- m9 g. Y" I! v5 j" N* I" C. ?在CBS的一次采访中,Hinton表示「我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。」
+ U8 W' Y8 j: j3 @ n( ] A
8 D L* s- Q0 L7 r& d$ M% H$ Z: ~ `
从人工智能的开创者到末日预言者,Hinton的转变,也标志着科技行业正处于几十年来最重要的一个拐点。
) V7 E; h, d; L% D# @+ a先驱的沉痛反思,让我们终于不能再掩耳盗铃,假装没有看见AI可能给人类社会引发的深刻改变和巨大危机了。" Q& ]8 _ G) b/ W* R
盖茨等许多大佬认为,ChatGPT可能与上世纪90年代初网络浏览器一样重要,并可能在药物研究、教育等领域带来突破。5 Z& |) t w$ W. g1 G8 C4 |+ l U
与此同时,令许多业内人士不安的是,他们担心自己所做的研究,正在向外释放某种危险。
' C) K+ m8 z( B* o& i& ?因为生成式人工智能可能已经成为产生错误信息的工具。并在未来的某个时候,可能会对人类构成威胁。
4 T" j4 B+ G$ g" ]( n; B$ o/ [5 `1 e+ x
6 F5 ?- X' `* p1 o q2 l A
在Hinton看来,如何防止坏人利用它做坏事,我们还未能找到方法。
2 u# P [3 h5 C' Q* o在3月底呼吁暂停超强AI六个月的公开信发出几天后,人工智能促进协会的19位领导人也发布了公开信,警告AI的风险。
3 ]5 V- J% O1 l7 s$ r其中就包括微软的首席科学官Eric Horvitz,而微软已在一系列产品中(包括Bing搜索引擎中)部署了OpenAI的GPT技术。/ s: a3 {5 Q6 q, Y9 ~" `
在喧嚣的反对浪潮中,人工智能教父Hinton却并未在这两封信上签名。
& p. V" E/ }) g9 }3 K U他说,自己在辞去工作之前,并不想公开批评谷歌,或其他公司。# m5 ~; J. j! c: c4 S
忍到上个月,Hinton终于下定决心,通知谷歌自己即将辞职。
& Z/ k) j2 ]2 j1 B l$ Z选择离职谷歌后,Hinton终于可以畅所欲言地谈论AI的风险了。
$ P! f3 x. ~4 e3 ~# @ i) x) w2 z- S2 ]+ {- k
我对我的毕生工作,感到十分后悔。 我只能这样安慰自己:即使没有我,也会有别人。
9 d* }1 y& W1 ]' I; V! q
) j# i% {! R: R1 q" _ d) L# Z* i7 f m: O& d
上周四,他与谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了电话,但他表示不便透露此次谈话的细节。) o" P& X+ {3 U9 [" g7 ~8 r+ A
作为一家大公司,谷歌对于AI的态度一向保守,甚至保守到,眼睁睁看着自己在聊天AI机器人之战中被甩在后面。
) O) c& c6 b1 t& N+ s5 E/ G早在2015年,谷歌的图像识别AI曾将黑人标记为「大猩猩」,招致的批评让谷歌成为惊弓之鸟。+ b; f# z) P7 t# w3 x
在OpenAI推出Dall-E 2、名震全球之前,谷歌就有类似模型,但并没有发布,因为谷歌认为需要对AI生成的内容负责。: @; _+ O; C& M: p
而早在2021年,谷歌就已有了类似ChatGPT的LaMDA聊天机器人,但谷歌始终未发布。直到2022年11月底,OpenAI凭ChatGPT占尽风头。
$ @1 w# \7 o7 q0 Y1 b& [# d如今,谷歌首席科学家Jeff Dean在一份声明中表示:「我们仍然致力于对人工智能采取负责任的态度,我们正在不断学习了解新出现的风险,同时也在大胆创新。」
# W" x1 o4 ~ V" l. H4 r, Z, X! z开启了历史,也见证了历史
$ S9 D8 [# w( J1972年,Hinton在爱丁堡大学开始了他的研究生生涯。
$ Q" \1 j/ _) p' w! L2 w在那里,他首次开始研究神经网络——一种通过分析数据来学习技能的数学系统。* i9 H3 I1 s5 t5 H# W2 N
当时,很少有研究人员相信这个观点。但这成了他毕生的心血。/ a4 m( X& m( m3 J& t9 c. ?
2 y# Q* n9 v$ N
7 {* U# [. G# u Q$ O* |8 j; A8 Y v2012年,Hinton和他两名学生Ilya Sutskever和Alex Krishevsky建立了一个神经网络,可以分析数千张照片,并自学识别花、狗和汽车等常见物体。
' d; K! |& `- d8 a9 j神经网络成为他与两名学生共同创建的公司DNNresearch背后的突破性概念,该公司最终在2013年被谷以4400万美元收购。
% c1 [& F0 d0 T! y* `5 Z+ t2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因对神经网络的研究获得了2018年的图灵奖,而神经网络正是ChatGPT、Bard等聊天机器人背后的奠基性技术。
1 z) V' b; i" b' o: m- q/ G7 w; @+ E0 I' Q2 f
2 r0 ^( Z w+ k! L+ d而Hinton的学生Ilya Sutskever,也在后来成为OpenAI首席科学家。
- P' w5 Y1 u8 B0 a
* E, I- Q. o* y; y) l( t2 x' O
4 p! u7 \; P9 b2 A: V8 ~大约在同一时间,谷歌、 OpenAI和其他科技公司开始构建从大量数字文本中学习的神经网络。6 P' u' s8 y) R7 l2 B
那时的Hinton认为,这是机器理解和产生语言的一种强大方式。当然不得不承认,比起人类处理语言的方式没,神经网络还是力不能及。! \1 Y' m) h$ x
2022年,随着谷歌和OpenAI 利用大量数据构建超强AI。8 Q8 X+ V2 C: B; q
Hinton的观点发生了重大转变。他仍然认为这些系统在某些方面不如人类的大脑,但它们在其他方面正在超越人类的智力。
( U! ~; n( R5 V$ ZGPT-4发布当天,Hinton曾表示,
4 Z2 l4 W! Q: \# N- l* B# _- t" s
毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。
$ g: V( |- @6 Y1 V, w5 b/ w* u- S+ O. a5 v/ T. h5 U( Q
9 d* g) ^! X: L1 z) g, B/ AHinton称赞的背后,让许多人看到超强人工智能系统的智力已经非同寻常。 _6 s3 |9 r) L, t: D+ @
对此,Hinton谈到人工智能技术时表示,随着科技公司改进人工智能系统,它们变得越来越危险。
; E7 ]$ }4 a; {7 i看看五年前和现在的情况,如果还要继续传播这项技术,后果就太可怕了!
2 x: y1 m, d% l, z4 G* R在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技术上谨慎的态度。2 {! g# l' Y% e: t! G2 U" m0 _# o
他表示,直到去年,谷歌一直扮演着这项技术的「合适管家」角色,谨小慎微地不去发布可能造成危险的AI。
; N. j2 ~0 e9 `0 t9 }这恰恰解释了,为啥谷歌在这波人工智能浪潮中落后的原因。
/ Q1 ~7 X6 D& `但是现在,微软为其必应搜索引擎接入GPT-4的能力,已经让谷歌焦急地不得不做点什么。% p1 J5 |* l' N i
Hinton称,科技巨头们正在进行一场可能无法阻止的竞争。3 a4 Y% Q7 d4 ]2 I
# {7 Z( A) W+ m" z& }5 \1 L
4 g2 x" T# y' L1 Y他眼下担心的是,互联网上将充斥着虚假的照片、视频和文本,人们也无法去辨别什么是真实的,什么是虚假的内容。
7 q- G9 P; p- f! M他甚至还担心,人工智能技术迟早会颠覆就业市场。
$ K$ ]3 O; F3 R: N5 \* ]如今,像ChatGPT这样的聊天机器人往往能很好地辅助人类工作,甚至取代律师助理、私人助理、翻译、以及其他处理死记硬背任务的人。
& ]3 u9 Q( i' c* ^# v. J% c9 Y# e未来,他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。
. m1 S( n5 R! d' q人工智能系统不仅可以生成代码,而且自己运行代码。前段时间爆火的Auto-GPT就是一个非常典型的例子。
9 u! j! \% ^7 y& x5 o0 z2 n
- p0 [) h" w7 k8 l" D4 g9 ~, v: {( l+ `) `
他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。5 Q( N7 O& _ S" {* G" q1 H
上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。
' D# H7 H1 }) v$ B6 B9 ~+ _8 Y7 F# Y4 l' m3 S6 g3 P
, d5 _" j- N! @9 D& |在一些人看来,类似的系统实际上比人类更聪明。Hinton表示自己曾经认为,这太离谱了,最起码要30-50年,甚至更久才能实现。& i$ N$ }# I6 T; A
& V) u g. V1 J2 V3 `0 [而现在,我不再那么想了。 ( |" c+ W& w: p* U
许多其他专家,包括Hinton的许多学生和同事,说这种威胁还仅是一种假设。
1 C( G# k! e: I# t+ p% f* y他指出,谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!+ P! t* E, E' P$ w
( M# m% I5 h( f- h/ b
: x5 T1 c# t* f但他表示,这也不是绝对的。与核武器不同,我们无法知道哪个公司或国家,是否在秘密研究这项技术。6 B. Q# i2 A0 q o' ~% Y/ e: n* h
网友热议0 K6 k( y z8 B B8 D
有网友认为,Hinton对于的AI的看法太悲观了。* X( R4 X, C5 {# s7 @3 Z( |
我见过的ChatGPT积极应用案例远多于消极的,但现在的趋势是把AI描绘成邪恶的炼金术。这些担忧是合理的,我们会学习,我们会纠正它,然后我们会继续前进。1 M0 }& M# g3 ~" {/ i# H
6 d9 H+ G1 H' A6 R/ B# D
0 W( m0 R; D9 x& B# b: c/ y& `甚至有网友将其比为天网,但我们还不能将其关闭。「人工智能就像潘多拉的魔盒一样,一旦打开就无法关闭。」
$ R ]9 G" h% J2 `% `: k* L' g' p' I0 m
/ a2 t3 h) z" W! v u% s/ w6 D, p1 a还有人对谷歌「负责任」这一观点提出异议:0 Q: S' E5 Y& Q+ H
-使用Breitbart训练AI模型;-让负面信息在YouTube上大肆传播(反过来又为推荐算法提供依据);-散布有关安全和隐私的科学假信息;-开除专家
( G& m8 K. ?2 a" K' j
+ `/ z0 y1 m2 v5 w( g* i
6 ^9 B/ i9 P8 z! i2 o9 g& a! ], Y谷歌大脑和DeepMind合并这一事,与此相关吗?0 y: T+ f4 X) h# b9 @( S8 A
0 c3 p2 y! \% ?/ [0 o' C$ e# `/ o
* h$ C* c/ i# p$ K0 h- p3 G
还有网友发出疑问,连Hinton都离职了,下一个会是?
+ W# }/ P w/ u. u0 Q8 o$ \& ^3 ]) X* p0 K% J
- U6 V: U' t; ?' q5 L; v* e+ r
参考资料:1 m P" t0 R& U8 }
https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|