|
|
0 R7 l5 ~# p$ J- @+ T
- y' i, D. b' d) A新智元报道
. L. a% F1 u) r8 S7 H+ J1 ^( _编辑:编辑部
* V6 J# p0 g% r( p! e【新智元导读】入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。5 \8 Q, _1 F" g; F* L' |
一觉醒来,整个科技圈惊掉了下巴!!!
4 G U% M" l" L5 q
# J. K( _+ D! s深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。- @$ G* C* B K) G
( j' \; C- v1 L* s) F2 `1 F, r
& @( P! b/ S2 X- f
% F2 F8 w5 N0 f) m& C- \
为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。 7 Y" H& }$ P; K
纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!
0 L% h; c& [, ?" [/ G, n而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对自己的毕生工作,感到非常后悔。」& _7 W0 O. l: B3 ]1 v
如今,距离Hinton入职谷歌,刚好十年。 x: @3 T1 q4 N) ^, [+ }
, g1 F2 v7 Z2 U6 t. P; k; @/ E
8 u* p: H4 Y2 o6 T& P/ M9 P
对于Hinton此举,有人甚至劝说,应该将关注人工智能安全常态化,而不必辞去工作。
4 v/ g/ X* |4 I6 [2 k+ d R" \. p# L+ D0 {4 b/ s6 E5 y7 W
' L: a4 F! z' B' a
这更应该是你留下来的理由。因为世界是不会停止的,像你这样的伟大人物应该坚持下去,并将人工智能发展的更好。* b8 X) g! {: M' C! m
2 U4 X( n: q4 `, n$ [; Y- V
5 Y% o% ]) y1 \' C% W
你应该劝说你的学生Yann LeCun和Ilya Sutskever。' X- V. ~2 P2 E
值得一提的是,ChatGPT背后真正的英雄正是OpenAI的联合创始人兼首席科学家Ilya。
7 |# p7 \" o& q: v
3 m! [ L: z- P0 S6 f3 K7 o# b" i4 B b: \! m8 v. r% t
AI「关键时刻」,人类控制不住了
& f0 s3 k$ q3 u8 |! l! U, a被称为「人工智能教父」的Geoffrey Hinton,一直都是该领域最受尊敬的先驱之一。
) m. u" \8 T. r) U7 d
* h. E# c% ?+ o: e
3 ]5 f' k5 K" k7 |4 H) `而Hinton提出离职的时间,正是在此之后的4月份。
2 o: H0 j' F0 R l2 W5 L, u9 k: a
F: `1 v: Z, Z- X! `+ \7 d* J
* k' }7 [) n. @, R4 O8 C, C) {' ]从他的推特上可以看出,无论是最近GPT-4等超强AI引发的巨大争议,还是谷歌高层的剧烈动荡,Hinton都始终保持缄默,不发一言。; q3 }( {! r! c8 p
许多人关注着这位人工智能教父的态度。' U3 s. r. J& s( E7 }
在CBS的一次采访中,Hinton表示「我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。」
6 W" ^& V! S4 x$ b# \' f
0 C: w5 Y% z }! @. @/ R+ _ q9 j2 \, R( {8 `* s! h
从人工智能的开创者到末日预言者,Hinton的转变,也标志着科技行业正处于几十年来最重要的一个拐点。1 [9 u2 G# V+ q7 }+ @2 Z3 g" U) T& L
先驱的沉痛反思,让我们终于不能再掩耳盗铃,假装没有看见AI可能给人类社会引发的深刻改变和巨大危机了。; Z/ _" M$ s) A. E8 r! P+ \
盖茨等许多大佬认为,ChatGPT可能与上世纪90年代初网络浏览器一样重要,并可能在药物研究、教育等领域带来突破。% @' {0 Q9 o+ y
与此同时,令许多业内人士不安的是,他们担心自己所做的研究,正在向外释放某种危险。
) T) _5 g: {0 u) C* h$ q( \因为生成式人工智能可能已经成为产生错误信息的工具。并在未来的某个时候,可能会对人类构成威胁。
% i8 |2 \+ {7 y
4 T/ W- Q0 t, w& s
9 ]) u6 e5 q, \0 m( b% |( O- k/ j在Hinton看来,如何防止坏人利用它做坏事,我们还未能找到方法。 P+ a6 J8 r( e8 g1 K
在3月底呼吁暂停超强AI六个月的公开信发出几天后,人工智能促进协会的19位领导人也发布了公开信,警告AI的风险。
( l5 b' V7 u! s' C! y2 h& V+ |" O, L其中就包括微软的首席科学官Eric Horvitz,而微软已在一系列产品中(包括Bing搜索引擎中)部署了OpenAI的GPT技术。9 M( E0 ]3 q; e6 ^: M
在喧嚣的反对浪潮中,人工智能教父Hinton却并未在这两封信上签名。
0 h7 M- N |# n4 t- n# ]他说,自己在辞去工作之前,并不想公开批评谷歌,或其他公司。
) w% o+ P. s) V1 D" t忍到上个月,Hinton终于下定决心,通知谷歌自己即将辞职。! U0 y; J- k- Y g- A) B D
选择离职谷歌后,Hinton终于可以畅所欲言地谈论AI的风险了。
0 l; d2 t: v; M6 r; Z0 g) X# x- A: ?* C! J* W& Q1 Z3 \$ U
我对我的毕生工作,感到十分后悔。 我只能这样安慰自己:即使没有我,也会有别人。
+ L$ T7 q& Q! Y& O0 `- T) z) X2 R; o R# c l k! Q
% N* ^2 t6 E% s9 M5 {5 f* O上周四,他与谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了电话,但他表示不便透露此次谈话的细节。
: ~1 @- M- A) d, y作为一家大公司,谷歌对于AI的态度一向保守,甚至保守到,眼睁睁看着自己在聊天AI机器人之战中被甩在后面。
1 V: f" G5 S& N4 @+ d0 ^1 X( D( x; t早在2015年,谷歌的图像识别AI曾将黑人标记为「大猩猩」,招致的批评让谷歌成为惊弓之鸟。 H/ j2 x" {$ I0 M3 \/ T2 S
在OpenAI推出Dall-E 2、名震全球之前,谷歌就有类似模型,但并没有发布,因为谷歌认为需要对AI生成的内容负责。
# V$ \0 i6 O& Y; z8 S, d+ L而早在2021年,谷歌就已有了类似ChatGPT的LaMDA聊天机器人,但谷歌始终未发布。直到2022年11月底,OpenAI凭ChatGPT占尽风头。) E3 K, U' ]- o3 b4 J6 l
如今,谷歌首席科学家Jeff Dean在一份声明中表示:「我们仍然致力于对人工智能采取负责任的态度,我们正在不断学习了解新出现的风险,同时也在大胆创新。」
$ ? R& x' r. f/ T/ a$ H开启了历史,也见证了历史5 R% p6 s1 l' p6 I+ |) O. I
1972年,Hinton在爱丁堡大学开始了他的研究生生涯。5 n' d1 E# P# ~5 |& Q
在那里,他首次开始研究神经网络——一种通过分析数据来学习技能的数学系统。
# K; A- {7 e% D. e# C. G* p当时,很少有研究人员相信这个观点。但这成了他毕生的心血。3 O/ E7 X' o, @
/ z4 [3 C* x3 O0 o' J1 t9 p* D
" E7 `7 L1 w1 Z2 D- `2012年,Hinton和他两名学生Ilya Sutskever和Alex Krishevsky建立了一个神经网络,可以分析数千张照片,并自学识别花、狗和汽车等常见物体。5 H' C: T0 \5 b. A% {; p
神经网络成为他与两名学生共同创建的公司DNNresearch背后的突破性概念,该公司最终在2013年被谷以4400万美元收购。: E* t8 t* S- Q& B$ x% k' L
2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因对神经网络的研究获得了2018年的图灵奖,而神经网络正是ChatGPT、Bard等聊天机器人背后的奠基性技术。
5 v& c; D4 O- ?7 p; z( W
. B2 @9 r+ o. y8 w: n: M: K( ]: z* s) x
而Hinton的学生Ilya Sutskever,也在后来成为OpenAI首席科学家。
' |( z1 _. h& N( |
/ n7 c* i, W3 I7 \# N
2 a/ b, R8 ^9 I: }' |大约在同一时间,谷歌、 OpenAI和其他科技公司开始构建从大量数字文本中学习的神经网络。& c$ L& w( l( A4 D
那时的Hinton认为,这是机器理解和产生语言的一种强大方式。当然不得不承认,比起人类处理语言的方式没,神经网络还是力不能及。
. m: L: @/ m* l2 s$ a) e2022年,随着谷歌和OpenAI 利用大量数据构建超强AI。
. p( D; T1 F( W+ uHinton的观点发生了重大转变。他仍然认为这些系统在某些方面不如人类的大脑,但它们在其他方面正在超越人类的智力。4 d* c! D! L$ B1 D6 N \
GPT-4发布当天,Hinton曾表示,
, j3 r8 h! Z' P$ Z0 A- A( a/ x# G! O7 T v: r
毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。 $ M5 c. i, N- D
! f6 _+ L+ t) i) t+ d1 { {$ U4 Q s# k
Hinton称赞的背后,让许多人看到超强人工智能系统的智力已经非同寻常。) L& A o% g- L! M0 G$ d
对此,Hinton谈到人工智能技术时表示,随着科技公司改进人工智能系统,它们变得越来越危险。
1 A& G' D$ [. W看看五年前和现在的情况,如果还要继续传播这项技术,后果就太可怕了!6 E0 j) A8 [3 u% i! [. r. T- R
在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技术上谨慎的态度。
( b& n8 p6 Y6 x T/ W- M1 D他表示,直到去年,谷歌一直扮演着这项技术的「合适管家」角色,谨小慎微地不去发布可能造成危险的AI。0 t! Q# x- G( ^/ E9 A( a
这恰恰解释了,为啥谷歌在这波人工智能浪潮中落后的原因。' X7 @" A8 q: f* j2 M" O
但是现在,微软为其必应搜索引擎接入GPT-4的能力,已经让谷歌焦急地不得不做点什么。5 J a& `/ U+ [0 u; i( x" N
Hinton称,科技巨头们正在进行一场可能无法阻止的竞争。7 ^! V1 A- N( M
' ?* `, V* N5 j' \
+ n9 O$ d+ _1 _% ~1 I他眼下担心的是,互联网上将充斥着虚假的照片、视频和文本,人们也无法去辨别什么是真实的,什么是虚假的内容。 O& q# q0 V) ~% e+ ^/ J0 y. f/ f
他甚至还担心,人工智能技术迟早会颠覆就业市场。
/ w# X0 g+ F1 v1 z8 J如今,像ChatGPT这样的聊天机器人往往能很好地辅助人类工作,甚至取代律师助理、私人助理、翻译、以及其他处理死记硬背任务的人。& A' }) a$ |. S# v2 ~3 C2 _1 Y5 w
未来,他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。) n( y O; n2 u. y7 L- j1 D9 z& A
人工智能系统不仅可以生成代码,而且自己运行代码。前段时间爆火的Auto-GPT就是一个非常典型的例子。
q9 p; x2 k7 r. _5 ^$ a1 g* T( J
' a3 ~$ p/ u9 w3 v8 B
! l5 B" r4 F; e$ M+ B4 H/ |1 }他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。1 e+ A/ }. C, y% f" Z
上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。4 b% g# A/ w0 v! d# N* j
. E% q1 f8 j6 C3 D0 C
9 A( y1 ]" G! H; [6 a8 _* v6 S在一些人看来,类似的系统实际上比人类更聪明。Hinton表示自己曾经认为,这太离谱了,最起码要30-50年,甚至更久才能实现。
. U& G3 }' F3 V% @, A, |% K. {8 |+ l
而现在,我不再那么想了。
. `& G8 B; ~/ h, D% w6 a5 c3 Y3 O3 [4 J许多其他专家,包括Hinton的许多学生和同事,说这种威胁还仅是一种假设。
, k* O! ~6 P( O5 r0 v4 ]; \' v他指出,谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!" {) `9 G* i- z& s. j1 r$ n$ T* V
$ {0 |+ D5 G4 L/ {9 J! e
' M$ u1 |3 ?' ?" ` D& Y! M# Q但他表示,这也不是绝对的。与核武器不同,我们无法知道哪个公司或国家,是否在秘密研究这项技术。
' [& c0 ]% ], s8 ?% s2 t0 Y网友热议/ e& a" m! d, D/ J( k; `" S9 H( G
有网友认为,Hinton对于的AI的看法太悲观了。
0 N' C+ s0 D6 B/ j7 ]5 X我见过的ChatGPT积极应用案例远多于消极的,但现在的趋势是把AI描绘成邪恶的炼金术。这些担忧是合理的,我们会学习,我们会纠正它,然后我们会继续前进。
2 ^: v$ d, z, h
4 D& R1 ?4 t$ X: `& R8 V! j
+ M) e% o. i Q! E3 j甚至有网友将其比为天网,但我们还不能将其关闭。「人工智能就像潘多拉的魔盒一样,一旦打开就无法关闭。」, `# |' f9 j$ o* E3 i, }
0 S7 q) N2 ~ G' i N* H: V/ V- D/ k% o2 ^( \/ y k
还有人对谷歌「负责任」这一观点提出异议:4 Z. C- R; N. p6 R1 h
-使用Breitbart训练AI模型;-让负面信息在YouTube上大肆传播(反过来又为推荐算法提供依据);-散布有关安全和隐私的科学假信息;-开除专家$ H) r$ _. `" j/ ~% @# ]( t# n3 M* i
! l ~+ Z2 z: C. I- z7 y e+ y8 J3 S% {1 c$ l
谷歌大脑和DeepMind合并这一事,与此相关吗?
8 i3 k, X$ E9 J; z. @
& j/ z; [2 [( e" _# c! h( D* N5 y
& s$ e+ a) D: \7 d6 C还有网友发出疑问,连Hinton都离职了,下一个会是?
6 Y( D! y% y0 p1 |+ i( a8 W
. J: r* b+ F7 @
( K8 p8 H5 `6 G参考资料:
0 P. c) B4 t* J5 b6 }3 Chttps://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|