|
U7 L" r* U0 g) |! S
. @( _; E% y! b2 x) [0 H2 x
新智元报道) s r c0 ?. w0 {* |
编辑:编辑部& [% A# H6 o) j# _7 K2 d, H
【新智元导读】入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。5 |( `) S) x: I: W6 V" z
一觉醒来,整个科技圈惊掉了下巴!!!
" _+ t9 K$ ~3 }3 X/ P1 S% l# c
?; k( r% I* f. g1 e6 q ?深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。
' a( s6 s0 c2 O& x7 g/ s# Z! y# S( @
% Z r# S; H3 y5 v& g( S2 S
5 c. f' E# h! ^2 Z为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。 " ~! y5 Z2 c" w
纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!
' Y0 ^- D1 j+ \# q, W% e而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对自己的毕生工作,感到非常后悔。」
3 r6 T5 g. {/ w! {7 g# U" F. R0 @如今,距离Hinton入职谷歌,刚好十年。* ?9 [& \* `8 R9 z! m8 g- B
2 d; M- f& Z' x D* U
. Q( k9 t t3 N: b. p# j
对于Hinton此举,有人甚至劝说,应该将关注人工智能安全常态化,而不必辞去工作。
3 |; D$ Z- H- t3 B
, z) Q* j0 j7 Q( A8 P0 S- ~
& Y4 |/ A' U. ~. _2 a7 _这更应该是你留下来的理由。因为世界是不会停止的,像你这样的伟大人物应该坚持下去,并将人工智能发展的更好。
* v; G$ P8 P3 D6 x3 y8 P2 n1 F
9 j/ e& H+ `, n) Y0 [ n: U8 b9 W9 B& }* G: F4 r7 _
你应该劝说你的学生Yann LeCun和Ilya Sutskever。
' h, T- ]) X: C7 b% b& I t1 s值得一提的是,ChatGPT背后真正的英雄正是OpenAI的联合创始人兼首席科学家Ilya。- u4 u/ q, _8 q* [
( H) D3 U' o) _# M* P4 `# @
4 T' \' A8 b; C. d
AI「关键时刻」,人类控制不住了) w2 @) {+ [ `
被称为「人工智能教父」的Geoffrey Hinton,一直都是该领域最受尊敬的先驱之一。
! M( H3 l a1 @) u8 g9 r7 ~' r5 g1 m1 G: h' i; s# {6 @$ _* u
% x- }9 |' F+ `5 r! n/ ?) W" J而Hinton提出离职的时间,正是在此之后的4月份。
. s8 s$ `' a: ?% O: H' r5 v& U" l9 z6 f0 J
( f+ M* P4 O0 O6 f8 _+ R
从他的推特上可以看出,无论是最近GPT-4等超强AI引发的巨大争议,还是谷歌高层的剧烈动荡,Hinton都始终保持缄默,不发一言。
) B0 Z# y% q, _+ y4 E9 s% C/ r# L许多人关注着这位人工智能教父的态度。3 _. @0 s# G0 k; G$ n: d0 ?! s
在CBS的一次采访中,Hinton表示「我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。」! v5 W7 e" ]; a0 a3 ` i9 r
! x6 R! }, j6 L9 |+ _- Y1 c4 G1 t* _% }# c* r
从人工智能的开创者到末日预言者,Hinton的转变,也标志着科技行业正处于几十年来最重要的一个拐点。* }+ W# Y5 W7 e! c7 g4 p( U3 q
先驱的沉痛反思,让我们终于不能再掩耳盗铃,假装没有看见AI可能给人类社会引发的深刻改变和巨大危机了。; }2 j. k1 d( D5 z, w m$ t( W
盖茨等许多大佬认为,ChatGPT可能与上世纪90年代初网络浏览器一样重要,并可能在药物研究、教育等领域带来突破。
! ^) x3 \; R7 x7 w7 I- u9 Z与此同时,令许多业内人士不安的是,他们担心自己所做的研究,正在向外释放某种危险。. E0 _/ g. n- U3 U8 l
因为生成式人工智能可能已经成为产生错误信息的工具。并在未来的某个时候,可能会对人类构成威胁。' s0 x$ [- q: }+ L
( u4 M8 g; r6 \% ?* g! k; @7 ?' K. o4 `
在Hinton看来,如何防止坏人利用它做坏事,我们还未能找到方法。3 M; A/ b+ E+ x& l
在3月底呼吁暂停超强AI六个月的公开信发出几天后,人工智能促进协会的19位领导人也发布了公开信,警告AI的风险。
2 K% J f# F. @: q# C9 @其中就包括微软的首席科学官Eric Horvitz,而微软已在一系列产品中(包括Bing搜索引擎中)部署了OpenAI的GPT技术。
- Z; D; [0 @! S& a+ W在喧嚣的反对浪潮中,人工智能教父Hinton却并未在这两封信上签名。
- c$ o3 t' w4 E+ i' k2 n他说,自己在辞去工作之前,并不想公开批评谷歌,或其他公司。( H6 l9 t6 h# S6 C; n b- p3 Z
忍到上个月,Hinton终于下定决心,通知谷歌自己即将辞职。4 k& x1 S! n, }! W1 v
选择离职谷歌后,Hinton终于可以畅所欲言地谈论AI的风险了。
0 K7 ?: _: G& W/ M; c* f1 _; x
9 T1 ^8 r/ c0 T" w我对我的毕生工作,感到十分后悔。 我只能这样安慰自己:即使没有我,也会有别人。 8 H( s2 ^2 x& H7 X) Y3 s6 B1 l
6 b& o7 Y$ t; r
0 Z# ]8 P3 c- _, A( Q' d
上周四,他与谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了电话,但他表示不便透露此次谈话的细节。
9 K$ ]8 t0 r0 |作为一家大公司,谷歌对于AI的态度一向保守,甚至保守到,眼睁睁看着自己在聊天AI机器人之战中被甩在后面。
( X4 U; v" ~, T G) y6 {2 u早在2015年,谷歌的图像识别AI曾将黑人标记为「大猩猩」,招致的批评让谷歌成为惊弓之鸟。( \- g R i3 M
在OpenAI推出Dall-E 2、名震全球之前,谷歌就有类似模型,但并没有发布,因为谷歌认为需要对AI生成的内容负责。
3 j* b$ u. U$ V' {而早在2021年,谷歌就已有了类似ChatGPT的LaMDA聊天机器人,但谷歌始终未发布。直到2022年11月底,OpenAI凭ChatGPT占尽风头。0 j; Z: {# ]8 L0 l& G9 u
如今,谷歌首席科学家Jeff Dean在一份声明中表示:「我们仍然致力于对人工智能采取负责任的态度,我们正在不断学习了解新出现的风险,同时也在大胆创新。」, d" ]0 d2 C/ d2 i$ Z. p
开启了历史,也见证了历史! L+ j1 i% m5 w/ R% Z5 j
1972年,Hinton在爱丁堡大学开始了他的研究生生涯。
$ c9 a- @ g4 s0 ? B在那里,他首次开始研究神经网络——一种通过分析数据来学习技能的数学系统。
, N j& o+ i' P! y当时,很少有研究人员相信这个观点。但这成了他毕生的心血。! p- H/ j4 J4 _- x1 y' H3 k' L" z
) B* h3 a7 v9 j6 A# B; F& v9 ^5 l: E4 ~- ~
2012年,Hinton和他两名学生Ilya Sutskever和Alex Krishevsky建立了一个神经网络,可以分析数千张照片,并自学识别花、狗和汽车等常见物体。' s$ _. v0 H. ]2 P/ ~& ~" g
神经网络成为他与两名学生共同创建的公司DNNresearch背后的突破性概念,该公司最终在2013年被谷以4400万美元收购。7 x( a" F, x1 z; {" |1 y. }
2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因对神经网络的研究获得了2018年的图灵奖,而神经网络正是ChatGPT、Bard等聊天机器人背后的奠基性技术。) l! _5 y, u( V2 I' y9 a$ D
1 `6 Y( F; l- A
5 t0 u% ~1 M+ s/ }/ B; s而Hinton的学生Ilya Sutskever,也在后来成为OpenAI首席科学家。7 k) S$ S+ f& } |+ }& V/ J
" N9 a3 X H% [" Z, O5 i" n+ c. @
, D$ d2 e1 N; V) l) l大约在同一时间,谷歌、 OpenAI和其他科技公司开始构建从大量数字文本中学习的神经网络。. ?1 s$ H* w% V9 Q' K
那时的Hinton认为,这是机器理解和产生语言的一种强大方式。当然不得不承认,比起人类处理语言的方式没,神经网络还是力不能及。
4 }$ o0 F5 T! n, m/ Z; E0 {4 s; A2022年,随着谷歌和OpenAI 利用大量数据构建超强AI。
8 s9 {& s+ y4 D( v# o/ c PHinton的观点发生了重大转变。他仍然认为这些系统在某些方面不如人类的大脑,但它们在其他方面正在超越人类的智力。
6 J: N$ y, y9 b. w/ [GPT-4发布当天,Hinton曾表示,( _- _2 s: {. }( ]6 G6 n
0 `/ G5 P, A* Z" Y) i, |# W0 p
毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。 % l3 ], ~- y! e. J( l2 J/ ~
" ^/ c9 i/ ~# U: r/ s
1 C. Z9 W4 _! J. d1 aHinton称赞的背后,让许多人看到超强人工智能系统的智力已经非同寻常。' `( D6 E" u# |+ V9 _
对此,Hinton谈到人工智能技术时表示,随着科技公司改进人工智能系统,它们变得越来越危险。
- g0 h: f4 I! g2 I& G看看五年前和现在的情况,如果还要继续传播这项技术,后果就太可怕了!3 Z2 k( w7 y! b! ~% D% B6 r5 M
在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技术上谨慎的态度。
* S1 J$ M8 }& k1 b0 H2 B" d! M" H他表示,直到去年,谷歌一直扮演着这项技术的「合适管家」角色,谨小慎微地不去发布可能造成危险的AI。
6 `0 n1 e) S7 G5 ~3 v F, O2 y/ K) b这恰恰解释了,为啥谷歌在这波人工智能浪潮中落后的原因。
! S" K, M' j' d7 t s但是现在,微软为其必应搜索引擎接入GPT-4的能力,已经让谷歌焦急地不得不做点什么。4 \2 r4 J5 @1 B: x. ?1 n
Hinton称,科技巨头们正在进行一场可能无法阻止的竞争。7 H4 E$ O) f' E
# O% B+ g3 ^( o- \2 q0 J% H: x) {
- S6 t& l% C' p( Q# |' E/ S9 o
他眼下担心的是,互联网上将充斥着虚假的照片、视频和文本,人们也无法去辨别什么是真实的,什么是虚假的内容。6 t; P6 o5 Q8 U; q2 a1 ^4 j
他甚至还担心,人工智能技术迟早会颠覆就业市场。
- G) _( z% p5 n+ _4 Q* T/ B如今,像ChatGPT这样的聊天机器人往往能很好地辅助人类工作,甚至取代律师助理、私人助理、翻译、以及其他处理死记硬背任务的人。4 Q2 i. R# o: i
未来,他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。
# e1 O/ q0 F+ m" f# Y人工智能系统不仅可以生成代码,而且自己运行代码。前段时间爆火的Auto-GPT就是一个非常典型的例子。0 O6 x, s$ g4 u1 v! U2 x2 [4 D6 Y
u3 ~9 D) K6 ~, S6 z. L% P5 o) q6 ]/ s2 |5 h9 J* P1 Y
他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。
5 a( [7 }+ |+ ?5 {( F上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。1 h* c9 e- h4 }/ Y- w) m
/ b* a5 r8 E7 d
. _: s; T: k4 ~7 \6 ~在一些人看来,类似的系统实际上比人类更聪明。Hinton表示自己曾经认为,这太离谱了,最起码要30-50年,甚至更久才能实现。- z5 w' { W2 F1 }. L) P& G6 |
1 [0 Q. X: i- U1 ^. \; q B; T
而现在,我不再那么想了。
; O7 t: J* R4 t& k7 Q* u许多其他专家,包括Hinton的许多学生和同事,说这种威胁还仅是一种假设。
; B) K: A& O% k' o0 p他指出,谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!3 W) l) r! v/ f( \( H
6 P- E& a9 |3 P2 m5 ^5 W( a
" {% B, C) N4 l$ d8 `
但他表示,这也不是绝对的。与核武器不同,我们无法知道哪个公司或国家,是否在秘密研究这项技术。: u9 ^6 ]: \# y; E3 S3 Y
网友热议 R t% I/ N) r: K5 E" o
有网友认为,Hinton对于的AI的看法太悲观了。% p+ ~& T+ C- A! m* H$ ?
我见过的ChatGPT积极应用案例远多于消极的,但现在的趋势是把AI描绘成邪恶的炼金术。这些担忧是合理的,我们会学习,我们会纠正它,然后我们会继续前进。/ X0 m% N* m, B+ Y( x# T3 d+ t) c
w6 A1 k& Q$ j5 N- o7 w
" T4 y! N. C0 }1 v" B8 n( ?
甚至有网友将其比为天网,但我们还不能将其关闭。「人工智能就像潘多拉的魔盒一样,一旦打开就无法关闭。」2 L! R7 M0 ^; a! @: J) L( i5 `
' a* }, j" E: G- q5 u* w4 a
# e7 y r9 r) g还有人对谷歌「负责任」这一观点提出异议:
$ u, Q3 O0 Y, H- G; b8 Y-使用Breitbart训练AI模型;-让负面信息在YouTube上大肆传播(反过来又为推荐算法提供依据);-散布有关安全和隐私的科学假信息;-开除专家! z9 y7 k' r( ?8 H% R% ^
- i" X7 q% i* S, B" k8 X8 x
/ w( M/ Z6 U1 R7 m谷歌大脑和DeepMind合并这一事,与此相关吗?9 N& S& d4 U H2 i8 L# E* S y
) n* T+ Z; J+ x) I" X
. ?$ u. o( N- \, W5 \还有网友发出疑问,连Hinton都离职了,下一个会是?
2 u! q W$ L, P9 F( a( v
, D( ~& e1 }! D; `* @6 @0 P' W1 v! I& r( r( J2 j5 ]% k
参考资料:5 W! b- Q Y% M& P
https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|