|
|
5 R6 `: O9 [7 f. D3 q |7 z# q2 g
& V# C* V; C- `, [) ?) r* U新智元报道
& D3 j7 m' z" Z编辑:编辑部
& p0 E' y, }) g* E【新智元导读】入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。6 V9 ~. A" ] C
一觉醒来,整个科技圈惊掉了下巴!!!
: O" R. x3 A" ^: z% @* ?' X0 d: E( g$ P# G$ [; `; B5 @$ z) d) d
深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。
: k5 u5 @& C7 Q# I# B1 y
) O+ N$ D8 G3 C! H4 Y% `& p' F8 j# P2 W. K; |" v, X4 q7 r$ [0 @; O
9 i$ B: Q. E$ d6 y为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。
# X% {5 H/ |) ~纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!
J' `# ^, l$ u# d, c- |* a. U* t而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对自己的毕生工作,感到非常后悔。」7 m. C6 z0 c$ ?, s2 s
如今,距离Hinton入职谷歌,刚好十年。: u9 e& R( M" K x" r7 R
2 D3 q- C5 Q6 s- y, H, \- I4 w9 \
) D1 U3 o, c" V7 D对于Hinton此举,有人甚至劝说,应该将关注人工智能安全常态化,而不必辞去工作。, j9 d9 u$ d# p5 ~
) B: h% \! ^" J$ e- ^! A' N1 w i1 ~
; l' j) n: P3 k% A这更应该是你留下来的理由。因为世界是不会停止的,像你这样的伟大人物应该坚持下去,并将人工智能发展的更好。- o, h2 a6 G7 z+ N; ^( k1 o" W
5 e- N& W1 c# J4 B+ W
+ T: ` d$ J; L7 C* C6 e
你应该劝说你的学生Yann LeCun和Ilya Sutskever。+ ~1 n( b1 J0 ?/ |" a
值得一提的是,ChatGPT背后真正的英雄正是OpenAI的联合创始人兼首席科学家Ilya。 A: h/ |$ F9 j. B" Q$ H" J! u
2 {1 Y4 M' ]* _; W3 j+ t
' z7 o, p/ s. _. E7 |5 {AI「关键时刻」,人类控制不住了' `$ H3 f4 H9 x k, _1 P
被称为「人工智能教父」的Geoffrey Hinton,一直都是该领域最受尊敬的先驱之一。0 C( G1 z3 S% h; `& V7 N7 K8 \
9 v3 }- n' X e' _4 X2 q" W
* L& r" e8 ]+ [. ]: ^而Hinton提出离职的时间,正是在此之后的4月份。' E) }% {1 T7 A; I* e3 r
5 Y" P: k1 D- Q+ O& ~
7 T( v" h l3 E' a! ?# c从他的推特上可以看出,无论是最近GPT-4等超强AI引发的巨大争议,还是谷歌高层的剧烈动荡,Hinton都始终保持缄默,不发一言。$ h3 m4 i, V! e: K4 o4 R
许多人关注着这位人工智能教父的态度。/ Z& q1 U$ S: f6 ~, o6 ?
在CBS的一次采访中,Hinton表示「我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。」' N. w3 g$ U+ O" j' F, b
2 K6 L8 b( n" f& F0 ?: {5 k% p
5 W% |# b/ P9 v( E8 j9 D7 I从人工智能的开创者到末日预言者,Hinton的转变,也标志着科技行业正处于几十年来最重要的一个拐点。
! u- W% Z3 v6 `- s3 \7 S1 H先驱的沉痛反思,让我们终于不能再掩耳盗铃,假装没有看见AI可能给人类社会引发的深刻改变和巨大危机了。- Z6 v1 K% T7 W5 h6 B
盖茨等许多大佬认为,ChatGPT可能与上世纪90年代初网络浏览器一样重要,并可能在药物研究、教育等领域带来突破。& d" ^9 y8 _0 a0 a# k) l1 C
与此同时,令许多业内人士不安的是,他们担心自己所做的研究,正在向外释放某种危险。
7 H1 A. g# X. \; ]7 m( q因为生成式人工智能可能已经成为产生错误信息的工具。并在未来的某个时候,可能会对人类构成威胁。; L4 }# s6 f2 v
@& H5 C- }* r/ b; w: D. `; k
- a! T9 a. u" F; u' ^在Hinton看来,如何防止坏人利用它做坏事,我们还未能找到方法。
. q; [9 O9 K( ~) q7 V9 E7 C1 ]在3月底呼吁暂停超强AI六个月的公开信发出几天后,人工智能促进协会的19位领导人也发布了公开信,警告AI的风险。
1 a: S8 R) K* P2 F其中就包括微软的首席科学官Eric Horvitz,而微软已在一系列产品中(包括Bing搜索引擎中)部署了OpenAI的GPT技术。+ S: F- M6 N, y2 A( B) \. R
在喧嚣的反对浪潮中,人工智能教父Hinton却并未在这两封信上签名。$ C& j$ Q& q6 T' ^: g( S+ ?- J
他说,自己在辞去工作之前,并不想公开批评谷歌,或其他公司。" J- |; L* f) f, w" }& }4 m2 r1 s
忍到上个月,Hinton终于下定决心,通知谷歌自己即将辞职。
: `7 M- {1 g/ H选择离职谷歌后,Hinton终于可以畅所欲言地谈论AI的风险了。
" @ k p* k$ S+ C
! _% {% V9 B' K7 p4 `1 O+ g R" G: d6 V我对我的毕生工作,感到十分后悔。 我只能这样安慰自己:即使没有我,也会有别人。
' m d7 d3 |( k; y$ J" D& `7 E+ |: D5 v2 e) @% D1 x: I& _
: v9 R6 d8 R7 w1 i, }上周四,他与谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了电话,但他表示不便透露此次谈话的细节。
# d+ J. w* l3 }# [作为一家大公司,谷歌对于AI的态度一向保守,甚至保守到,眼睁睁看着自己在聊天AI机器人之战中被甩在后面。2 L2 U7 p- h l' F
早在2015年,谷歌的图像识别AI曾将黑人标记为「大猩猩」,招致的批评让谷歌成为惊弓之鸟。2 w) y0 K- m0 A! X2 t% K
在OpenAI推出Dall-E 2、名震全球之前,谷歌就有类似模型,但并没有发布,因为谷歌认为需要对AI生成的内容负责。4 i( d- \4 L1 o5 \1 |6 H% O# [
而早在2021年,谷歌就已有了类似ChatGPT的LaMDA聊天机器人,但谷歌始终未发布。直到2022年11月底,OpenAI凭ChatGPT占尽风头。
& H- ~) r+ O9 P3 j+ m如今,谷歌首席科学家Jeff Dean在一份声明中表示:「我们仍然致力于对人工智能采取负责任的态度,我们正在不断学习了解新出现的风险,同时也在大胆创新。」9 H2 [, a. b& f! |& v6 n2 t
开启了历史,也见证了历史: W [8 |0 F A- R: r! J4 ]
1972年,Hinton在爱丁堡大学开始了他的研究生生涯。; l1 z# a+ W) z( p4 w
在那里,他首次开始研究神经网络——一种通过分析数据来学习技能的数学系统。
) Y8 M3 P7 H% S- @( ?当时,很少有研究人员相信这个观点。但这成了他毕生的心血。- d: D2 E4 D4 p5 X- o' Q! \7 F
' H) N! U( \$ U$ P$ X# b7 l
$ v: \. q f8 |0 D/ P3 F6 g; u5 l# k2012年,Hinton和他两名学生Ilya Sutskever和Alex Krishevsky建立了一个神经网络,可以分析数千张照片,并自学识别花、狗和汽车等常见物体。
- q% o0 s, y$ |0 _/ ?8 p- `神经网络成为他与两名学生共同创建的公司DNNresearch背后的突破性概念,该公司最终在2013年被谷以4400万美元收购。9 ^; u" ~2 u5 J! E7 e/ E
2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因对神经网络的研究获得了2018年的图灵奖,而神经网络正是ChatGPT、Bard等聊天机器人背后的奠基性技术。! `. I7 E, P& K: o+ i4 ?4 d. |# f
6 o( L, f! [; ^" A
; a) W" x& i/ Z9 z
而Hinton的学生Ilya Sutskever,也在后来成为OpenAI首席科学家。) S7 v9 n" _' X+ X
% f! A6 q5 x+ t
( u" n) C% J% a; ], r
大约在同一时间,谷歌、 OpenAI和其他科技公司开始构建从大量数字文本中学习的神经网络。
2 z( F( `3 L+ f$ l6 O% u那时的Hinton认为,这是机器理解和产生语言的一种强大方式。当然不得不承认,比起人类处理语言的方式没,神经网络还是力不能及。1 U2 R; H& V: M6 C& V
2022年,随着谷歌和OpenAI 利用大量数据构建超强AI。
) d% M, h3 k, B& C8 r, OHinton的观点发生了重大转变。他仍然认为这些系统在某些方面不如人类的大脑,但它们在其他方面正在超越人类的智力。
, A4 Q' j( e% @* U1 L% IGPT-4发布当天,Hinton曾表示, G/ k; o$ P; `: M" i4 |
8 [/ Q3 D& C9 X$ P: k: G" Y5 ^毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。
: x0 T" s% z" r& \( ]3 p" H. }7 r% p) ]( a
5 `# x0 h# K: ^- C, ~1 aHinton称赞的背后,让许多人看到超强人工智能系统的智力已经非同寻常。
6 S8 h9 H1 q3 e: `- Y8 D对此,Hinton谈到人工智能技术时表示,随着科技公司改进人工智能系统,它们变得越来越危险。
- Q6 K# g8 t$ C o1 O看看五年前和现在的情况,如果还要继续传播这项技术,后果就太可怕了!4 K) V, g6 b% g
在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技术上谨慎的态度。
9 ^/ `3 b0 d% d* S他表示,直到去年,谷歌一直扮演着这项技术的「合适管家」角色,谨小慎微地不去发布可能造成危险的AI。# ^" P8 ~) u% d7 \6 l! ~# X6 I S6 \
这恰恰解释了,为啥谷歌在这波人工智能浪潮中落后的原因。
3 c; N3 h7 s0 R但是现在,微软为其必应搜索引擎接入GPT-4的能力,已经让谷歌焦急地不得不做点什么。9 u/ F9 E- Y, w# B, j
Hinton称,科技巨头们正在进行一场可能无法阻止的竞争。
: ]. a) G) x0 z7 z( X
. b3 _1 B- w$ w) r$ Y5 b8 j& q( n+ o* G/ l: ?. U/ i) Z
他眼下担心的是,互联网上将充斥着虚假的照片、视频和文本,人们也无法去辨别什么是真实的,什么是虚假的内容。
# x. [! J& y. Z* p! l& M' E) b他甚至还担心,人工智能技术迟早会颠覆就业市场。7 l* ^, A9 a4 |7 r5 J
如今,像ChatGPT这样的聊天机器人往往能很好地辅助人类工作,甚至取代律师助理、私人助理、翻译、以及其他处理死记硬背任务的人。, W' f# f: P7 S# ^1 B7 [6 ^
未来,他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。; H; y7 d% E* t
人工智能系统不仅可以生成代码,而且自己运行代码。前段时间爆火的Auto-GPT就是一个非常典型的例子。
7 D/ ^/ r9 l6 {' q% K
! b4 \$ P6 K8 {2 p" c" J; w
@2 Q( Z. I5 R他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。' F* c' V8 }9 F3 O: L8 l5 y( T
上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。
& E2 I8 Q' v! k* E; M T; R6 X; }* B. J
/ o' ]# T$ x1 E& t9 H
在一些人看来,类似的系统实际上比人类更聪明。Hinton表示自己曾经认为,这太离谱了,最起码要30-50年,甚至更久才能实现。
7 @. I p4 B+ a* s
. `6 u8 H# |2 N. ~% u- y而现在,我不再那么想了。
2 K3 C6 z/ I. G! d& t1 d) w许多其他专家,包括Hinton的许多学生和同事,说这种威胁还仅是一种假设。' z, P+ g- z1 z: E. u
他指出,谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!) s0 ^! o! N o! o- s) g
+ ^ ~! g- v1 e9 F+ v2 F U( C) D) r
0 H! `5 v, E1 r; z' A3 @
但他表示,这也不是绝对的。与核武器不同,我们无法知道哪个公司或国家,是否在秘密研究这项技术。. D0 y- P( A( T: C: K
网友热议3 q5 n- Y' _: C- T' o# ^; f
有网友认为,Hinton对于的AI的看法太悲观了。
% n6 H; A3 D2 \我见过的ChatGPT积极应用案例远多于消极的,但现在的趋势是把AI描绘成邪恶的炼金术。这些担忧是合理的,我们会学习,我们会纠正它,然后我们会继续前进。
X; |2 H$ L$ M8 N6 p9 r0 R. Y* L6 C: p, x6 p" M2 w9 l
# H" p) a! k9 R2 H& E
甚至有网友将其比为天网,但我们还不能将其关闭。「人工智能就像潘多拉的魔盒一样,一旦打开就无法关闭。」
6 t! R0 w. C. y* i/ a
# G$ H! L0 `0 X# E6 _
& r1 l' Y$ ?1 A/ w6 q还有人对谷歌「负责任」这一观点提出异议:$ u( K% B* q. ^7 `! |# D( _. N
-使用Breitbart训练AI模型;-让负面信息在YouTube上大肆传播(反过来又为推荐算法提供依据);-散布有关安全和隐私的科学假信息;-开除专家
! b: ]" e) j2 j9 D/ Q' R1 ~! L
- t0 Q5 K( E R$ V Z7 L; N, x! s& ]5 ?0 A: O9 n
谷歌大脑和DeepMind合并这一事,与此相关吗?. A/ g1 d( j2 s* _
* f8 L. X( [* u4 g1 _) K) B: e, t
; o" O; O$ h4 G5 G% D. u; w- x; f1 V, P" i' Q还有网友发出疑问,连Hinton都离职了,下一个会是?' c |5 p8 o5 k& z6 X# I& p
) N+ @* U. D3 ^5 U3 c
% t M8 |, a. V
参考资料:0 g/ Y0 O3 {1 n" z) A& b: M
https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|