|
|
4 c9 c+ Y: g. s Q t) [0 v
3 k& P+ t5 P0 F# P2 V新智元报道
! \. w n; M% V, J# U, z编辑:编辑部
2 I5 p% T& M8 j$ y1 T【新智元导读】入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。
5 @) ^: r9 s% ~* V0 p9 r" J一觉醒来,整个科技圈惊掉了下巴!!!
- T% {2 L- G$ i
/ m4 n. Q) H$ a深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。
0 h F7 Y4 Y, g/ s; f
! O- K+ @5 M: c: p( ^8 g' ~, h. i; ?$ K2 ^" x
6 \& ~1 n; G0 ?6 o2 g, }5 j为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。
) T5 C5 p0 I( S& D纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!8 T: ]& p& j8 z4 `8 E
而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对自己的毕生工作,感到非常后悔。」+ Q f, ^3 y" r- N* K
如今,距离Hinton入职谷歌,刚好十年。 e3 `& H) K+ n2 B" K: Y3 m
! d) T6 g- ?. y$ r) ]5 R
4 p6 q' R" D3 t( ]% [9 I% [6 b$ \对于Hinton此举,有人甚至劝说,应该将关注人工智能安全常态化,而不必辞去工作。
2 q0 X' u& m& y/ e X+ F4 p
2 k# L1 }% s" D* h" x/ X3 A% a8 _5 D+ I' K, V6 p- ?& B
这更应该是你留下来的理由。因为世界是不会停止的,像你这样的伟大人物应该坚持下去,并将人工智能发展的更好。: t' }* Z0 z3 a# s7 ~
& O6 @: [$ J) z& ?
) L# l) p- p( F6 f8 n1 _1 t! {你应该劝说你的学生Yann LeCun和Ilya Sutskever。
* g8 Z8 X( t0 s: n值得一提的是,ChatGPT背后真正的英雄正是OpenAI的联合创始人兼首席科学家Ilya。: ]$ o' ^% }$ Z; a9 A
8 ]. t7 |$ _! O% W
$ [; F$ X' j9 j
AI「关键时刻」,人类控制不住了3 ~) [! _1 C5 k, w
被称为「人工智能教父」的Geoffrey Hinton,一直都是该领域最受尊敬的先驱之一。6 Q5 h- F) w0 L8 X
0 t2 T7 A4 v8 e: a0 S6 V$ d2 y; p a) b4 V1 h
而Hinton提出离职的时间,正是在此之后的4月份。1 f4 S1 k% T* R: O, w
& i. d& l' V9 ~# M# H
6 s ~% h3 R- ~" z- d# Y从他的推特上可以看出,无论是最近GPT-4等超强AI引发的巨大争议,还是谷歌高层的剧烈动荡,Hinton都始终保持缄默,不发一言。/ l$ o) q) o' w, J' y; |5 c: U7 w4 _
许多人关注着这位人工智能教父的态度。
) X+ p! `+ q' d* l在CBS的一次采访中,Hinton表示「我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。」% r b0 U4 c, ?4 P* s# L
- h% p1 g: J1 _4 {) H5 @: g
/ \0 y/ q2 O" ?# s从人工智能的开创者到末日预言者,Hinton的转变,也标志着科技行业正处于几十年来最重要的一个拐点。
. j* i1 j7 J, B- z) F8 T7 c先驱的沉痛反思,让我们终于不能再掩耳盗铃,假装没有看见AI可能给人类社会引发的深刻改变和巨大危机了。! h. t+ Z3 Y- b2 U( H' g
盖茨等许多大佬认为,ChatGPT可能与上世纪90年代初网络浏览器一样重要,并可能在药物研究、教育等领域带来突破。- u q; W" [$ L0 N* y
与此同时,令许多业内人士不安的是,他们担心自己所做的研究,正在向外释放某种危险。' T+ |8 w0 w: y3 p5 F7 _* a8 b! Q
因为生成式人工智能可能已经成为产生错误信息的工具。并在未来的某个时候,可能会对人类构成威胁。" M1 q; s8 I2 Y! b7 a( s/ S
: g; c" y: |9 s% ?) d, [
1 r- \5 k) L6 Z: o5 J在Hinton看来,如何防止坏人利用它做坏事,我们还未能找到方法。
) b$ i$ `2 m2 |+ ?- t- {在3月底呼吁暂停超强AI六个月的公开信发出几天后,人工智能促进协会的19位领导人也发布了公开信,警告AI的风险。
Q. g0 \8 [ i F$ I0 k& c其中就包括微软的首席科学官Eric Horvitz,而微软已在一系列产品中(包括Bing搜索引擎中)部署了OpenAI的GPT技术。
. F: P0 k( K+ C% B在喧嚣的反对浪潮中,人工智能教父Hinton却并未在这两封信上签名。
?8 O2 l* [8 Q7 v他说,自己在辞去工作之前,并不想公开批评谷歌,或其他公司。+ B. t, \( { g. {- h3 \
忍到上个月,Hinton终于下定决心,通知谷歌自己即将辞职。6 l, f* e$ r/ o+ t' Q
选择离职谷歌后,Hinton终于可以畅所欲言地谈论AI的风险了。) x$ w& M5 @ F' _7 B
$ a1 u9 m7 S9 ?7 Q, B% p7 i" D我对我的毕生工作,感到十分后悔。 我只能这样安慰自己:即使没有我,也会有别人。 0 u6 p7 L$ y8 Y9 J# Z$ G& M
2 m5 S2 N2 k4 d2 C% Z' a
A3 P1 x0 O2 r/ I
上周四,他与谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了电话,但他表示不便透露此次谈话的细节。( ~* a/ O& @# D8 b& h5 S! \, p
作为一家大公司,谷歌对于AI的态度一向保守,甚至保守到,眼睁睁看着自己在聊天AI机器人之战中被甩在后面。
* i. `6 W: H/ b% d$ X早在2015年,谷歌的图像识别AI曾将黑人标记为「大猩猩」,招致的批评让谷歌成为惊弓之鸟。2 v3 [ L# B# I9 J; R2 W
在OpenAI推出Dall-E 2、名震全球之前,谷歌就有类似模型,但并没有发布,因为谷歌认为需要对AI生成的内容负责。
& H/ K i- S2 v# Q& q' X Z0 ~而早在2021年,谷歌就已有了类似ChatGPT的LaMDA聊天机器人,但谷歌始终未发布。直到2022年11月底,OpenAI凭ChatGPT占尽风头。
% s# b9 |% z p如今,谷歌首席科学家Jeff Dean在一份声明中表示:「我们仍然致力于对人工智能采取负责任的态度,我们正在不断学习了解新出现的风险,同时也在大胆创新。」; S5 w) L+ B7 M# z
开启了历史,也见证了历史4 b; i6 u4 y1 `) m* @' @: ~; l G! Q% X
1972年,Hinton在爱丁堡大学开始了他的研究生生涯。5 ]/ ? m' r5 a6 U
在那里,他首次开始研究神经网络——一种通过分析数据来学习技能的数学系统。
+ C) V$ v# p) G4 D$ A+ o1 v当时,很少有研究人员相信这个观点。但这成了他毕生的心血。/ m4 S: y& p, f4 r T
1 ^9 |/ d* I8 q9 U1 G& a/ J' K- r
3 l# j6 |: r- |7 M$ W0 o0 J% [2012年,Hinton和他两名学生Ilya Sutskever和Alex Krishevsky建立了一个神经网络,可以分析数千张照片,并自学识别花、狗和汽车等常见物体。
0 H9 Z8 p5 ?6 N6 H. }) @神经网络成为他与两名学生共同创建的公司DNNresearch背后的突破性概念,该公司最终在2013年被谷以4400万美元收购。$ k7 @6 I% D0 K3 ]" I7 N
2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因对神经网络的研究获得了2018年的图灵奖,而神经网络正是ChatGPT、Bard等聊天机器人背后的奠基性技术。5 L/ v/ D8 J# G0 y) c0 q$ H
' V6 K3 u1 o; K/ A* l; t
5 q& l; p) p" _9 p" h
而Hinton的学生Ilya Sutskever,也在后来成为OpenAI首席科学家。: B) `5 L9 j7 @4 G) |& w! p) Q! b
9 ?8 T3 i4 z$ y3 m
# _$ o7 R% e* f/ {# D大约在同一时间,谷歌、 OpenAI和其他科技公司开始构建从大量数字文本中学习的神经网络。 }. }/ x, M& n0 N2 ^$ z8 H+ E
那时的Hinton认为,这是机器理解和产生语言的一种强大方式。当然不得不承认,比起人类处理语言的方式没,神经网络还是力不能及。
1 G, \* j7 U/ a+ p) `$ T2022年,随着谷歌和OpenAI 利用大量数据构建超强AI。0 V7 ]- H7 U. ]; q9 m( x
Hinton的观点发生了重大转变。他仍然认为这些系统在某些方面不如人类的大脑,但它们在其他方面正在超越人类的智力。3 n" e1 l0 w a& ~6 |0 D
GPT-4发布当天,Hinton曾表示,
$ n8 N! f9 a4 c% v; b9 ^6 i
6 a' Z, U: Q- A: a3 L毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。 6 f! \' Q0 u J9 b9 ]
+ }: E; p8 ^ Y3 x/ P, H& |0 K7 r, m, g0 x
Hinton称赞的背后,让许多人看到超强人工智能系统的智力已经非同寻常。4 j1 X, m- g/ a0 P4 ]
对此,Hinton谈到人工智能技术时表示,随着科技公司改进人工智能系统,它们变得越来越危险。
" Z: V: c$ E+ t. P, C$ k h# Z) ~看看五年前和现在的情况,如果还要继续传播这项技术,后果就太可怕了!2 D% s1 k+ r# t( R
在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技术上谨慎的态度。) j, Z2 }5 D) \8 D4 V8 } X
他表示,直到去年,谷歌一直扮演着这项技术的「合适管家」角色,谨小慎微地不去发布可能造成危险的AI。8 [, M7 H' Z5 D& m t# r$ x$ U% k
这恰恰解释了,为啥谷歌在这波人工智能浪潮中落后的原因。
8 G7 D& v4 b7 U$ ^, H1 t但是现在,微软为其必应搜索引擎接入GPT-4的能力,已经让谷歌焦急地不得不做点什么。
0 [; O/ o2 |- I7 v" l* L7 EHinton称,科技巨头们正在进行一场可能无法阻止的竞争。
7 P1 m$ A( y, S1 b0 \# n/ `* j4 d. `) T4 f" e, S
. Y( C9 x& o, _" ?+ [0 h他眼下担心的是,互联网上将充斥着虚假的照片、视频和文本,人们也无法去辨别什么是真实的,什么是虚假的内容。
# i+ d2 r* {% s- ~# h2 J他甚至还担心,人工智能技术迟早会颠覆就业市场。8 W1 j& f4 Y4 H s$ ?3 U/ Y* s
如今,像ChatGPT这样的聊天机器人往往能很好地辅助人类工作,甚至取代律师助理、私人助理、翻译、以及其他处理死记硬背任务的人。
- @" G' T% w, m4 p; H& J! W未来,他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。" i& v9 I+ I; Y
人工智能系统不仅可以生成代码,而且自己运行代码。前段时间爆火的Auto-GPT就是一个非常典型的例子。0 U Y( M7 M7 q8 [
) v9 }4 M' t& O. L* O
3 P( L9 e. K4 N, m1 \' V7 T他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。
5 F k4 {5 W" }: s' q上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。% b# y# [5 k: _) A
& L; f- r1 _9 i2 `5 i
$ f c0 X8 @/ j! o在一些人看来,类似的系统实际上比人类更聪明。Hinton表示自己曾经认为,这太离谱了,最起码要30-50年,甚至更久才能实现。# j9 i" O0 N+ y1 m! q
- h: c) L' M' Z# C) R
而现在,我不再那么想了。 % @9 H% p* t3 W& D* }
许多其他专家,包括Hinton的许多学生和同事,说这种威胁还仅是一种假设。
% I; i p: o& |他指出,谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!3 Y( n# N- Y* Y
. }8 B8 `6 L1 {0 q, _+ p
! ~) y6 m: o7 M2 I但他表示,这也不是绝对的。与核武器不同,我们无法知道哪个公司或国家,是否在秘密研究这项技术。
- d% s4 a9 |# _网友热议! B' U; E! E# \: B
有网友认为,Hinton对于的AI的看法太悲观了。
# P, | z& ~/ ?, d. q, p3 C( ?; B我见过的ChatGPT积极应用案例远多于消极的,但现在的趋势是把AI描绘成邪恶的炼金术。这些担忧是合理的,我们会学习,我们会纠正它,然后我们会继续前进。$ z+ j! m3 F: K2 }2 z
7 E; b' V* G+ w1 d/ z
+ l1 h) P+ Z9 F7 z甚至有网友将其比为天网,但我们还不能将其关闭。「人工智能就像潘多拉的魔盒一样,一旦打开就无法关闭。」
, I9 X6 C0 a0 W' t5 R# E" q+ q$ ]8 U$ [
5 h2 m' X( Z* o j还有人对谷歌「负责任」这一观点提出异议:
9 [! R7 G& ]* C3 v-使用Breitbart训练AI模型;-让负面信息在YouTube上大肆传播(反过来又为推荐算法提供依据);-散布有关安全和隐私的科学假信息;-开除专家
% x+ D9 x: v. x# b: ~ w3 y, C2 t7 ]: Q
* f% F7 Y8 b* ^5 R4 I! U7 R
谷歌大脑和DeepMind合并这一事,与此相关吗?! E Z8 U& n* H+ V7 o. o
) p. J; @3 o+ H; B A6 o& q# ^
3 C5 M: _5 I0 `2 C) b6 N还有网友发出疑问,连Hinton都离职了,下一个会是?
) o1 ^* f- I9 P' b$ F2 b, n; L6 i- l- _
" h/ A1 ?: J/ |* P6 w* s
参考资料:
4 F6 ?" S1 ?% k. V( Z; g3 Zhttps://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|