|
$ P+ U `$ s$ P' r1 ]) O# T' i _
新智元报道9 S8 @" L1 ~5 _. l
编辑:编辑部0 C: F& F. i1 f9 s, v
【新智元导读】入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。4 s. b6 s5 [9 k+ a' c+ h
一觉醒来,整个科技圈惊掉了下巴!!!
. V- h. P$ f( K* w0 K" J, D
/ i% r. L" T* o9 k( H深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。: \1 M: W4 ]" E1 Q
7 O; g J6 b2 o$ d3 O4 i& L/ X- i% s0 w
" M- E1 U# F; P3 `1 g7 d, j
为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。 ; F9 \; s; Y# y1 t) v4 f
纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!9 h3 M% e/ a( J2 T
而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对自己的毕生工作,感到非常后悔。」" ]0 A) F- _$ J8 M& L: ~. K+ `) d
如今,距离Hinton入职谷歌,刚好十年。
6 p8 c1 w$ n6 [5 i j
5 ?7 {0 n q) [! t0 _9 S# F
' S$ y3 J# Z1 }对于Hinton此举,有人甚至劝说,应该将关注人工智能安全常态化,而不必辞去工作。: O& q; m& b z- f
. l1 k3 x* x6 {8 h' @
, |& @/ B6 K* G# T4 \6 O4 m这更应该是你留下来的理由。因为世界是不会停止的,像你这样的伟大人物应该坚持下去,并将人工智能发展的更好。
# S; _+ e4 S- p: K% C: J2 B! E& _9 g5 }% F# f; v( y( Y; E6 W1 n& L
2 n& D3 W2 d z5 x! c你应该劝说你的学生Yann LeCun和Ilya Sutskever。8 j" g7 `5 ]* h! L
值得一提的是,ChatGPT背后真正的英雄正是OpenAI的联合创始人兼首席科学家Ilya。- G$ A- p8 k) T M9 G2 M! Y3 l
9 s' y9 V7 F5 ?$ N( O8 u
- x# ^5 k. B. @. B' vAI「关键时刻」,人类控制不住了3 d, N1 E0 Y M7 \
被称为「人工智能教父」的Geoffrey Hinton,一直都是该领域最受尊敬的先驱之一。
+ x" q4 g$ {! q$ b3 O9 t9 ~& O# ]( ^- `& ~) r
6 N" T1 x2 _9 H# r6 |1 i而Hinton提出离职的时间,正是在此之后的4月份。
& A2 o; h- P+ _5 S
5 r. f7 T0 X0 B
& }+ l3 H- K0 e; {1 A从他的推特上可以看出,无论是最近GPT-4等超强AI引发的巨大争议,还是谷歌高层的剧烈动荡,Hinton都始终保持缄默,不发一言。
, n& [ I. O3 @. `, O8 v% P* N许多人关注着这位人工智能教父的态度。
0 i" [, L4 q2 Z5 ?在CBS的一次采访中,Hinton表示「我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。」
; X* Q8 A. F3 p9 |( {6 v/ J
! H: P0 D8 f+ D( n4 _ g5 r2 @$ D% g" f4 Z) e
从人工智能的开创者到末日预言者,Hinton的转变,也标志着科技行业正处于几十年来最重要的一个拐点。
B$ H3 {" ?, t" P8 c5 Q先驱的沉痛反思,让我们终于不能再掩耳盗铃,假装没有看见AI可能给人类社会引发的深刻改变和巨大危机了。
4 p8 O+ ~" U: s8 ]8 ^! u9 J( m盖茨等许多大佬认为,ChatGPT可能与上世纪90年代初网络浏览器一样重要,并可能在药物研究、教育等领域带来突破。
- \; Y% c! d9 K# j3 @0 p! \与此同时,令许多业内人士不安的是,他们担心自己所做的研究,正在向外释放某种危险。
' b' {/ t2 R- H5 r$ R3 q因为生成式人工智能可能已经成为产生错误信息的工具。并在未来的某个时候,可能会对人类构成威胁。9 N6 ]! n& _8 `0 @2 _( I& U
* q4 p" W2 d) \( b9 M5 N1 F" w. j. \ t0 A" ]8 O
在Hinton看来,如何防止坏人利用它做坏事,我们还未能找到方法。
/ B% Q% n {) E _, I: t在3月底呼吁暂停超强AI六个月的公开信发出几天后,人工智能促进协会的19位领导人也发布了公开信,警告AI的风险。
- H0 v- A6 v8 v7 P2 |其中就包括微软的首席科学官Eric Horvitz,而微软已在一系列产品中(包括Bing搜索引擎中)部署了OpenAI的GPT技术。2 L0 u U3 i9 ^
在喧嚣的反对浪潮中,人工智能教父Hinton却并未在这两封信上签名。
4 K, [3 R6 @9 J g \; U# c他说,自己在辞去工作之前,并不想公开批评谷歌,或其他公司。* `' F) b& t) n! _7 _% N
忍到上个月,Hinton终于下定决心,通知谷歌自己即将辞职。
1 X7 G& e* y0 |! ` u, \( P, {选择离职谷歌后,Hinton终于可以畅所欲言地谈论AI的风险了。0 ?1 M0 M( V& I; @ O$ c1 {& R
9 T1 ?; ~6 A m) _' X( e我对我的毕生工作,感到十分后悔。 我只能这样安慰自己:即使没有我,也会有别人。
2 `, {3 K# a+ G+ a3 m
v, y2 _ p5 D8 \" V3 S' F- p( {, g* l6 u) Q+ b9 h
上周四,他与谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了电话,但他表示不便透露此次谈话的细节。6 c" R7 C0 e6 H- [+ ^, a3 J0 H
作为一家大公司,谷歌对于AI的态度一向保守,甚至保守到,眼睁睁看着自己在聊天AI机器人之战中被甩在后面。
2 W5 b% W1 t' x. X早在2015年,谷歌的图像识别AI曾将黑人标记为「大猩猩」,招致的批评让谷歌成为惊弓之鸟。
9 Z& F8 x7 J- H: w: t在OpenAI推出Dall-E 2、名震全球之前,谷歌就有类似模型,但并没有发布,因为谷歌认为需要对AI生成的内容负责。- x3 _6 q) E1 Q/ _
而早在2021年,谷歌就已有了类似ChatGPT的LaMDA聊天机器人,但谷歌始终未发布。直到2022年11月底,OpenAI凭ChatGPT占尽风头。: u1 b3 D7 e s }: L2 d% n( U
如今,谷歌首席科学家Jeff Dean在一份声明中表示:「我们仍然致力于对人工智能采取负责任的态度,我们正在不断学习了解新出现的风险,同时也在大胆创新。」4 R# r( g/ \/ }- D1 b6 [
开启了历史,也见证了历史
' I0 H# I) ?3 y1972年,Hinton在爱丁堡大学开始了他的研究生生涯。
1 m3 K8 d' |3 h8 k; Y0 R( g) w在那里,他首次开始研究神经网络——一种通过分析数据来学习技能的数学系统。
5 A! M- Y* A' b# ^3 g6 q当时,很少有研究人员相信这个观点。但这成了他毕生的心血。
9 H0 j. F9 h) N, A9 P9 O# X8 E, X# y% ^& ?
/ [0 \8 b. U( E
2012年,Hinton和他两名学生Ilya Sutskever和Alex Krishevsky建立了一个神经网络,可以分析数千张照片,并自学识别花、狗和汽车等常见物体。. O. f" c4 a$ C# i e: E
神经网络成为他与两名学生共同创建的公司DNNresearch背后的突破性概念,该公司最终在2013年被谷以4400万美元收购。
! e! D4 C4 y, @8 e3 }2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因对神经网络的研究获得了2018年的图灵奖,而神经网络正是ChatGPT、Bard等聊天机器人背后的奠基性技术。
( A& K9 |$ ]6 {' w2 N; e% r' ~. ^1 H: T4 p) m
. Q7 Y! g" c& Y而Hinton的学生Ilya Sutskever,也在后来成为OpenAI首席科学家。
% n- c: A) I/ `: c
# \ r. {5 r9 V4 w
( S+ s. _7 V8 C2 Y% p大约在同一时间,谷歌、 OpenAI和其他科技公司开始构建从大量数字文本中学习的神经网络。, u- w4 Q: t2 m. {% p$ F$ n
那时的Hinton认为,这是机器理解和产生语言的一种强大方式。当然不得不承认,比起人类处理语言的方式没,神经网络还是力不能及。
; U' o, N. f. Y7 m/ C" E2022年,随着谷歌和OpenAI 利用大量数据构建超强AI。% G/ }# J7 s, x4 O
Hinton的观点发生了重大转变。他仍然认为这些系统在某些方面不如人类的大脑,但它们在其他方面正在超越人类的智力。' C( l( R) P" `- R7 i" ^/ W
GPT-4发布当天,Hinton曾表示,+ ]7 N. ~/ r* I4 ^. d1 q
6 G! A: k6 z( K3 m& J" I
毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。 6 e. M6 m0 U3 R) a
+ k) ?3 c) ?3 b1 { a7 B+ r" Q$ ?7 b/ [& p8 [ o) ?
Hinton称赞的背后,让许多人看到超强人工智能系统的智力已经非同寻常。- s5 f/ r5 B! x
对此,Hinton谈到人工智能技术时表示,随着科技公司改进人工智能系统,它们变得越来越危险。% a4 l6 m3 }0 @1 D5 J
看看五年前和现在的情况,如果还要继续传播这项技术,后果就太可怕了!
0 T- t( o4 `+ v: o9 Z# ]! T在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技术上谨慎的态度。
5 F# k7 m7 l0 Y* f; j* A他表示,直到去年,谷歌一直扮演着这项技术的「合适管家」角色,谨小慎微地不去发布可能造成危险的AI。$ A2 V0 c2 G: h! ]/ Z- y7 z" ^6 h
这恰恰解释了,为啥谷歌在这波人工智能浪潮中落后的原因。. _' P3 P; ^' D F1 V" ?
但是现在,微软为其必应搜索引擎接入GPT-4的能力,已经让谷歌焦急地不得不做点什么。
5 u0 [% \. w% b& kHinton称,科技巨头们正在进行一场可能无法阻止的竞争。
- Y) V& w9 F! c5 k# Y. `9 W0 X+ Y, G8 q; |" a
0 O0 i6 O/ O3 l: Y, U8 L他眼下担心的是,互联网上将充斥着虚假的照片、视频和文本,人们也无法去辨别什么是真实的,什么是虚假的内容。
$ ^! Y" H, X4 k7 _' H他甚至还担心,人工智能技术迟早会颠覆就业市场。
3 A3 R* L0 n' {+ w: B2 H+ C如今,像ChatGPT这样的聊天机器人往往能很好地辅助人类工作,甚至取代律师助理、私人助理、翻译、以及其他处理死记硬背任务的人。
1 N' N# d; a5 |5 x0 m# ]9 o未来,他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。
$ \* S- M3 A# [人工智能系统不仅可以生成代码,而且自己运行代码。前段时间爆火的Auto-GPT就是一个非常典型的例子。! D, o% Q% Y. |. ^9 c7 o6 p
2 N2 o+ d: [) M5 J2 r: ~3 [5 ^
他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。
- m3 x- w0 \# W上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。
- P# X& q, k7 u6 i
3 _+ n3 K- w3 r* d0 O; R
! V/ A3 y6 p% ^& S8 r5 G- f在一些人看来,类似的系统实际上比人类更聪明。Hinton表示自己曾经认为,这太离谱了,最起码要30-50年,甚至更久才能实现。5 R6 s, e V* B
. X# P# m8 a9 H( D4 J$ W
而现在,我不再那么想了。
+ ]" t7 a5 ?5 U. ]7 J许多其他专家,包括Hinton的许多学生和同事,说这种威胁还仅是一种假设。
5 P0 B5 t% `' w; G1 q4 q他指出,谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!1 a% X( m9 L i' X" [
% n5 [! X. P) h) p2 d0 X A* }" x! |2 ?& c: ]2 e: H, d5 v
但他表示,这也不是绝对的。与核武器不同,我们无法知道哪个公司或国家,是否在秘密研究这项技术。
, S) V# _( z+ f7 {) v7 h% G8 E网友热议, l* q! D& K7 y* ]+ T
有网友认为,Hinton对于的AI的看法太悲观了。* P: V, u- u" o% p6 q' i
我见过的ChatGPT积极应用案例远多于消极的,但现在的趋势是把AI描绘成邪恶的炼金术。这些担忧是合理的,我们会学习,我们会纠正它,然后我们会继续前进。
+ Y% _* R7 c" q p0 I/ f
$ l( s/ r# ]0 a/ B9 Z
G$ G2 m) \( z( j. I甚至有网友将其比为天网,但我们还不能将其关闭。「人工智能就像潘多拉的魔盒一样,一旦打开就无法关闭。」, g) K X' w" x8 D. M, b* u' ~
! ~+ {4 J% M, X& J- B9 {: \ ?) ?) C8 `" g( [" c
还有人对谷歌「负责任」这一观点提出异议:
' _3 Y% x5 @9 {! f8 b% D" d! I/ {( d-使用Breitbart训练AI模型;-让负面信息在YouTube上大肆传播(反过来又为推荐算法提供依据);-散布有关安全和隐私的科学假信息;-开除专家# x' N, v/ u- w7 A2 T/ V
/ V# R# L9 t `% Z: Z2 w
' j6 d0 ~9 @: N; I谷歌大脑和DeepMind合并这一事,与此相关吗?
: C1 i m) [& L
( A( Q- U& t8 p. a) f: ]$ U6 Q; q9 e' d) ^
还有网友发出疑问,连Hinton都离职了,下一个会是?! Y9 G7 h# s$ D7 P+ n
" F: N9 w9 m: E" W9 B, B
' S/ [ z3 \3 {" }! m参考资料:
! g1 ?1 `5 Z" X) jhttps://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|