|
|
本地视角记录硅谷,全球视野关注创新
3 S* A( }( |8 b6 @7 h, O- N; R别忘了给我们加星标 ~
3 P( j5 M S' _0 D: J2023! _. Q0 M1 k3 u9 R) F2 I L( x
新技术追踪
2 T3 Q7 {, P( f: H5 M% k1 a' V2 O( XBUSINESS# S5 B( V4 U4 Z9 H; w: T% u
深度学习的奠基人开始后悔自己的毕生研究。( S3 M9 C. {2 p$ d
文| Juny 编辑| VickyXiao9 B7 a$ W+ j7 \9 H7 U$ { l# H
进入2023年以来,科技界里彷佛没有了大事,只剩下了人工智能。人人都在谈论ChatGPT、科技圈开卷大模型、OpenAI估值节节攀升、大公司你追我赶硝烟四起……
# ~6 l( D+ a+ q3 I7 I8 h7 {而这一切繁荣的背后,其实都离不开三位人工智能研究者的工作———曾因提出和发展深度学习神经网络,在2019年获得计算机界最高荣誉“图灵奖”的Geoffrey Hinton、Yoshua Bengio、Yann LeCun。3 z7 F; I$ p1 b( c/ Q2 A
可以说,没有这三位学者的研究,我们今天根本看不到ChatGPT、Bard的出现,也不会这么快的就能在日常生活中使用语音识别、人脸识别、图片检索、机器翻译、自动驾驶等技术。# a) v0 ?8 ?2 S
其中,Geoffrey Hinton是“三巨头”中最核心的人物,被业界誉为“人工智能教父”。他在2013年加入谷歌,把深度学习技术带进了谷歌的多项业务,直接推动谷歌成为了AI技术最出色的公司之一。同时,他还亲自培养了一大批机器学习相关的人才,包括了如今OpenAI的联合创始人和首席科学家Ilya Sutskever。6 e" ^8 \8 J. O) d0 y) d* I! W
: X7 W$ I' o- j( ]
“深度学习三大先驱”,图片来自于推特( b) H2 a6 ^6 H& F
- t1 ~- ]0 ^% J2 O/ |$ B
而就在加入谷歌的第十年、深度学习迎来爆发式发展的当下,几周前,现年75岁的Geoffrey Hinton辞去了他在谷歌的工作。而离职的原因,用他的原话来讲,是想要没有任何负担的给所有人讲一些他关于人工智能发展的“真心话”。
* L& G! D) f W5 z, W4 m|来自“人工智能教父”的担忧和警告
0 }! p( Z1 e/ Y6 k1 q1 n如果说谁最热爱深度学习相关的人工智能研究,Geoffrey Hinton一定是最有发言权的那一位。从上个世纪70年代至今,Geoffrey Hinton作为计算机神经网络的开拓者,已经在这个领域默默耕耘了近50年。
; [9 E9 _6 Q2 l9 h& P4 c7 m- ]对于Geoffrey Hinton来说,从无到有的创造一个全新概念和技术的过程曾经无比艰难。
. Z3 N) }- o A0 B1 {* }8 W从上个世纪 80 年代他提出神经网络理论开始,一直到本世纪初,长达 20 多年的时间里,学术界对神经网络理论都充满质疑,同时,受制于当时数据集规模限制以及计算机算力的不足,相关研究的进展也一度非常缓慢。 在这个漫长的过程中,一些人放弃了、一些人转了研究方向,但 Geoffrey Hinton 从未放弃过关于深度学习神经网络的研究。
' @" z( [8 Q1 e) ]5 @但如今,深度学习终于守得云开见月明,所有人都开始向深度学习里疯狂砸人力、砸资金,坚守了多年的Geoffrey Hinton这时却想要大家都暂停脚步,甚至对自己付出了一生心血的研究感到有些后悔,为什么?
. g$ Y6 W' }# {3 ]( e在最近接受纽约时报的专访中,Geoffrey Hinton表示,自己此次从谷歌离职并不是因为要批判谷歌,而是他能够在不影响谷歌的情况下,去真实地谈论AI的潜在风险。
- f2 d% ~. A7 J% v在他看来,作为AI技术的领军者,过去这些年谷歌一直扮演着一位“负责任的管家”的角色,小心翼翼地保留和控制着那些可能造成伤害的技术。但由于微软极快的将Bing和ChatGPT结合并向公众发布,挑战了谷歌核心的搜索引擎的业务,所以谷歌也无法像过去那样继续保持着发展节奏,科技巨头陷入了一场可能无法停止的竞争之中。
6 K1 D2 `( I& K" G5 O' Y7 d: E
# V3 k& n. q) L
/ b5 o2 d* X& K$ |$ m在这样的情况下,他需要以一名研究者而不是谷歌员工的身份站出来,给大家发出警告。结合整个采访来看,Hinton主要有以下几个方面的担忧。' M) I0 C! A5 u' y4 O
一是在人工智能技术的支持下,他认为互联网将很快被各种虚假信息淹没。这些信息包括文字、照片、视频等,而普通人将越来越难分辨这些信息的真假,引发社会的失序。
# r q& g$ @) N: ?5 p$ U! e+ `二是就业市场可能在就业市场还没有准备好的情况下被颠覆,造成失业潮的爆发。虽然目前像 ChatGPT 这样的聊天机器人还只是对人类工作的补充,但按照人工智能的发展速度,它们将很快可以取代律师助理、翻译、行政助理等其他任何基础的、重复性的工作。“它消除了苦差事,但带走的可能远不止于此。”Hinton表示。' F; G, d0 s* T% ^/ B
此外,他还担心人工智能技术的接下来的发展会对人类社会构成威胁。他承认,在他们过去的研究之中,人工智能常常能从大量数据中学习进而产生出很多让人意想不到的行为。而当前,包括个人和公司在内的很多使用者们不仅让人工智能自主生成代码,也让人工智能运行和管理着代码。在这种不断的训练之中,很有可能让“自主杀手机器人”真的成为现实。
2 _5 W2 L- u; t3 o# Q6 A. @6 q“很多人都觉着这很遥远,我曾经也是这么认为的,觉得至少还要有30-50年我们才会走到那一天。但就我目前所了解到的信息而言,我已经不这么想了。”Hinton认为,谷歌和微软以及其他大型公司之间的竞争,将很快升级为一场全球性竞争,如果没有某种监管,这场竞争将不会停止,人工智能发展的速度会远超我们的想象,并最终走向失控。
, [" [- [$ q; S7 _9 p& s9 |1 a: p' x|呼吁AI监管的声音越来越强
3 F2 {. ^ }6 t3 l) V- L如果以上这些话从别人口中说出来,大家可能仍然会觉得这些观点带着危言耸听的意味。但当如今世界上人工智能领域最权威的专家、深度学习的奠基人Geoffrey Hinton也这么说时,也引发了更多人开始认真思考和关注这个问题。
' f& ?) G6 I9 L: I. y实际上,在此次Geoffrey Hinton发声之前,最近几个月来人工智能领域就已经发起过两波大型的联名,呼吁谨慎地发展人工智能技术。/ B, p2 ^0 y) }1 [* ]- u
一次是由马斯克、Yoshua Bengio等数千名来自学术界和企业界的大佬呼吁至少暂停6个月比GPT-4更强模型的研究的公开信。另一次则是由拥有40多年历史、人工智能领域最权威学术机构之一的人工智能促进协会(AAAI)的19名现任及前任领导人所发布的联名信,其中也包括了微软现任首席科学家、人工智能研究专家Eric Horvitz。
3 M* M* O1 X' X) _. r }+ J+ l4 Q4 X
1 c0 v9 `3 Z7 x, R: p
虽然此前马斯克他们暂停模型研发的呼吁在业界受到了争议,包括Yann LeCun、吴恩达在内的研究者都对停止研发“一刀切”的做法表示了反对,甚至也有人质疑马斯克等人提出暂停研发是为了私利。但目前看来,关于共同加强AI监管、预防潜在性危险发生的观点,大家的看法几乎都是一致的。
" W( n( s6 G( O5 B在今天Geoffrey Hinton的报道发出后,吴恩达第一时间转发了Geoffrey Hinton的推特表示支持,感谢Hinton对于人工智能技术所做出的不可估量的贡献,以及对人工智能在虚假信息、自动机器和劳动力影响方面的发声。# A+ C5 y5 H |+ e, M- x7 v
5 h m9 [$ q/ L8 F$ d1 S; B. G3 I5 \/ c8 K) b6 m/ y0 ?# A
一些AI的投资人、研究者今天也纷纷转发了Geoffrey Hinton的访谈,呼吁学界、工业界、政府监管机构应该快速行动起来,趁当前技术还在可控范围内,尽快制定好监管框架和应用方案等。
: G1 |; _9 a: q$ k! d
. T' p$ D! U1 g& D9 M1 y# ^. Q+ O- s6 M; [' k7 w" V* d- p+ M3 b
当然,也有研究者并不认同AI威胁论,其中就包括了Geoffrey Hinton曾经的学生、研究的伙伴Yann LeCun。他此前多次表示,大语言模型根本不算什么,要想真正通往AGI之路,还需要构建“世界模型”。9 F0 W( W4 a% i/ l& o5 [
对此,很多人也很希望这些对于人工智能发展持有不同观点的研究泰斗们能够很快来一场深度对谈,让人们更多的了解当前人工智能发展前方的机遇和风险。
5 _5 b- @! X! e2 k' V
+ Y: t% p( g+ e1 O) e+ V. J
, [5 ]. x% k) d- B3 }2 d|AI会成为新时代的“原子弹”吗?
& ~& e' M) l/ J* n P在此次的访谈中,一个尤其引人关注的地方在于Geoffrey Hinton在谈到AI风险时,多次提及了核武器。从一定程度上来看,Geoffrey Hinton或许认为AI对人类社会的潜在危险并不亚于核武器。
$ L% Q4 d) }* I4 w他表示,跟核武器研究不同,现在AI研究更危险的地方在于,我们目前几乎没有办法知道有哪些组织或者国家正在秘密研究这项技术。理想的情况下,全球各国组织和科学家们应该共同进行合作和对技术进行控制,但显然现在很难做到这一点。
/ q `1 E+ U& D" c% j作为深度学习技术的发起人,Geoffrey Hinton坦言自己目前甚至有些后悔进行了这项技术的研究。当潘多拉魔盒被打开,作为研究人员很难去防止不好的人利用这些技术去做不好的事。4 H) Q: a0 k" v. ]; K! q
而Hinton的这种说法也让人不由地想起了当年“原子弹之父”罗伯特·奥本海默相似的心路历程。当年,美国在广岛长崎投放原子弹两个月之后,奥本海默辞去了职务,之后他在担任美国原子能委员会顾问期间一直致力于游说国际机构对军备进行管制,并运用影响力宣扬控制核武器和核不扩散运动。2 l, g0 W, U( {4 B0 ]0 }$ M& m" {* K
Geoffrey Hinton说,以前人们问他如何从事具有潜在危险的技术时,他总会会引用奥本海默的话:“当你看到一个东西拥有美妙的技术前景时,就尽管去做吧。”但现在,他已经不会再那样说了。8 _- E+ w2 I, I+ n& Q: Y. i% }' ~
“人们不应该快速扩大AI研究的规模,直到足够了解自己是否能够控制它,”Geoffrey Hinton说道。
, w$ T' X9 }$ g+ S# o, t*参考资料:0 i) G" Q+ n6 [' w
https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html
) j# K5 m7 ]6 q' s% L+ h0 N0 F注:封面图来自于多伦多大学官网,版权属于原作者。如果不同意使用,请尽快联系我们,我们会立即删除。3 W; L. g) W* p/ C
2)分享到你的朋友圈和微信群
$ ]. E( S0 W3 G( o$ d/ `( @3)赶快关注硅星人吧!% h8 z7 G( g5 k
关注硅星人,带你用本地视角看硅谷,全球视野看创新 |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|