京东6.18大促主会场领京享红包更优惠

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 521|回复: 3

75岁图灵奖得主Hinton离职谷歌!痛悔毕生工作,无法阻止人类AI大战 ...

[复制链接]

1581

主题

676

回帖

6775

积分

论坛元老

积分
6775
发表于 2023-5-3 08:20:47 | 显示全部楼层 |阅读模式 来自 江苏常州
) M; {; y' y1 F9 t0 ~( _

- z. U- }) C8 `2 p5 ?, m新智元报道: B  x9 e% }) K0 c' U
编辑:编辑部7 o6 K  [6 J( u6 ?$ f
【新智元导读】入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。
) j( z( H) d" {1 [一觉醒来,整个科技圈惊掉了下巴!!!
6 |7 k. D* Q( w: C
* |" a% P- D! }5 k% k4 d& S3 s深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。
# h( ^4 w% X: `
# u# Z4 B' {0 l& h1 p9 I; T# ?
3 Z) k& B- t; Y3 @
' x# b: D* ]$ R$ M$ U# n
为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。
2 ]( u5 c: `8 {  c; f$ k
纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!& P8 K: L3 A* J9 _. [* A7 L- K7 I
而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对自己的毕生工作,感到非常后悔。2 l3 I$ @  S5 }! }- c7 @3 `& _
如今,距离Hinton入职谷歌,刚好十年。; z2 S0 {; C) g
( o/ v* w4 f6 d6 S

' {7 K' i4 @' K# ?$ ^8 c对于Hinton此举,有人甚至劝说,应该将关注人工智能安全常态化,而不必辞去工作。
+ O+ v9 d  g; F7 {# m1 O' Z# \5 x* @0 E& [7 M& N  V1 y
( p+ ~7 R5 |8 F4 s3 v# b
这更应该是你留下来的理由。因为世界是不会停止的,像你这样的伟大人物应该坚持下去,并将人工智能发展的更好。2 Y  t3 `4 D, N1 Q' S. E0 E
! U0 V: p" Z, O. R* H  T* \
/ K& N9 M, T) a  P1 B2 {" t) k
你应该劝说你的学生Yann LeCun和Ilya Sutskever。
/ {" R0 K& Q5 c( p. K值得一提的是,ChatGPT背后真正的英雄正是OpenAI的联合创始人兼首席科学家Ilya。
, V' `0 ^5 p- o: O$ x' d8 |. B2 c( r" y9 K
! a6 Q/ d% z6 C. Z2 ^  p
AI「关键时刻」,人类控制不住了! b, e! P' q7 @. K3 P
被称为「人工智能教父」的Geoffrey Hinton,一直都是该领域最受尊敬的先驱之一。+ F4 \4 d5 S- F+ M

0 _% {' k5 p$ j! ~; [& p- i$ Z/ S% \4 ~& C
而Hinton提出离职的时间,正是在此之后的4月份。  {/ e+ r  f: k

2 f# J0 r3 S+ g, g. |7 z" h/ p: F% ~$ F' m1 l
从他的推特上可以看出,无论是最近GPT-4等超强AI引发的巨大争议,还是谷歌高层的剧烈动荡,Hinton都始终保持缄默,不发一言。4 ?$ l- M, O+ H4 _. b1 N' I. `; f
许多人关注着这位人工智能教父的态度。8 m& }& s1 v% Q7 Y
在CBS的一次采访中,Hinton表示「我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。」/ }9 Q& ?  f+ C- I# b4 F( {
2 F( H1 I: B: o3 [$ l8 t

$ \2 D8 E! E& V6 T6 b从人工智能的开创者到末日预言者,Hinton的转变,也标志着科技行业正处于几十年来最重要的一个拐点。
( |& X) \; H2 g! t. a先驱的沉痛反思,让我们终于不能再掩耳盗铃,假装没有看见AI可能给人类社会引发的深刻改变和巨大危机了。: v8 G. s& W9 I0 I8 {* B% C" y
盖茨等许多大佬认为,ChatGPT可能与上世纪90年代初网络浏览器一样重要,并可能在药物研究、教育等领域带来突破。
6 l! Y+ A. j/ q/ x与此同时,令许多业内人士不安的是,他们担心自己所做的研究,正在向外释放某种危险。! {3 g' Y; ]) f" C- b8 W( a! `
因为生成式人工智能可能已经成为产生错误信息的工具。并在未来的某个时候,可能会对人类构成威胁。6 T5 [* w, a- @- {! C9 o
% ^9 F9 X, m+ p8 ^1 W( O

) B! z+ g. g" T在Hinton看来,如何防止坏人利用它做坏事,我们还未能找到方法。
1 t& Q9 |. ^! e4 P8 m5 L; ~( I在3月底呼吁暂停超强AI六个月的公开信发出几天后,人工智能促进协会的19位领导人也发布了公开信,警告AI的风险。9 I% |, l+ P/ |0 t" O; O
其中就包括微软的首席科学官Eric Horvitz,而微软已在一系列产品中(包括Bing搜索引擎中)部署了OpenAI的GPT技术。
+ J, @0 K8 [9 n! k在喧嚣的反对浪潮中,人工智能教父Hinton却并未在这两封信上签名。
" w; Y4 p4 f* ?0 O他说,自己在辞去工作之前,并不想公开批评谷歌,或其他公司。' L" J- p, T& r7 d. p. m! j; u* T
忍到上个月,Hinton终于下定决心,通知谷歌自己即将辞职。" M- j. N+ @# T* y0 |, k6 I0 r3 f  @
选择离职谷歌后,Hinton终于可以畅所欲言地谈论AI的风险了。
2 l9 P0 @) ?- b
7 U: p2 B. ~5 W  G4 \2 _+ W
我对我的毕生工作,感到十分后悔。 我只能这样安慰自己:即使没有我,也会有别人。

3 _1 O1 M* @/ r$ {' a6 e& e+ V1 r4 }9 }, |# M

9 F1 z5 c) m& g0 C上周四,他与谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了电话,但他表示不便透露此次谈话的细节。
4 C6 _+ `* d& P/ Q5 c1 z, _3 s作为一家大公司,谷歌对于AI的态度一向保守,甚至保守到,眼睁睁看着自己在聊天AI机器人之战中被甩在后面。
9 Z% a" V( u1 z: f; |早在2015年,谷歌的图像识别AI曾将黑人标记为「大猩猩」,招致的批评让谷歌成为惊弓之鸟。
/ h/ }) W, N9 O1 P! `' m& `; F. K在OpenAI推出Dall-E 2、名震全球之前,谷歌就有类似模型,但并没有发布,因为谷歌认为需要对AI生成的内容负责。
3 A* {# p; o( y而早在2021年,谷歌就已有了类似ChatGPT的LaMDA聊天机器人,但谷歌始终未发布。直到2022年11月底,OpenAI凭ChatGPT占尽风头。0 f. Z& D7 t; T. V( A3 ^9 K
如今,谷歌首席科学家Jeff Dean在一份声明中表示:「我们仍然致力于对人工智能采取负责任的态度,我们正在不断学习了解新出现的风险,同时也在大胆创新。」6 F) S& y; N7 p9 ^' o, J* {
开启了历史,也见证了历史
/ u/ _# e' t' c1 E# T1972年,Hinton在爱丁堡大学开始了他的研究生生涯。8 G/ ]9 t" T( ^% m3 D
在那里,他首次开始研究神经网络——一种通过分析数据来学习技能的数学系统。
3 b' b6 R. v. R; \0 \! C当时,很少有研究人员相信这个观点。但这成了他毕生的心血。- n0 W9 T- ?/ y/ ~: Q) l

, L% X8 h: `) O- D# U( C, f8 J" u% q: N) u
2012年,Hinton和他两名学生Ilya Sutskever和Alex Krishevsky建立了一个神经网络,可以分析数千张照片,并自学识别花、狗和汽车等常见物体。8 Z$ [* @7 }6 h' n. i
神经网络成为他与两名学生共同创建的公司DNNresearch背后的突破性概念,该公司最终在2013年被谷以4400万美元收购。8 ]$ ~8 c% P  H4 \9 x
2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因对神经网络的研究获得了2018年的图灵奖,而神经网络正是ChatGPT、Bard等聊天机器人背后的奠基性技术。) i! X7 t8 n( W& [4 K7 W. E
6 |- z! c! n4 }  a

" Q& W) _! c/ u& i8 g# J而Hinton的学生Ilya Sutskever,也在后来成为OpenAI首席科学家。! w6 W. v2 _6 V1 n& c( z

, f5 Y- O" k& J
. u" O( A) G% W- n3 @! E大约在同一时间,谷歌、 OpenAI和其他科技公司开始构建从大量数字文本中学习的神经网络。! f( T  P( K) o* \& S- T; y
那时的Hinton认为,这是机器理解和产生语言的一种强大方式。当然不得不承认,比起人类处理语言的方式没,神经网络还是力不能及。/ p# W! A$ ]3 ?' E* z6 c7 k6 P& q
2022年,随着谷歌和OpenAI 利用大量数据构建超强AI。
3 f; O; y: M4 aHinton的观点发生了重大转变。他仍然认为这些系统在某些方面不如人类的大脑,但它们在其他方面正在超越人类的智力。
5 ~  I8 T) u& U3 V) R' i/ N; G8 B; KGPT-4发布当天,Hinton曾表示,( e7 l3 `# \' ~5 ]& u5 C6 p
& ~& h4 l$ |# n% ]8 O3 M( ]
毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。
! A5 Q# h- o5 e8 V0 \3 D

: S8 u# ^) L0 d4 e7 |/ U! ^4 `
1 t: e' f) v, j" s4 DHinton称赞的背后,让许多人看到超强人工智能系统的智力已经非同寻常。
! F# g& q/ L  w, ]& s* x; @4 n* L对此,Hinton谈到人工智能技术时表示,随着科技公司改进人工智能系统,它们变得越来越危险。, p) r$ V8 q$ ~3 v7 w: Y6 S
看看五年前和现在的情况,如果还要继续传播这项技术,后果就太可怕了!5 X3 D0 O1 g7 j/ l. ~4 P
在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技术上谨慎的态度。
; u4 K2 C0 o2 u) j0 o他表示,直到去年,谷歌一直扮演着这项技术的「合适管家」角色,谨小慎微地不去发布可能造成危险的AI。" n6 K- D9 }" U3 r; R' `& u  B
这恰恰解释了,为啥谷歌在这波人工智能浪潮中落后的原因。; L( B/ V! t2 P$ ?1 Y8 L
但是现在,微软为其必应搜索引擎接入GPT-4的能力,已经让谷歌焦急地不得不做点什么。& X+ D, ~* @7 b; l
Hinton称,科技巨头们正在进行一场可能无法阻止的竞争。0 U( ?/ {) j- W* B, G  S4 U

% V* q' }/ }% Z  y, [$ U. M
0 `0 W! l; N  H5 z( j* N9 R, j( \他眼下担心的是,互联网上将充斥着虚假的照片、视频和文本,人们也无法去辨别什么是真实的,什么是虚假的内容。' a) l9 u! x: x" W. X* u
他甚至还担心,人工智能技术迟早会颠覆就业市场。/ F2 I" [3 t9 u. Q% T, E
如今,像ChatGPT这样的聊天机器人往往能很好地辅助人类工作,甚至取代律师助理、私人助理、翻译、以及其他处理死记硬背任务的人。& m' e: D  |+ z7 A  ?/ J  H
未来,他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。
4 D% k$ u) K8 c2 V. g. d& A人工智能系统不仅可以生成代码,而且自己运行代码。前段时间爆火的Auto-GPT就是一个非常典型的例子。
" G6 p6 S" J  H8 h; \, h& k
: l: J6 p4 v* s1 G5 Y  [( @3 w' L1 s7 f# n+ h. f' B
他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。
& B6 q" l3 T+ e7 Q# @上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。% Q8 E2 G/ [. K1 p% W

( u! i! V) Q' s- M+ s3 d0 W0 Z) _" \% [) h. i
在一些人看来,类似的系统实际上比人类更聪明。Hinton表示自己曾经认为,这太离谱了,最起码要30-50年,甚至更久才能实现。
  O4 D; `1 ~* e' {& t) b* T' U7 b7 {  k3 D9 l
而现在,我不再那么想了。

, e  }: z; D6 t许多其他专家,包括Hinton的许多学生和同事,说这种威胁还仅是一种假设。. q: r; J- ]# s# v+ H3 k
他指出,谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!8 L' F! ], d0 n+ p% M

$ M1 z  r0 D3 B4 y) K) J& Q5 C
9 J" j7 U7 R& m5 |* x7 Z# @4 |; g但他表示,这也不是绝对的。与核武器不同,我们无法知道哪个公司或国家,是否在秘密研究这项技术。/ i4 W* r. Q2 i' \
网友热议
( E) b3 ~( H' u7 J1 p有网友认为,Hinton对于的AI的看法太悲观了。
8 [: u& C: L1 @7 P我见过的ChatGPT积极应用案例远多于消极的,但现在的趋势是把AI描绘成邪恶的炼金术。这些担忧是合理的,我们会学习,我们会纠正它,然后我们会继续前进。. K; \0 [" `; `: a4 W! e3 n
7 O& s. _. |( m; h
5 n" O* w/ V- O
甚至有网友将其比为天网,但我们还不能将其关闭。「人工智能就像潘多拉的魔盒一样,一旦打开就无法关闭。」
8 y/ m. _( r5 Y8 i- q
4 L6 g. h3 P- e+ \+ \
8 s$ u7 \* q# P7 d还有人对谷歌「负责任」这一观点提出异议:
% `  N" i5 A" v" ^( m6 W-使用Breitbart训练AI模型;-让负面信息在YouTube上大肆传播(反过来又为推荐算法提供依据);-散布有关安全和隐私的科学假信息;-开除专家- J6 c6 W9 P' D  d* m

6 G1 [. h: ]: w5 W7 w* e) k# u& A" {7 E; f/ J3 _; d: M
谷歌大脑和DeepMind合并这一事,与此相关吗?
  k+ e$ }, k' x3 }) [/ @$ p; v! j2 Y* B: y
1 y5 e' ?1 O! a% w
还有网友发出疑问,连Hinton都离职了,下一个会是?
- v0 n+ A; ^1 Z- {+ |( |# {& }2 C; e: a3 G" n# E

" {$ h' ?* e1 |  C1 f# e7 s3 H+ @参考资料:
( W& o) n( F7 X4 N) k% Zhttps://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

帖子地址: 

梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

1611

主题

740

回帖

6663

积分

论坛元老

积分
6663
发表于 2023-5-3 08:41:07 | 显示全部楼层 来自 江苏常州
他可能就是终结者二里面莎拉康纳想杀的那个黑人科学家的现实版
梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

1629

主题

713

回帖

7028

积分

论坛元老

积分
7028
发表于 2023-5-3 09:01:05 | 显示全部楼层 来自 江苏常州
对付人工智能的唯一中级办法是全世界设置一个总的电力开关,一断电,全球电脑一起关闭,包括有蓄电池的
梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

1641

主题

735

回帖

7156

积分

论坛元老

积分
7156
发表于 2023-5-3 09:20:23 | 显示全部楼层 来自 江苏常州
抵制人工智能[暴怒]
梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|小黑屋|梦想之都-俊月星空 ( 粤ICP备18056059号 )|网站地图

GMT+8, 2025-12-18 09:44 , Processed in 0.039187 second(s), 24 queries .

Powered by Mxzdjyxk! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表