京东6.18大促主会场领京享红包更优惠

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 520|回复: 3

75岁图灵奖得主Hinton离职谷歌!痛悔毕生工作,无法阻止人类AI大战 ...

[复制链接]

1581

主题

676

回帖

6775

积分

论坛元老

积分
6775
发表于 2023-5-3 08:20:47 | 显示全部楼层 |阅读模式 来自 江苏常州
, w1 b6 R; C7 U! B% w3 L- V, L

. g# r: n! |; P: o: Q6 o7 @新智元报道/ ?: |8 r4 X% C$ Q* v6 @' ~8 v3 p
编辑:编辑部
4 E7 r# \1 f# u! F; F# b1 G【新智元导读】入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。
3 ]% U. D# O5 |: b" Z6 e, c一觉醒来,整个科技圈惊掉了下巴!!!8 P5 Z% F' c- A3 u& Y* Y) v

6 C8 D# ?5 }) q深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。- Q3 U# ?6 H. s$ I  B  O1 ~

( w; q, a( a) m% l' h
& {0 N$ X# M. n2 t; u/ X; ~  Q( ]+ k& y$ J
为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。

, u5 z- S) q- E. {% y+ p0 E纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!
2 v" M* n5 J) S2 `/ J而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对自己的毕生工作,感到非常后悔。
, q1 R/ x) e* E如今,距离Hinton入职谷歌,刚好十年。
: G% @; h* }) l+ f4 |3 j: V
- n) w/ O+ y' G
, E6 O: {7 w* j' `( U% B4 B" j0 z对于Hinton此举,有人甚至劝说,应该将关注人工智能安全常态化,而不必辞去工作。: l/ i& n" J7 x$ Q/ w" m3 e! {

6 q4 O2 v! g9 B# x/ w
- a1 V& V) F4 p, j% O这更应该是你留下来的理由。因为世界是不会停止的,像你这样的伟大人物应该坚持下去,并将人工智能发展的更好。6 U! Z; d2 m% m0 H  H

0 n& Y3 I* A4 n( i. f) n! g; X, v
你应该劝说你的学生Yann LeCun和Ilya Sutskever。- W3 u0 N+ G* s4 d3 x' @  M* c& |6 p
值得一提的是,ChatGPT背后真正的英雄正是OpenAI的联合创始人兼首席科学家Ilya。
) e9 O: M; p# p1 @. P3 A
  C: u8 R# L! Y& @5 A3 o- `0 p3 W$ \( g
AI「关键时刻」,人类控制不住了
0 L( T2 p. z9 t0 X& g被称为「人工智能教父」的Geoffrey Hinton,一直都是该领域最受尊敬的先驱之一。  E) R# e" R2 k% d$ B, f5 Y
! W& l! Y% Q, Q+ m: i
) r- C+ D, Y$ O: \& u* M
而Hinton提出离职的时间,正是在此之后的4月份。
) h/ t7 J' x& a0 K0 X. |2 s
3 Z5 S5 I% X% L) s5 ]+ n
# Y+ c5 e5 F7 ]" D& }( @从他的推特上可以看出,无论是最近GPT-4等超强AI引发的巨大争议,还是谷歌高层的剧烈动荡,Hinton都始终保持缄默,不发一言。6 _/ [/ B( k/ O9 @& P3 _6 w) o& u
许多人关注着这位人工智能教父的态度。. F: S# [2 L: u, l0 ~
在CBS的一次采访中,Hinton表示「我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。」
# h9 K# I" N( @( |& {8 b5 u7 ~8 a

" d$ q3 [5 d0 \+ e1 B0 A. o7 {从人工智能的开创者到末日预言者,Hinton的转变,也标志着科技行业正处于几十年来最重要的一个拐点。  ?2 F- v; B0 Z! {
先驱的沉痛反思,让我们终于不能再掩耳盗铃,假装没有看见AI可能给人类社会引发的深刻改变和巨大危机了。
! f$ L  ~* Z5 t. r6 |盖茨等许多大佬认为,ChatGPT可能与上世纪90年代初网络浏览器一样重要,并可能在药物研究、教育等领域带来突破。, \2 X/ Z" y& S
与此同时,令许多业内人士不安的是,他们担心自己所做的研究,正在向外释放某种危险。
6 |; {" N; c. ^& ?( f因为生成式人工智能可能已经成为产生错误信息的工具。并在未来的某个时候,可能会对人类构成威胁。! Z6 |2 `+ U/ a
% f: v; ~8 c" q( x7 K3 _( r
' Q  L8 d6 b8 V( M& k6 t
在Hinton看来,如何防止坏人利用它做坏事,我们还未能找到方法。
% O! b% E. O. @/ Q1 L在3月底呼吁暂停超强AI六个月的公开信发出几天后,人工智能促进协会的19位领导人也发布了公开信,警告AI的风险。
! i" _- l8 E3 l! m" k8 h其中就包括微软的首席科学官Eric Horvitz,而微软已在一系列产品中(包括Bing搜索引擎中)部署了OpenAI的GPT技术。
  e% m1 ?& M: x& C' B在喧嚣的反对浪潮中,人工智能教父Hinton却并未在这两封信上签名。# T0 }& _* ?- J0 F( D4 s  X% a
他说,自己在辞去工作之前,并不想公开批评谷歌,或其他公司。  }* S/ Z: e6 b; V
忍到上个月,Hinton终于下定决心,通知谷歌自己即将辞职。
0 D" U1 y: E1 C8 D# v/ r选择离职谷歌后,Hinton终于可以畅所欲言地谈论AI的风险了。0 H: o4 l6 E+ |4 B
, D0 U9 _; P2 n
我对我的毕生工作,感到十分后悔。 我只能这样安慰自己:即使没有我,也会有别人。
: r9 `  H: D: m3 f( N9 i% e' z7 n
7 w$ T& u: A0 @" l0 t! X

: [& b8 S, L8 J$ v上周四,他与谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了电话,但他表示不便透露此次谈话的细节。" d& {. f! d' [! u
作为一家大公司,谷歌对于AI的态度一向保守,甚至保守到,眼睁睁看着自己在聊天AI机器人之战中被甩在后面。$ s6 O+ c. j) p: B
早在2015年,谷歌的图像识别AI曾将黑人标记为「大猩猩」,招致的批评让谷歌成为惊弓之鸟。
9 F2 u2 m1 J) C1 l# x" F在OpenAI推出Dall-E 2、名震全球之前,谷歌就有类似模型,但并没有发布,因为谷歌认为需要对AI生成的内容负责。8 {9 ^1 v3 O4 P& I3 D
而早在2021年,谷歌就已有了类似ChatGPT的LaMDA聊天机器人,但谷歌始终未发布。直到2022年11月底,OpenAI凭ChatGPT占尽风头。
+ A% L1 Y4 c* H如今,谷歌首席科学家Jeff Dean在一份声明中表示:「我们仍然致力于对人工智能采取负责任的态度,我们正在不断学习了解新出现的风险,同时也在大胆创新。」
; [) O+ W; ]3 Q4 Y$ k! m# l1 A开启了历史,也见证了历史
, a! v! C. W0 m3 X9 c$ t% o1972年,Hinton在爱丁堡大学开始了他的研究生生涯。
; Z. L2 \* g3 H在那里,他首次开始研究神经网络——一种通过分析数据来学习技能的数学系统。
; G. _! p3 j$ H( I, _8 b+ v当时,很少有研究人员相信这个观点。但这成了他毕生的心血。1 @1 [% J: V7 C& }, N8 `' p, a* ]
( l8 U; f1 F) c# \8 q$ J# o

1 e9 W' Y6 v' V4 y2012年,Hinton和他两名学生Ilya Sutskever和Alex Krishevsky建立了一个神经网络,可以分析数千张照片,并自学识别花、狗和汽车等常见物体。
/ m- [7 Q0 |' @( E神经网络成为他与两名学生共同创建的公司DNNresearch背后的突破性概念,该公司最终在2013年被谷以4400万美元收购。
2 F, H" Z! G5 h' ^" A2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因对神经网络的研究获得了2018年的图灵奖,而神经网络正是ChatGPT、Bard等聊天机器人背后的奠基性技术。
- S& B6 H# U7 X: ^2 p0 m! h0 }: F6 S

0 N$ k' E/ p8 f6 x# {4 u3 ?而Hinton的学生Ilya Sutskever,也在后来成为OpenAI首席科学家。/ M3 k7 z  t! u. E% L5 p

9 J, ]  i. i! z- Y8 p4 r7 V4 p0 E. o! M- c$ O2 o$ T" @
大约在同一时间,谷歌、 OpenAI和其他科技公司开始构建从大量数字文本中学习的神经网络。; n3 k4 d0 X4 `5 _
那时的Hinton认为,这是机器理解和产生语言的一种强大方式。当然不得不承认,比起人类处理语言的方式没,神经网络还是力不能及。
; p- Q9 R: y$ w# S2022年,随着谷歌和OpenAI 利用大量数据构建超强AI。! o; C, M$ Q% \2 k7 u: F0 i! }, N
Hinton的观点发生了重大转变。他仍然认为这些系统在某些方面不如人类的大脑,但它们在其他方面正在超越人类的智力。
7 ^* x5 h1 l5 n" |4 H; o/ q' SGPT-4发布当天,Hinton曾表示,2 S* S& C* y9 Y& {8 T3 I6 A! @9 {; j, j

1 ?) ]/ @: C( ]
毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。

# \6 Y4 X# q0 n. `+ V* p8 o$ q. }! K' f4 A/ @; `  d  ?  Z5 Y
6 i, O' g: M* h3 E& }
Hinton称赞的背后,让许多人看到超强人工智能系统的智力已经非同寻常。- `, a, d- L5 j! B
对此,Hinton谈到人工智能技术时表示,随着科技公司改进人工智能系统,它们变得越来越危险。
$ M. _% v& ]" C) b' Q) V: Q* B% G8 B* J看看五年前和现在的情况,如果还要继续传播这项技术,后果就太可怕了!
" ^  u) }) O/ P7 ^9 Z/ j7 u在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技术上谨慎的态度。; M8 h5 T/ a9 o0 N  g4 `
他表示,直到去年,谷歌一直扮演着这项技术的「合适管家」角色,谨小慎微地不去发布可能造成危险的AI。* K: l/ V3 S& E# l. o) x, Y
这恰恰解释了,为啥谷歌在这波人工智能浪潮中落后的原因。% k4 ~( C+ v2 I; C! G8 K1 D, C  h
但是现在,微软为其必应搜索引擎接入GPT-4的能力,已经让谷歌焦急地不得不做点什么。; g2 Z2 h2 e: X
Hinton称,科技巨头们正在进行一场可能无法阻止的竞争。
) m+ C: o$ b2 p; G# Y) f
" {2 I8 w) W! B* u, S. f9 T! c+ h( I: y% L0 e) W/ h  I
他眼下担心的是,互联网上将充斥着虚假的照片、视频和文本,人们也无法去辨别什么是真实的,什么是虚假的内容。. V3 J2 m0 V$ U4 L6 r3 W: A
他甚至还担心,人工智能技术迟早会颠覆就业市场。( c& R% E6 s, }) X, \
如今,像ChatGPT这样的聊天机器人往往能很好地辅助人类工作,甚至取代律师助理、私人助理、翻译、以及其他处理死记硬背任务的人。
4 s; O1 O# c+ P0 g- L( f0 ?' t; k3 C7 _未来,他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。
1 a% G* q6 N* B, @- p( K人工智能系统不仅可以生成代码,而且自己运行代码。前段时间爆火的Auto-GPT就是一个非常典型的例子。. K9 \3 U8 Y& M7 m" u
/ S8 g# a4 O/ r6 q* h( t  T
% }  t+ X3 ^3 M( k: k# D
他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。
# J9 B7 s- s3 T/ x, _; R0 _" L上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。
! \: [' ~% p* S; `9 y5 ^6 H& D8 S

0 X* e4 |  P/ D' c在一些人看来,类似的系统实际上比人类更聪明。Hinton表示自己曾经认为,这太离谱了,最起码要30-50年,甚至更久才能实现。: ], G+ l0 f8 ?7 r0 q. r
: R$ g7 T& s% |9 W7 f* S4 f
而现在,我不再那么想了。

3 S- P% R2 K: f许多其他专家,包括Hinton的许多学生和同事,说这种威胁还仅是一种假设。
! Q2 Q$ h8 u( `他指出,谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!
* U1 d4 E+ H- x7 O2 e7 ]  B" Z* N* o. F( d* A
3 L! Y* ^' ]8 b0 x. q3 Q5 d
但他表示,这也不是绝对的。与核武器不同,我们无法知道哪个公司或国家,是否在秘密研究这项技术。
+ H. L& y$ e, u  G网友热议, `* X4 f( U, q( g8 W
有网友认为,Hinton对于的AI的看法太悲观了。1 J; G0 J9 g2 F) e5 ]
我见过的ChatGPT积极应用案例远多于消极的,但现在的趋势是把AI描绘成邪恶的炼金术。这些担忧是合理的,我们会学习,我们会纠正它,然后我们会继续前进。4 w& \3 z% E! f7 A+ ~3 t+ H

: l( }" z* I7 P! s+ Y( h8 ^" P( N4 @1 F& q/ j9 q* {
甚至有网友将其比为天网,但我们还不能将其关闭。「人工智能就像潘多拉的魔盒一样,一旦打开就无法关闭。」, M) o: ?3 G- c3 G& E* ^. A

" {. o5 [: K+ q: A: G7 a6 U" m6 b) r& E$ c+ s
还有人对谷歌「负责任」这一观点提出异议:
, h: Q! n6 X! u$ G; ~) h-使用Breitbart训练AI模型;-让负面信息在YouTube上大肆传播(反过来又为推荐算法提供依据);-散布有关安全和隐私的科学假信息;-开除专家
+ R9 D( ]1 x$ Y  Y! R! I* y: j7 N: \$ W, G/ Z5 J1 h

. i% l# O$ `* l谷歌大脑和DeepMind合并这一事,与此相关吗?/ d3 T# `6 X' `, E. N1 s9 v1 ~

! t8 m& A0 I4 T) W7 s3 c9 z1 X% w2 z( S# s2 F1 s/ r$ m0 v* s- e1 ]
还有网友发出疑问,连Hinton都离职了,下一个会是?0 Z: V; a: q# d2 \

/ C, d' e- ?) o/ K& [. \
: z, _. G- i% ?, P4 P) O" @参考资料:) H  G  Z: `, h; {
https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

帖子地址: 

梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

1611

主题

740

回帖

6663

积分

论坛元老

积分
6663
发表于 2023-5-3 08:41:07 | 显示全部楼层 来自 江苏常州
他可能就是终结者二里面莎拉康纳想杀的那个黑人科学家的现实版
梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

1629

主题

713

回帖

7028

积分

论坛元老

积分
7028
发表于 2023-5-3 09:01:05 | 显示全部楼层 来自 江苏常州
对付人工智能的唯一中级办法是全世界设置一个总的电力开关,一断电,全球电脑一起关闭,包括有蓄电池的
梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

1641

主题

735

回帖

7156

积分

论坛元老

积分
7156
发表于 2023-5-3 09:20:23 | 显示全部楼层 来自 江苏常州
抵制人工智能[暴怒]
梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|小黑屋|梦想之都-俊月星空 ( 粤ICP备18056059号 )|网站地图

GMT+8, 2025-12-18 09:38 , Processed in 0.039504 second(s), 24 queries .

Powered by Mxzdjyxk! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表