京东6.18大促主会场领京享红包更优惠

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 468|回复: 3

75岁图灵奖得主Hinton离职谷歌!痛悔毕生工作,无法阻止人类AI大战 ...

[复制链接]

1581

主题

676

回帖

6775

积分

论坛元老

积分
6775
发表于 2023-5-3 08:20:47 | 显示全部楼层 |阅读模式 来自 江苏常州

7 r& Z, r% i: w. ]9 V3 W9 Q6 K
( f8 n/ H4 y% t+ I  K新智元报道
* s$ y* D4 N. o& ]5 p3 i' t编辑:编辑部
3 D$ A$ y: g/ H/ @6 K【新智元导读】入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。
# }/ l) a- W8 r6 c) |7 Q一觉醒来,整个科技圈惊掉了下巴!!!: k' }8 t' b1 }8 d' N+ E* w

) D& ^% B+ }5 J9 d深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。
/ i" H( k  D8 m/ U( g7 S5 m
& m% C* i+ W, q7 ~7 i' T! H- W/ n5 B8 _

2 k2 J, q+ B1 R: l
为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。
. e6 ~* m3 `8 C8 k
纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!- I8 m# u- J4 P, b% m
而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对自己的毕生工作,感到非常后悔。+ |. U& e" t2 ?% n
如今,距离Hinton入职谷歌,刚好十年。, q$ F8 p1 l5 z6 W( ~5 y

+ M3 U% n& [! H8 {/ M: o2 F" V, @- y; ?4 K6 ?3 L
对于Hinton此举,有人甚至劝说,应该将关注人工智能安全常态化,而不必辞去工作。- C3 g# q) p; @3 e4 d9 B( M: _, L
' F/ x; c: J( q* b9 y/ e

9 ], |7 O+ U. l4 N, W  X这更应该是你留下来的理由。因为世界是不会停止的,像你这样的伟大人物应该坚持下去,并将人工智能发展的更好。
6 {3 U- |% l$ p' m% h
! v9 ]' i! @- v
1 ^. u; s/ p" G& @) k. t( w你应该劝说你的学生Yann LeCun和Ilya Sutskever。& a% V) L9 o: i7 \/ C
值得一提的是,ChatGPT背后真正的英雄正是OpenAI的联合创始人兼首席科学家Ilya。% k+ y0 m8 \5 A3 h
& I2 b6 R7 r. B, l; X+ o  D' d
+ L- U7 a& x- y/ O. }) @
AI「关键时刻」,人类控制不住了% S% [3 B  N! q$ x9 h4 M4 }
被称为「人工智能教父」的Geoffrey Hinton,一直都是该领域最受尊敬的先驱之一。9 s  [! x( s9 o' q$ [$ c

8 L$ b0 r' `, \6 F% h4 R2 c6 J% v0 v3 y) W) I
而Hinton提出离职的时间,正是在此之后的4月份。9 ]2 \) N0 j, K) g- i! @) `
* |; H! _# D: l# L
( v5 c3 y' }1 b4 |0 q4 p) @
从他的推特上可以看出,无论是最近GPT-4等超强AI引发的巨大争议,还是谷歌高层的剧烈动荡,Hinton都始终保持缄默,不发一言。/ y, M  V# X* W3 c# D  V
许多人关注着这位人工智能教父的态度。& I9 {/ f1 n6 H& N8 {: g
在CBS的一次采访中,Hinton表示「我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。」
- Q. C0 J5 D& h2 z% B& H' ^: t( q' q) K- L) p6 M
5 Z2 I3 p0 M+ f/ k
从人工智能的开创者到末日预言者,Hinton的转变,也标志着科技行业正处于几十年来最重要的一个拐点。; ~, k2 X" u, p0 U6 C
先驱的沉痛反思,让我们终于不能再掩耳盗铃,假装没有看见AI可能给人类社会引发的深刻改变和巨大危机了。
' ]( j# Z6 @' n9 b' d盖茨等许多大佬认为,ChatGPT可能与上世纪90年代初网络浏览器一样重要,并可能在药物研究、教育等领域带来突破。) V* n. W7 p/ w: x1 \
与此同时,令许多业内人士不安的是,他们担心自己所做的研究,正在向外释放某种危险。+ P6 }6 t( Z1 r, v4 u
因为生成式人工智能可能已经成为产生错误信息的工具。并在未来的某个时候,可能会对人类构成威胁。: s+ t7 x0 ^/ ~5 x5 Z
' h& I1 B, O" B: y7 w3 p
9 K. Z% R/ r: \! y! J
在Hinton看来,如何防止坏人利用它做坏事,我们还未能找到方法。
  V: n3 J) A3 q* K) }% g/ v6 Y7 l6 H" A在3月底呼吁暂停超强AI六个月的公开信发出几天后,人工智能促进协会的19位领导人也发布了公开信,警告AI的风险。2 r& w6 p! s. R$ {5 k: \8 C  h+ y- M
其中就包括微软的首席科学官Eric Horvitz,而微软已在一系列产品中(包括Bing搜索引擎中)部署了OpenAI的GPT技术。
5 Q; z3 \- W: g' \在喧嚣的反对浪潮中,人工智能教父Hinton却并未在这两封信上签名。
1 R, L! m4 A$ k7 o4 [" c8 q他说,自己在辞去工作之前,并不想公开批评谷歌,或其他公司。
, p" N% S9 @: Y# _( G" F忍到上个月,Hinton终于下定决心,通知谷歌自己即将辞职。) D+ e5 e/ _: {) {
选择离职谷歌后,Hinton终于可以畅所欲言地谈论AI的风险了。1 l( u0 j6 t, R  K! r. `6 N5 o# B
/ ^1 d$ _, z- t1 I- n# Y! ^1 K( \1 Z8 @
我对我的毕生工作,感到十分后悔。 我只能这样安慰自己:即使没有我,也会有别人。
5 k8 V' K- [/ `9 z) R+ t
0 x* ?' C3 Y) L, Q7 b( `! N  p
3 ?5 a6 @5 @+ P! b6 s+ S  N
上周四,他与谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了电话,但他表示不便透露此次谈话的细节。- s# ~! V+ ?- j4 D: N# Z8 d. H8 K7 \8 Z
作为一家大公司,谷歌对于AI的态度一向保守,甚至保守到,眼睁睁看着自己在聊天AI机器人之战中被甩在后面。
2 `/ N/ L+ n2 r& J9 L( ^) J5 W8 k早在2015年,谷歌的图像识别AI曾将黑人标记为「大猩猩」,招致的批评让谷歌成为惊弓之鸟。
* y2 q8 N0 w! w! ^3 i" Z在OpenAI推出Dall-E 2、名震全球之前,谷歌就有类似模型,但并没有发布,因为谷歌认为需要对AI生成的内容负责。
* U" _/ C( J+ _! s5 @5 ]9 @而早在2021年,谷歌就已有了类似ChatGPT的LaMDA聊天机器人,但谷歌始终未发布。直到2022年11月底,OpenAI凭ChatGPT占尽风头。
! p& p; @# O7 h& b5 A, g- E" S如今,谷歌首席科学家Jeff Dean在一份声明中表示:「我们仍然致力于对人工智能采取负责任的态度,我们正在不断学习了解新出现的风险,同时也在大胆创新。」; U) T4 F- h: Q5 C- ~/ n
开启了历史,也见证了历史4 q5 Q; @7 A  u: m7 b
1972年,Hinton在爱丁堡大学开始了他的研究生生涯。
. L3 x, U/ B  B; V在那里,他首次开始研究神经网络——一种通过分析数据来学习技能的数学系统。
( t+ }2 Z4 p) W* e当时,很少有研究人员相信这个观点。但这成了他毕生的心血。1 [9 |. L* I( ~+ F6 v
/ l# ?9 o& D* V; b4 {$ Q5 U3 `

5 g3 A$ d* F- Y7 g. f8 Z/ D2012年,Hinton和他两名学生Ilya Sutskever和Alex Krishevsky建立了一个神经网络,可以分析数千张照片,并自学识别花、狗和汽车等常见物体。
4 |0 _' E) [) }$ G5 q; D神经网络成为他与两名学生共同创建的公司DNNresearch背后的突破性概念,该公司最终在2013年被谷以4400万美元收购。
1 [" i" v6 ~. H( t* g7 `2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因对神经网络的研究获得了2018年的图灵奖,而神经网络正是ChatGPT、Bard等聊天机器人背后的奠基性技术。
" c1 G7 M" _6 K4 d  d2 D7 |+ o/ p; M! e! b

: y( ?) v5 |7 K; K' f" E而Hinton的学生Ilya Sutskever,也在后来成为OpenAI首席科学家。/ ]% `2 k* Y8 z' z# D
9 O7 @; }! j0 r4 }4 H4 z
. v4 X8 P2 g6 a# E  H5 z5 c
大约在同一时间,谷歌、 OpenAI和其他科技公司开始构建从大量数字文本中学习的神经网络。4 O* \; o6 E3 ^) [% Q
那时的Hinton认为,这是机器理解和产生语言的一种强大方式。当然不得不承认,比起人类处理语言的方式没,神经网络还是力不能及。
* ]" w+ Z: v( z) ^5 D5 Q2022年,随着谷歌和OpenAI 利用大量数据构建超强AI。! v4 g$ V( S( a" z3 }; p) y4 B
Hinton的观点发生了重大转变。他仍然认为这些系统在某些方面不如人类的大脑,但它们在其他方面正在超越人类的智力。( s  c1 ?, @9 ~5 ?# `% S2 G
GPT-4发布当天,Hinton曾表示,5 ]; g' x  @6 v- B
: h+ G5 [' H# s3 E3 b, z
毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。

3 h4 y' q' q4 L3 H: w4 F8 O) t, G' c8 g! Z9 z8 F% v

0 N* n) N  c- F: \4 v  [. KHinton称赞的背后,让许多人看到超强人工智能系统的智力已经非同寻常。
# ^& H% Q0 K2 V0 y, N& b对此,Hinton谈到人工智能技术时表示,随着科技公司改进人工智能系统,它们变得越来越危险。7 r8 V8 X9 K! o9 U' S* y7 p4 o
看看五年前和现在的情况,如果还要继续传播这项技术,后果就太可怕了!, g+ K. Y3 o2 t6 V: m* o
在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技术上谨慎的态度。: Y' G1 S+ e* V
他表示,直到去年,谷歌一直扮演着这项技术的「合适管家」角色,谨小慎微地不去发布可能造成危险的AI。/ n/ n- t8 c- ?; F
这恰恰解释了,为啥谷歌在这波人工智能浪潮中落后的原因。
1 q" |- p/ U7 ~- t% A2 A* N& t但是现在,微软为其必应搜索引擎接入GPT-4的能力,已经让谷歌焦急地不得不做点什么。7 j) U( N/ \+ }# v4 |" h( A9 A
Hinton称,科技巨头们正在进行一场可能无法阻止的竞争。
* o: Z- G* a& }% q1 p% @* h4 i# m! O* i' c: g
* X! P9 Y8 O2 u+ c, S/ n/ z
他眼下担心的是,互联网上将充斥着虚假的照片、视频和文本,人们也无法去辨别什么是真实的,什么是虚假的内容。; o6 I2 u. ]+ K9 E$ Y* e( s2 ]* T& S+ B
他甚至还担心,人工智能技术迟早会颠覆就业市场。9 z' l( A7 D9 y/ ^) P& o
如今,像ChatGPT这样的聊天机器人往往能很好地辅助人类工作,甚至取代律师助理、私人助理、翻译、以及其他处理死记硬背任务的人。
% y+ j* b- U$ ^" Y' ~0 }$ m未来,他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。6 I  B  D* _1 G. f& P2 o" k
人工智能系统不仅可以生成代码,而且自己运行代码。前段时间爆火的Auto-GPT就是一个非常典型的例子。; V. h6 w. u8 [6 w# H9 o6 W! `

% Q  n& K  l+ t, N
# E+ c) O+ d# ^& n9 F0 Q+ g2 }1 L他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。8 F# F0 r; `+ _) ~' P. h
上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。6 [9 N) L8 z' |+ R; X! L9 Q

& p/ q' ]) M- O  h9 x
' b0 A% ?+ \# k5 K# S在一些人看来,类似的系统实际上比人类更聪明。Hinton表示自己曾经认为,这太离谱了,最起码要30-50年,甚至更久才能实现。& Y% g3 Y) H* o1 Q7 G( ]

" C  o9 r( z2 q/ o& M9 f; l4 l' H
而现在,我不再那么想了。

  G- k$ a# t$ }: x! V4 O  [& w许多其他专家,包括Hinton的许多学生和同事,说这种威胁还仅是一种假设。, n! A* b& ?# |* D( F1 `( h
他指出,谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!
# x7 }3 U* {* D) b5 I+ l
4 n1 R0 d# Y" g
+ W( U4 W: z+ J0 _但他表示,这也不是绝对的。与核武器不同,我们无法知道哪个公司或国家,是否在秘密研究这项技术。
9 v( q7 \, |  z0 c: g网友热议2 _4 y4 z" k+ Y% r! _( I" W
有网友认为,Hinton对于的AI的看法太悲观了。  l2 F8 f0 v9 S5 S: \8 Z9 l
我见过的ChatGPT积极应用案例远多于消极的,但现在的趋势是把AI描绘成邪恶的炼金术。这些担忧是合理的,我们会学习,我们会纠正它,然后我们会继续前进。# N) Q2 T- {' r) n: M' x$ L
; b( f0 |: w' {
$ \. L. b+ u1 J  D
甚至有网友将其比为天网,但我们还不能将其关闭。「人工智能就像潘多拉的魔盒一样,一旦打开就无法关闭。」. j. U  K) X% s. Y- `% P% _6 S

0 F0 `9 e$ {7 e  F7 t! T$ [% q( N* b" |$ X# q% v
还有人对谷歌「负责任」这一观点提出异议:
  _9 @1 O$ v9 S3 @  p-使用Breitbart训练AI模型;-让负面信息在YouTube上大肆传播(反过来又为推荐算法提供依据);-散布有关安全和隐私的科学假信息;-开除专家2 m2 W# J$ K/ q( a3 x! h
  r' W2 u6 X& t% Z# n; B* ^/ n4 _

" i3 t+ b1 i  o% }7 `  T谷歌大脑和DeepMind合并这一事,与此相关吗?0 Y2 e3 u5 ^* L, t& {) p5 G
* k+ P. ?+ w+ z$ n; C- }

( f7 V# c, A+ n9 Z. m还有网友发出疑问,连Hinton都离职了,下一个会是?% h1 U* o+ i7 y! w, v
* U. f* ]9 p- T3 n

* Z7 x8 i9 E9 d, W9 V4 Z+ t参考资料:
2 j3 r. N, _: {https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

帖子地址: 

梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

1611

主题

740

回帖

6663

积分

论坛元老

积分
6663
发表于 2023-5-3 08:41:07 | 显示全部楼层 来自 江苏常州
他可能就是终结者二里面莎拉康纳想杀的那个黑人科学家的现实版
梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

1629

主题

713

回帖

7028

积分

论坛元老

积分
7028
发表于 2023-5-3 09:01:05 | 显示全部楼层 来自 江苏常州
对付人工智能的唯一中级办法是全世界设置一个总的电力开关,一断电,全球电脑一起关闭,包括有蓄电池的
梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

1641

主题

735

回帖

7156

积分

论坛元老

积分
7156
发表于 2023-5-3 09:20:23 | 显示全部楼层 来自 江苏常州
抵制人工智能[暴怒]
梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /6 下一条

QQ|手机版|小黑屋|梦想之都-俊月星空 ( 粤ICP备18056059号 )|网站地图

GMT+8, 2025-8-24 15:42 , Processed in 0.038567 second(s), 24 queries .

Powered by Mxzdjyxk! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表