|
|
“当下中国最应该关心的问题是什么?当中国产生了类似(ChatGPT)的技术,要不要向全球开放?我们现在应该达成这样的共识——中国的技术永远不对任何一个国家封锁。我觉得至少我代表中国科研人员可以作出这个承诺。”. @- R! L5 ~ v9 s
3月25日,在中国发展高层论坛2023年年会上,中国科学院自动化研究所人工智能伦理与治理中心主任曾毅如是说。
2 u9 J( @& X0 [3 D5 E( u# ?谈及“脱钩断链”和技术封锁对我国人工智能发展可能带来的影响,曾毅表示,确实存在这样的风险,所以类人工智能生成等技术必须要有中国自己的替代版本。
- k0 `. Z) ^3 |* m# Q“中国没有失去机会,失去机会的是禁止中国使用技术的企业。”曾毅表示,“中国人工智能生成技术、类ChatGPT的技术,大家很快就可以看到。我不能讲是水平相当的替代产品,但是它足以达到基本可用的程度。”% X+ U) \" W" b8 P1 M: ?
会后,曾毅接受了澎湃新闻(www.thepaper.cn)记者的采访,就AI劳动替代、人工智能数字鸿沟、人工智能伦理与算法黑箱等问题进行了探讨。0 k8 E: `0 A% M0 c7 m' J0 j, @
澎湃新闻:随着人工智能技术发展,很多人担心工作岗位或可能被AI替代。关于劳动力岗位替代的速度和规模,当前各方有不同的预测,对此您怎么看?AI会快速替代人类劳动者么?5 A( u3 r2 D9 d8 D+ Q! f
曾毅:我想从两个层面回答您的问题。
6 a ]/ H5 g% o) P& @5 u一方面,在未来我们可能需要重新定义什么是“工作”。长期以来,抚养子女、照顾老人,以及很多社会服务并不被人们称为工作。但布鲁金斯学会的一项研究表明,或许未来在家当全职妈妈照看子女,照顾年迈老人等可以被称为“工作”,甚至社会应该支付薪酬。
4 N- ~; E, n N) k1 N" Z当前,很多人认为需要通过工作的意义和价值来定义自己,然而我认为恰恰应该是情感付出、情感交互才是人类真正难以被替代的,当“工作”被重新定义,一个人对于社会的价值,对于周围人的价值也会被重新定义。
6 a! i ~. h' e' b/ D7 D另一方面,我并不同意那些“某年某项工作会被替代”的预测。从我目前的观察来看,任何一项工作都有人不可替代的部分。尽管当前人工智能也可以从事新闻写作,但相比于专业的人类记者,它缺少对真实世界的理解和价值观,所以读者必然会更倾向于人类作者。所以,面对所谓的AI岗位替代,我们要思考的就是自己对工作有哪些独特的、不可替代的贡献。
' G2 V2 _. Y! z) e- F9 }- u澎湃新闻:今天上午苹果公司CEO库克谈道,他认为编程或应成为今后人们生存发展的必备能力。如果不掌握编程能力,或将加速与社会脱节。未来AI编程会产生新的数字鸿沟么?这是否会加剧社会的不平等?* J; E" T. @1 |5 `( E; k% c1 }
曾毅:编程是教人如何像计算机一样思考,可以培养并提升人的思维能力。大概在2016年左右,美国就提出了计算思维的概念,并籍此发展出了很多课程。但我并不认同未来编程要成为人所必须的技能,整个社会中人工智能也不应该无处不在。6 x4 a- F- d( d% Y& r# |1 J; O
在为联合国教科文组织编写人工智能伦理的时候,我们就加入了一条“适度使用”原则:应该用人工智能的地方,留给人工智能,应该留给人类社会的地方就按照人类的方式去发展。1 D9 K5 T" G4 l! ?( r) d
作家舒可文在《城里:关于城市梦想的叙述》中指出,城市的发展,一半是野蛮生长,一半是规划,这才叫做城市。人工智能与人类也一样,也需要将一定空间留给人类自己。6 f$ ?$ Z9 q1 p- r# C
澎湃新闻:人工智能与人类的边界该怎么划定?又该怎么设定人工智能不能逾越的红线?
. A0 w# n5 I( `( s曾毅:当前很多工程技术人员对人文社科和伦理规范还缺乏理解,这可能会造成很大的风险。比如一个技术研究者将某项未经伦理论证的先进技术上线,技术在应用中或可能会造成负面影响,甚至给社会造成重大损失,这时候再发现补救,很多损失可能已经不能挽回。6 B4 J' _$ U4 T K* H( m
当前我们的人工智能技术发展还处于初步阶段,能够写入教科书的确定性结论还不多,还需要更多的研究和探索。' s0 n6 ]; p u( G9 B
此外,我认为一定要针对理工科领域开设人工智能相关的哲学课、伦理课、工程伦理课。包括人工智能学系、计算机科学系、工程计算系在内的专业应将这些课程设为必修课。未来,人工智能伦理道德不应该是一个分支的研究领域,而应该是所有人工智能从业者的第一课,伦理规范也应成为所有人工智能服务的基础。
) Y+ g" q7 L( J5 x, L! a/ ^) N澎湃新闻:当前主流的人工智能采取遗传算法、神经网络等方式发展演进,但也存在“算法黑箱”的风险,您是否会担心不可解释的人工智能引发“黑天鹅”事件?是否有存在超预期风险的可能?
# j. ?, e* @$ d9 H曾毅:我们不应该接受深度学习成为所有人工智能基座的这件事,因为它不可解释。现在最应该做的是什么?应该做科学应有突破的科研攻关,哪怕是从零开始,做可解释的人工智能,并向着高智能、低能耗的方向延伸。& R, ]* h* x" n: T8 F) H
不能因为深度学习好用,可以解决现在的问题,当下也没有更好的替代方案,就放弃了最初应该努力的方向。我希望,这些应该努力实现的基础突破能更多诞生在中国。4 {3 E1 I5 E+ B9 g& \2 P, f
然而现状是,学术界和产业界对深度学习更感兴趣,致力于将已经完成的99.9%再往下延伸。7 X2 ?/ P! F" y) H# ^ p) y5 ?& ]
我觉得,如果这些是产业追求短期利益不得不做的事情,那么至少学术界不应该把这个精力花在这里。 |
|