|
|
3月21日消息,上周人工智能初创组织OpenAI首席执行官山姆·阿尔特曼(Sam Altman)在接受采访时表示,人工智能可能是“人类迄今为止所开发的最伟大技术”,将重塑现有社会。同时,他也承认这项技术有风险,对此还是“有点畏惧”。
+ i( K! R# R/ [9 n/ }& ]阿尔特曼强调,人工智能会带来真正的危险,但也可能是“人类迄今为止开发出来的最伟大技术”,可以重塑社会、给生活带来翻天覆地的变化。
" K8 T1 Q( ~ X3 v) } r. k0 J* c他说:“我们在这方面必须小心……我认为值得庆幸的是,我们对此有点畏惧之心。”5 z. }9 S$ s2 c4 D; I* t1 B
阿尔特曼在采访中谈到了OpenAI最近发布的最新版人工智能语言模型GPT-4。他强调,ChatGPT的上线需要监管机构和全社会的共同参与,各种反馈有助于阻止人工智能技术给人类带来潜在负面影响。他补充说,自己一直与政府官员保持“定期联系”。/ Q& a* E3 z. }$ r( S
ChatGPT上线仅仅几个月时间,月活用户数量就突破1亿,被公认为历史上增长最快的消费级应用程序。根据瑞银(UBS)的一项研究,TikTok用了9个月才吸引到1亿月活用户,Instagram则用了近三年时间。
' }% S% |4 B) E, Q7 h' G: @7 E, B虽然尚“不完美”,但阿尔特曼说,GPT-4在美国法考中取得了排名第90位的好成绩,在SAT数学考试中也获得了近乎完美的分数。现在GPT-4可以熟练用市面上的大多数编程语言编写计算机代码。
: ^4 ^5 z( b/ f- @GPT-4只是OpenAI朝着最终打造通用人工智能方面迈出的一小步。当人工智能技术取得突破性进展时,就会出现比人类更聪明的人工智能系统,这就是所谓的通用人工智能。 y6 i' G2 H: V* b+ l: \
尽管阿尔特曼赞许自家产品的成功,但也承认人工智能可能存在的危险让他夜不能寐。
$ j1 o! ?: K/ b9 w阿尔特曼说:“我特别担心这些模型会被用于大规模生成虚假信息。”“既然它们越来越擅长编写计算机代码,那么完全可以用于进攻性网络攻击。”
: P* c1 z% v* K( z8 c但阿尔特曼并不认为人工智能模型会像科幻小说所描述那样不再需要人类,可以自行做决定,谋划统治世界。“它等着有人给它输入信息,”阿尔特曼说,“这在很大程度上仍是由人类控制的工具。”
- E; E. ]8 N% P然而,阿尔特曼说自己的确担心哪些人会控制人工智能。他补充说:“总会有人不遵守我们设定的一些安全规则。”“我认为,弄清楚如何对此做出反应、如何监管、如何处理,留给全社会的时间不多了。”
+ r# S2 H9 D. ]& P a在评论掌握人工智能技术就可能“统治世界”的观点时,阿尔特曼说:“这肯定是一个让人不寒而栗的说法。”“相反,我希望的是,我们不断开发出越来越强大的系统,让人们都可以用不同的方式使用这些系统,让系统融入我们的日常生活,融入经济,去充分发挥人的意愿。”+ v; C4 a& {# i# S
对错误信息的担忧6 ?1 D. i2 V" X- u9 Y. x% v) Y Y0 [
根据OpenAI的说法,GPT-4通过迭代有了巨大改进, 比如能将图像理解为输入。演示显示,GTP-4能描述冰箱里的东西,解决谜题,甚至阐明了网络图片背后隐藏的含义。2 q; E' R) b! a" f" \" c1 @
但阿尔特曼表示,ChatGPT等人工智能语言模型存在的固有问题是错误信息,程序可能会给用户提供事实上不准确的信息。1 _( S( L8 t+ s8 F. {
阿尔特曼说:“我最想提醒人们的是所谓‘幻觉问题’。”“这个模型的确会信誓旦旦地陈述一件事情,让完全捏造的东西也宛如事实。”
) \0 k4 }* g2 Y a根据OpenAI的说法,人工智能模型之所以存在这个问题,部分原因是使用演绎推理而非记忆。4 d2 j R" p8 ~, U8 m
OpenAI首席技术官米拉·穆拉蒂(Mira Murati)曾表示:“GPT-3.5和GPT-4最大区别之一是后者在推理方面的涌现能力更强。”: r! G# x) T$ p. S. ^3 o/ {( g
穆拉蒂说:“我们的目标是人工智能可以预测接下来会出现哪个单词,这就是对语言本质的理解。”“我们希望这些模型能像人类一样看待和理解世界。”$ N8 p+ L- l3 }- j# ^' L$ V
阿尔特曼说:“你要认识到,我们所开发的模型是一个推理引擎,而不是一个存储事实信息的数据库。”“当然,它们也可以作为事实数据库,但这并不是特别之处。我们想让它们实现的是推理能力,而不是记忆。”4 R7 e% ]( S+ b6 o) V& r
阿尔特曼和他的团队希望,“随着时间推移,这个模型将成为真正的推理引擎。”他说,模型最终会依靠互联网信息和自行演绎推理来辨别哪些信息是真实的、哪些是虚构的。根据OpenAI的数据,GPT-4产生准确信息的概率比此前版本要高40%。不过阿尔特曼表示,人们不应该用这一系统当作准确信息的主要来源,并鼓励用户仔细检查程序所生成的结果。2 ]" X4 J4 A9 ]+ R. {1 p& O
如何防范坏人3 {9 w8 ^/ t6 U* V7 e
很多人也关注ChatGPT和其他人工智能语言模型会生成哪种信息。根据阿尔特曼的说法,ChatGPT不会告诉用户如何制造炸弹,因为系统中设置了安全措施。7 F) W. E8 K& y: N* I# E
“我所担心的是……创造这项技术的不止我们一家,”阿尔特曼说。“总会有人不像我们那样加进去一些安全措施。”
! U0 [2 a3 a+ [. Q- q* n* w9 ]. e根据阿尔特曼的说法,对于所有这些人工智能的潜在危险而言,还是有一些解决方案和保障措施。其中之一是让全社会在风险较低时随意摆弄ChatGPT,从中了解人们会如何使用它。/ e6 p n9 R! h h1 p) U& M
穆拉蒂就表示,现在ChatGPT对公众开放的主要原因是从中“收集大量反馈”。她认为,随着公众继续测试OpenAI应用程序,这样就更容易确定哪些地方需要安全措施。* ]/ n- y3 P5 e- I
穆拉蒂说:“人们用它们做什么、它有什么问题、有什么缺点,都能够让我们及时介入并改进技术。”
* \) P! J+ E( a( |阿尔特曼也强调,公众能够与每个版本的ChatGPT进行互动很重要。他说,“如果我们只是窝在实验室里进行秘密研究,比如说开发出GPT-7,然后一下子公开……我认为这会带来更多负面影响。”“人们需要时间来刷新认知、做出反应,并最终习惯这项技术,我们也需要时间了解系统的缺点在哪里,如何缓解不利影响。”6 \+ t+ T* o0 H7 u0 v% c
阿尔特曼透露,OpenAI有一个团队专门制定政策,他们决定哪些信息可以输入ChatGPT,以及ChatGPT能与用户共享哪些信息。
t, k5 ~# n2 j, f5 L5 G阿尔特曼补充说:“(我们)正在与各位政策和安全专家交流,对系统进行审查,就是想要解决这些问题,并推出自认为安全可靠的东西。”“再说一次,我们不可能一次就做到完美,但吸取教训并在风险相对较低的时候找到安全边界非常重要。”4 k; s' u8 n0 g8 |
人工智能会取代工作吗?) j* D* }; G/ T, g1 q5 q
人们之所以担心人工智能技术的颠覆能力,其中之一是认为它会取代现有的工作岗位。阿尔特曼说,人工智能可能会在不久将来取代一些工作,关键看这种情况发生的速度有多快。- O7 E# V. I% z$ D9 P/ ?
阿尔特曼说:“我认为,经过几代人的努力,人类已经证实自身能够适应重大技术变革。”“但如果这种情况发生在几年内,我的确最担心会带来哪些变化……”- K; o. a' ~! r2 h8 ^8 e
但他鼓励人们将ChatGPT视为一种工具,而不是自己工作的替代品。阿尔特曼补充说,“人类的创造力是无限的,我们会找到新的工作,会找到新的事情去做。”$ e! N+ f/ J! U2 j% P
阿尔特曼认为,作为人类工具的话,ChatGPT产生的效果大于带来的风险。8 I6 ~8 ^+ M% l" D
他说:“我们口袋里都可以有一位量身定制的大教育家,去帮助我们学习。”“我们可以为每个人提供医疗建议,这是我们今天无法实现的。”( r# y" h4 ?1 x% g- }
“副驾驶”1 `3 B1 ]# Y; N3 j8 ~6 o7 x
由于一些学生用ChatGPT作弊,ChatGPT已经在教育领域引起不少争议。对于ChatGPT是否可以作为学生学习的延伸,或者是否会影响学生的自学动机,教育工作者的意见不一。
7 @! H+ u% L k% j' E, n6 p; J阿尔特曼说:“教育方式必须改变,但随着技术的发展,这种情况已经发生过很多次。”他补充说,学生的老师将不再局限于课堂,“最让我兴奋的一点是,它能够为每个学生带来更好的个性化学习。”0 M* W, s9 U, }! q0 {, A8 @% P
阿尔特曼和他的团队希望,任何领域的用户都能将ChatGPT视为自己的“副驾驶”,比如帮助用户编写大量计算机代码或解决问题。2 i6 j7 i" F& j
阿尔特曼说:“我们可以为每个行业提供这样的服务,这样人们就可以有更高的生活质量。”“我们还会拥有今天甚至无法想象的新事物,这也是我们的承诺。”(辰辰)/ k* F- u2 J& }6 G
: O8 g/ Y, l" r8 r, s% |$ b- _0 D |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|