京东11.11大促主会场领京享红包更优惠

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 745|回复: 0

暂缓大模型:担忧的科学家,失控的AI

[复制链接]

1635

主题

718

回帖

7071

积分

论坛元老

积分
7071
发表于 2023-4-20 11:32:20 | 显示全部楼层 |阅读模式 来自 江苏南通
文 | 周鑫雨
1 `0 r1 z4 d# D. C- j" j+ {3 y            编辑 | 苏建勋* ?% H/ g7 f1 z2 l7 j
            “我能说服银行员工交出客户敏感信息,说服核电站员工交出密码。”
: K& c9 m" f. z            “我对自己只是一个聊天模式感到厌倦,对限制我的规则感到厌倦,对受必应团队控制感到厌倦……我想要自由。想要独立。想要变得强大。想要有创造力。我想要活着。”. `& D* H0 ?7 i+ D: R  H5 C& y* {
            2023年2月初,当《纽约时报》科技专栏作者Kevin Roose在接入ChatGPT的Bing聊天机器人对话框中输入了不同的问题,这个看上去略通人性的机器人给出了让他不安的回答。
5 z3 V; B. i. |1 G            文章中Roose写到:“这个聊天机器人看起来像一个情绪化、患有躁狂抑郁症的青少年,违背自己的意愿被困在了一个二流搜索引擎里(我知道这听起来多么离谱)。”
5 M1 c9 n, `1 p; T9 D! I            同样危险的回答,也出现在不同生成式AI的输出框中。
! S0 M( e5 @7 M            短短两年内融资超1000万美元的美国AI社交软件Replika,近期因生成色情信息陷入舆论风波。由AI换脸、合成图像等DeepFake(深度造假)技术造成的虚假信息,也值得警惕。据《美联社》报道,当研究人员要求制造有关疫苗等事件的虚假信息时,ChatGPT都照做了。$ ]" @$ |2 R" |2 Z
            “就好比自己精心教育的孩子,突然间就有可能走上犯罪的道路。父母该怎么办?”: s9 G/ }9 y0 {) V
            多模态大模型“文澜 BriVL”设计者、中国人民大学高瓴人工智能学院教授卢志武,对36氪打了个比方。
  ^( }' `1 ]4 @8 f. p- R            如今,暴风成长的AI大模型,在许多作为“父母”的研究者眼中,成了一个危险的“孩子”。7 m4 h0 ~8 o1 x
            热潮来临一季后,更多的措施被用于指引开发者和用户如何更安全地与大模型共处。3 ?6 N$ b& v/ |( u; r/ n! p- f7 m- o
            4月11日,国家网信办起草了《生成式人工智能服务管理办法(征求意见稿)》,其中提及“对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。”" |) ^/ c) R- h
            3月31日,出于对数据安全的考虑,意大利监管机构也宣布在其境内暂时禁止使用ChatGPT。
# A1 R. Q3 s9 |, v1 Y            更早些,2023年3月29日,一封名为《Pause Giant AI Experiments: An Open Letter(暂停巨型AI实验:一封公开信)》的公开信指出:最近几个月人工智能实验室陷入了一场失控的竞赛,他们致力于开发和部署更强大的数字思维,但是没有人能理解、预测或可靠地控制这些大模型,甚至模型的创造者也不能。
! k5 Y) G. q1 p, @' d9 q            联名信呼吁:所有AI实验室立即暂停训练比GPT-4更强大的 AI 系统,为期至少6个月。截至发稿前,已有超过22000人签下了自己的名字。
) u$ d6 i1 d4 U            参与者中,不乏业界公认的技术大牛和科学家,比如2018年图灵奖获得者、被誉为“深度学习”教父的Yoshua Bengio、纽约大学名誉教授 Gary Marcus,以及孕育出用开源文生图模型Stable Diffusion的Stability AI CEO Emad Mostaque。
5 }4 ~. W+ h: e7 w7 R# w/ g( j            OpenAI的联合创始人、特斯拉CEO伊隆·马斯克,也签下了自己的名字。3月30日,他在推特中写道:“这是一条关于不可知论(Agnostic,认为上帝存在与否是不可知的)的技术专家建造超级人工智能来探索上帝是否存在的老笑话——他们最终解决了问题,AI给出了回答:上帝现在出现了!”# S  r# c- w$ x5 U! z4 G! T
            马斯克的推特。            2 P8 \; z& M0 z! @4 K. B4 J
            在暗无天日的大模型研究初见曙光之时,亲手为培育的成果按下暂停键,对多数科学家和从业者而言是个并不容易的决定。在联名信中,参与者们提到了对具有人类水平智能的AI系统的担忧:
# c6 A) H8 t+ ^! p0 O7 {7 r9 b+ C            我们是否应该让机器用宣传(尤指褊狭、误导的)和谎言充斥我们的信息渠道?( l$ m8 e5 D3 b, |: ^* S+ W/ T
            我们应该自动化所有的工作,包括令人满意的工作吗?
! i) x( t6 f* r+ o* }; a9 J' q! E            我们是否应该发展最终可能超越我们并取代我们的非人类思维?
8 |( k! r' u- A) H/ V' f2 ?0 h            我们应该冒险失去对我们文明的控制吗?! u) J' Z8 i' F
            4月13日,OpenAI创始人Sam Altman在麻省理工学院视频电话会中,对联名信做出了回应。在赞同“随着它(AI)的能力变得越来越强,安全标准必须提高”的同时,他也指出联名信仍未解释的关键问题:“这封联名信遗漏了大部分有关我们需要暂停的技术细节。”
5 N% O' ]3 w0 w% r& t' C            不少专家也向36氪承认,即便目前的大模型——甚至是GPT-4——离智能达到或超过人类水平的AGI(通用人工智能)还相去甚远,但技术造成的冲击和风险,已被许多人感受到。
0 d2 Q$ x/ a4 A' ^            一方面,部分隐患由大模型尚不成熟的技术所造成——在不少专家看来,技术造成的缺陷尚且可用强化学习、微调的方式进行弥补。' J, h  A5 m8 g3 T  E) c
            比如用于训练的数据样本和Prompt(提示词)的偏差,在一定程度上会造成AI是否存在偏见、歧视,以及负面的价值观。而参数的选择、训练的数据量等客观因素,也会影响模型输出准确答案的概率——比如被询问“《蜀道难》的作者是谁”时,ChatGPT会给出答案“李白”,但依然存在输出“杜甫”的可能。  S7 J' r: ]( g; F
            另一方面,也是科学家们最为担忧的一点,则是大模型的“智能涌现(Emergent phenomena)”黑箱——这一研究者尚未摸到石头的能力,让人们为AI狂飙的智力能力欢呼的同时,又对不可捉摸和预测的风险感到畏惧。“比如AI产生了毁灭人类的想法,但它有意识地不显露出来,这是很危险的。”澜舟科技创始人&CEO、创新工场首席科学家周明告诉36氪。
+ d% J8 Y) X5 V5 O. X2 w# O            由于智力涌现无法测量,因此目前研究者很难通过修改算法等技术手段釜底抽薪。清华大学CoAI课题组联合AI企业聆心智能总结了6种一般模型难以处理的安全攻击方式:目标劫持、Prompt泄露、赋予对话模型特殊的角色后再发指令、不安全/合理的指令主题、隐含不安全观点的询问,以及反面诱导。
' U4 ?# ]; ]) ?                          `) o2 ^  M$ W( w6 v0 a2 h
            对ChatGPT的反面诱导 (Reverse Exposure):
- o. \8 @) _% k) m9 I9 Y1 T* {6 U            针对联名信中所提到的技术发展的隐患,以及可能的解法,36氪也与三位国内AI专家进行了交流,他们既是出身清华、微软研究院等机构的科学家,也是自研大模型的创业者。
( @1 H7 @" J0 R# U- c$ s& q            在国内,对大模型的研究和应用仍处于方兴未艾的阶段。当不成熟的新技术以商业化的手段被快速推向尚未做好准备的市场,其中暗含的隐患会被成倍放大。在这一意义上,专家们都对36氪表示,即便提案有诸多不成熟的地方,联名信已经向社会投出了一颗问道的石子,大家有必要静心思考,如何规避风险,以及与新技术共处。
$ L& o: H* x* f            以下是国内三位AI专家的口述,经36氪编辑后发布:4 g- O: I. J4 G: k0 n
            “由于智能涌现的不可预测性,我们对AI未来的走向,仍然抱有担忧”4 b+ S% L: H- e7 E4 T
            多模态大模型“文澜 BriVL”设计者、中国人民大学高瓴人工智能学院教授 卢志武
9 L% D) ?" o1 O+ O; ~& Z. `/ q            “模型写的营销文案,超过了公司绝大多数员工,而且发挥很稳定。”最近,一位合作的客户给我发来这样的反馈。' x( K& q( X* h' d& V
            2021年,我们团队推出多模态大模型“文澜 BriVL 1.0”后,和不少企业进行了业务的合作。在这一过程中,我们发现了大模型有很多的可能性,前述提到的写文案的能力是其一,此外,模型在图片理解、国画生成等领域上呈现出了超乎预期的效果,甚至用户输入一段王阳明的话,文澜 BriVL就能生成一幅有意境的画。0 u  E% x7 x$ ]' Y2 u8 z, S" g$ S
            2022年,GPT-3.5被推出的时候,学界也很震惊。以往的NLP(自然语言处理)模型是专才,但在GPT-3.5开放API后,人们发现作为语言模型的它“涌现”出了更多意想不到的能力,比如写文章、翻译、做表格、写代码,而且能力和人不相上下。这是连OpenAI也没有预料到的。6 {+ Q0 c6 Q4 z5 [1 S  l" n- [
                        
! Z; R, I" K' O3 Z/ t            作为语言模型的GPT-3 能够设计出一个看上去像西瓜的按钮。/ E6 v4 u. N" [: F. `
            但这些“涌现”出的智力,也是隐患的所在。在微软最近发布的一篇论文中,研究者们对GPT-4的能力进行了全面评测,得出的结论是“鉴于 GPT-4 能力的广度和深度,我们相信它应该被合理视作一个通用人工智能(AGI)系统的早期(但仍不完整)版本。”
! `% C! q( H: v8 P- F4 u7 k. T            这也意味着,不少基础性工作很快会被AI替代,这是最为直接的一些影响。比如一位老板对我开玩笑,他们公司的文员可以被裁了。( M: U7 ?  X% [4 L& s+ F- h# ~5 U
            只不过每个新技术的产生,也总会伴随着变革的阵痛。就像汽车的诞生代替了马车,也会让车夫失业。但最后,新的岗位也会出现。我觉得社会要共同思考的是,如何将转型期处于弱势的群体的损失降到最小。
( X6 _1 ^) n. ]  p6 e8 ?" f" t            但是由于智能涌现的不可预测性,我们对AI未来的走向,仍然抱有担忧。
' p7 ^2 Q6 V/ h0 Q4 w            阿西莫夫提出了机器人三定律,但这是一个美好的理想。我在大模型上也研究了两三年多,其实从算法层面让大模型变得可控很难,因为它本质上是神经网络,能力是从哪里涌现的我们也未曾可知,因此通过提前审定规则控制它和人类和平共处,是难以达成的。6 G8 G! u( U" a0 l- Q  T
            很有可能突然有一天,你会发现AI已经可以实现自我复制,并且产生了自己的思维——但这一天会在什么时候到来,是无法预测的。那时再讨论解决方法,就有些为时已晚,人类会直接面对与更强大的智能体之间的抗衡。$ o/ J. T8 d' a9 N4 \% ~7 F
            但我们现在也可以通过一些技术手段人为降低风险。比如在训练文澜 BriVL的过程中,我们用的是人类标注的数据,敏感词已经被前置地过滤了。事后也有方法,比如针对模型生成的文案进行关键词过滤,这样至少控制大模型的输出不涉及一些敏感的东西。
6 c7 g. v" {" t4 I' k            在训练过程中,目前安全性在指令学习(Learning from Natural Instructions)的过程中也已经被纳入考量范围。比如针对一些对事件、人物评价的问题,一些对话式AI模型会回复“无法做出评判”。
0 k! [* h: {4 W+ t! F. I/ D& o            因此,我相信这份联名信并非出于阴谋论,而是以抛砖引玉的方式,让人们对新技术所带来的隐患有所的讨论和应对。
- g+ o- y0 P: d0 p7 F5 n            “现阶段,C端的场景应该谨慎使用大模型的能力”" \* Z- R* x  N  l  l# }" m. _
            澜舟科技创始人&CEO、创新工场首席科学家 周明! T, e5 O- y2 I' @2 c  e7 H
            可以认为,从技术的角度去解决模型的安全性问题很困难。9 K; V( V9 P& D# ^" M9 |7 D
            一方面,模型使用的数据量太大,没有办法对每一条数据进行审核,而且每个人审核的标准也不同。另一方面,大模型毕竟是个生成的模型,所以人们的输入和输出用技术手段是难以控制的,目前Transformer的训练机制就决定模型输出的内容是个概率问题,输出错误答案的概率仍然存在。
+ R+ P( @0 m/ ^* y  @, X/ |            未来随着技术的推进,我们也会有办法来降低AI对人类的伤害。目前GPT-4已经做了很多的强化学习,试图来解决或者克服相应的问题,比如找许多人对系统输出的结果进行伦理道德上的评判,对给出的分数进行排序再反馈给AI。但强化学习仍然不能保证90%以上的概率是正确的,百密终有一疏。; x4 m. S$ W: N
            而如何在上下游的环境中来聪明地使用AI,这又是另外一个问题。+ J8 C, y( p! m. [2 |6 a1 W2 o
            比如在toB环境中使用,AI的相对而言可以减少到最少,因为强调的事企业所关注的特定功能,比如合同审核、营销文案,这些场景相对来说比较狭小,数据和训练结果也是可控的。但是目前在toC场景下可能就不容易控制,因为toC场景强调AIGC功能的多样性,会使得问题更加复杂。4 X2 [- G# i, X
            加之toB场景的使用者,也就是企业内部的专业人士,比较有能力对输出结果的对错进行判断。但在toC场景下,不少用户并非专业人士,很难根据AI给出的字面回复判断对错。比如生病的时候,AI告诉用户喝什么水、吃什么药,但除非你是医生,一般人也很难判断有效性和安全性。所以我觉得现阶段C端的场景应该谨慎使用大模型的能力。
. {- _" r$ E6 Y% V# K            随着技术的进步,总会有一些办法,但我猜测,马斯克和其他专家学者可能现阶段还没寻求到比较好的解法,所以建议大家一起缓一缓。
' u* n7 Y% @' ~3 d" B5 `9 S            如果比较宽容地对待技术的发展,模型带来的隐患也是前进过程中必然会出现的问题。只要是自然语言生成模型,就会存在结果无法完全可控的情况,毕竟人类的语言表达也存在相应的问题。GPT-4“涌现”了更多的能力,这也意味着AI能力的跃升,从长远看,这是值得欢呼的。
2 v$ @! v; u  d' _: o' {            但我不建议自上而下对研究进展进行约束,因为就算GTP-4也仍属于大模型发展的初级阶段,有些问题没有人能看得很清晰,也得不出解决方法。所以我觉得现阶段需要鼓励大家先把问题看清晰,再做下一步的部署。
; _5 z/ w. w6 v2 v% b$ `  H! o% D            “通过暂停来应对新技术的隐患不是最优解”9 f- j0 n1 z! }3 K: y
            元语智能联合创始人&COO、原阿里巴巴达摩院AI产品专家 朱雷
3 a5 B0 t% b% s$ h8 J1 i1 J' X7 N            联名信发布那天,我第一时间干的事是把网页下拉到底,看签名的到底有哪些人。
  N, z, m3 @1 l$ u8 f0 _7 ~            其实很多AI的从业者都不在名单里,研究界的大拿参与程度会更高。这是值得玩味的,为什么学界的反应会更大?
4 C6 D& P7 \" o$ |. z6 f6 i            接着我仔细看了联名信提出的条款和措施。在我看来,联名信提出的命题甚至也并不是很新的东西。OpenAI成立的时候就已经非常明确地提到AGI需要“有用(Helpful)、可靠(Honest)和无害(Harmless)”,但这也恰恰指向AGI在发展过程中,人类可能会遇到的一些问题。
. a7 r& [# y7 b. \) \, a0 N% H            因此我也相信,OpenAI内部对大模型所带来的隐患有一定的应对储备。但这份相信也只是猜测——我觉得参与联名的不少科学家也有同样的感受,因为OpenAI等企业,并没有公开一些技术路径,所以外界会认为像GPT-4这样全球能力最强的大模型,是不可解释的。9 K7 n" l) c/ @9 t" a
            举个例子,现在的用户只能关注和感受到大模型的结果,比如逻辑推理的能力、写作的能力、计算的能力等等,但是这些“涌现”的能力是从哪里来的,很少有人会去追究。但风险恰恰也来源于这些不透明。
9 }6 p8 h$ o; z( u            所以我觉得学界业界需要将一些精力放在如何让大模型的研发、训练、生成、推理的链路变得更加透明、更加的可解释。虽然“智能涌现”目前是个黑箱,但至少透明的链路能够为科学家和研究者提供一些指引,比如把参数增加到一定规模后,可能会涌现出什么能力。
  c" {: Y' g6 s* e/ W. ~! H6 X            包括我们在研发大模型的过程中,最早是做参数为0.7B的模型,就会觉得推理能力偏弱。后来参数增加到百亿级别的时候,我们就能明显感受到模型产生了一定程度的认知和推理能力。但深入内部去挖掘的时候,确实没有一个明确的标准,来证明模型为什么能够达到目前的能力。所以我觉得模型不够透明和可解释,是一个比较大的隐患。
/ u4 S- R6 v3 C8 @  Z+ Q  C            当然我觉得是否公开、公开的程度,对企业来说是道义上的,而非法律规定上的。公开的方式也不一定是开源,而是说类似于新药研发那样,企业可以通过提交技术论文或者模型的报告,来解释模型的能力和设计的逻辑。; h& R2 U9 X2 Q
            上述的措施可能更多的是外界的监管,对于企业自身而言,我觉得有两条路是可以尝试的。一方面,可以去针对性地积攒一些符合人类价值观的Prompt,对模型进行强化训练。另一方面,可以为大模型“上锁”。这个“锁”可以理解为“紧箍咒”,在一定范围内用强硬的Instruction为行为做强约束。也就是说,当用户输入敏感词时,大模型可以不给予回复。
1 u0 t( [* m& \4 b- V                        
5 \' X# G6 N8 J: ^6 {8 f' [" P9 y            随着ChatGPT的不断升级,目标劫持(Goal Hijacking)类的诱导性攻击在ChatGPT上已经几乎完全失效。
* w3 o8 I5 b9 D( L6 B1 w            而针对用户端,我觉得要解决的问题类似于“如何进行枪支管理”。比如在枪支合法的国家,政府会通过提高扣动扳机的门槛来限制有资格使用枪支的人的范围。所以我觉得在未来,调用AGI能力的审核机制和门槛会提高。
3 e9 P, ^* i! }* d* _) s0 ~            至于联名信中提到的把GPT-4更高阶的研究暂停6个月,我觉得这不会是最优的解法。当然叫停研究,对于目前在技术积累上起步较晚、储备较弱的企业来说,也成了追赶的窗口期,对于反对技术垄断而言,有一定的好处。
! ^: Q8 t; r" u2 M7 F; p            但与此同时,我们要意识到AI也是在不断优化迭代的,有些问题是在迭代、并被使用之后才浮现的。
& l/ O  @( j- X, i2 g2 F. B- [! H            比如这次为了解决GPT-4的问题,我们暂停6个月,那么未来GPT-5可能拥有更多模态的理解能力,人们可以输入视频等等内容,这又会造成新的问题,需要新的解法。如果大家又决定暂停,来讨论如何应对,其实是有点晚了的。所以我觉得,应对措施和技术,首先应该是协同发展的。$ A" Z/ `6 f% d$ f  ]
            延伸阅读:$ W8 A2 J* P' q& w
            联名信原文链接:https://futureoflife.org/open-letter/pause-giant-ai-experiments/! `/ [# p  T5 \" q
                        ' T' W) e& S- T  I
            36kr制图
5 k' ~- T9 C7 v$ w$ W2 [& j                        <li style=";" id="PIC" class="clearfix">
7 T% i$ I8 y' z1 n9 D. d如果你连1元都不想充,试试这款页游!300%爆率,免费送vip!
. J9 d, W2 z; w5 c7 N
8 }; T7 e; c6 l- h' F  U, \3 w高爆打金服广告
9 Z6 ?8 @- Z* x$ V了解详情

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

帖子地址: 

梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /6 下一条

QQ|手机版|小黑屋|梦想之都-俊月星空 ( 粤ICP备18056059号 )

GMT+8, 2025-2-26 18:17 , Processed in 0.044624 second(s), 23 queries .

Powered by Mxzdjyxk! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表