京东11.11大促主会场领京享红包更优惠

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 184|回复: 0

上研之声|警惕AI“洗脑”人类,需创新治理思路化危为机 ...

[复制链接]

1683

主题

711

回帖

7218

积分

论坛元老

积分
7218
发表于 2023-5-12 11:20:27 | 显示全部楼层 |阅读模式 来自 江苏苏州
【编者按】
7 U9 L* T9 i3 C* a+ @& ^近日,外交关系委员会年会(The 2023 Council of Councils Annual Conference)在美国纽约举行。上海国际问题研究院是中方唯一的参会单位,上海国际问题研究院院长陈东晓及该院多位学者出席年会并发言。此次会议讨论的话题涉及数字时代的技术治理、俄乌冲突、可持续发展目标、朝核问题等领域。澎湃新闻(www.thepaper.cn)获授权刊发上海国际问题研究院部分学者在会上的发言。+ j+ K6 v* w( p$ r0 T- h7 P, f. l& x
伴随着ChatGPT的走红,基于大语言模型(LLM)、高算力资源的人工智能生成内容产品(AIGC)如雨后春笋般涌现,标志着人工智能的应用和治理进入了一个新的阶段。在这一阶段中,人工智能产品的采用率迅速提升、应用场景极度丰富、安全风险愈发多样和隐蔽。这既为产业发展提供了机遇,也为治理带来了挑战。
; Z  d4 O0 J2 B/ j6 Y0 z一、LLM与AIGC的发展态势
, |: ^4 k+ N& E; G6 q+ c' U自ChatGPT发布以来,这个由Open AI发布的人工智能产品因其广泛适用性和强大功能性,仅用了两个月就吸引了1亿用户,而根据Sensor Tower的数据,Facebook用了4年半才获得了同等的用户量。一方面,激增的用户数据显示出了人们对以ChatGPT为代表的大语言模型抱有热情;但另一方面,从各平台的反馈来看,人们对AIGC时代的技术和影响喜忧参半,主要有以下几个方面:; E/ ~8 g$ M) n( b1 {4 K
首先,从宏观上看,AIGC代表着人工智能技术发展方向,但也带来了更大的不确定性。在人工智能领域,建设通用型人工智能(AGI)一直是研究人员追求的最高目标。虽然目前的AIGC技术尚未带领我们进入AGI时代,但其LLM框架已初步展现出跨模态潜力。这意味着它能够跨越不同的形式产生探索性和组合性创造力,这是实现AGI的关键能力之一。
( M6 B, y' E0 C8 U2 X+ v  R0 o尽管当前的AIGC无法完全深度模拟人类智能,但其技术已经呈现出明显的“类人性”特征,能够识别物体、理解语言等。这种“类人性”特征为AIGC产品的应用带来了广泛的可能性,人们期待这些产品能够为生活和工作带来帮助,例如医疗诊断、智能交通、自然语言处理等领域。而伴随着人工智能技术的进一步发展,人工智能技术的不确定性也在增强,人们担心机器是否会超越人类智能并具备自我意识?机器是否会替代人类的工作,从而导致大量的失业?机器是否会失控,导致无法预测的后果?
1 _; V9 h# W; R, z5 L其次,从现实中看,AIGC赋能多种应用场景,但也带来了新的安全风险。LLM架构下的AIGC能够进行文本的生成、处理,资料的检索、整合。匹配了资讯行业、教育行业、金融行业等多重需求,但也引发了政府和社会对于AIGC的不良使用和未来发展的忧虑:首先,人工智能的生成内容是否具有版权、版权归谁所有尚具有争议。一方面,具有创造力的AIGC很难再被视为一套单纯的工具;另一方面,AIGC的创作基于大量的数据喂养,很难论证其原创性。就当前而言,已经有国家提出所有人工智能生成内容均不具有版权保护的资质。
; z: g- L4 Z# K而在内容治理领域,AIGC产品可以轻松进行恶意程序的编写,或者进行虚假信息的杜撰,这种大规模、低成本的行为将为本就复杂的网络内容治理增添新的困难;此外,在意识形态领域,AIGC则可以进行大规模、低成本的意识形态宣传,长期对民众进行理念灌输和思想渗透。ChatGPT会选择性回答某些敏感性问题,对用户做出不平衡的引导。长此以往,ChatGPT的政治立场和意识形态将会潜移默化地影响其数以亿计的用户群体,成为西方价值观和意识形态最为庞大的宣传机器。这给我国当前的意识形态和话语体系带来了巨大的隐忧。$ {: b) S. j/ z* ^) {- T: z
再次,AIGC存在更加难以察觉的价值观导向。对于AIGC时代的治理新挑战和ChatGPT等产品可能存在的安全风险,企业并非没有预料,也做了一些初步的准备。比如说在ChatGPT内被置入了一个“不良内容过滤器”(Undesirable Content Filter)。这一过滤器结合使用机器学习和自然语言处理技术,避免将欺诈信息、仇恨言论和病毒性网站链接呈现给用户。这一过滤器确实发挥了一定的作用,布鲁金斯学会研究员Darrell M. West通过对谷歌新出品的生成式人工智能“Bard”和ChatGPT的对比研究后提出,ChatGPT在面对政治和道德敏感信息时表现更为客观,它会强调自己只是人工智能语言模型,并就相关事实进行正反两方面的梳理,不会直接提出判断性结论。1 }: B6 Z9 |- h. [7 W6 R
但也有文章分析后指出,ChatGPT传达的引导性敏感信息更加隐晦,在政策立场上倾向于环保主义和左翼自由主义,这实际上与Open AI研发团队的政治立场相似。3月28日,Open AI的联合创始人马斯克与其他1000余位人工智能专家签署联名信,提出由于LLM和AIGC的发展影响超出预期,应该暂停训练比GPT-4更强大的人工智能,把重点转移到安全和伦理治理方向上。3 |  L+ r1 G5 z9 e4 y
最后,政府开始加强对AIGC的治理:美国国家标准技术研究所几乎在ChatGPT问世的同时也公布了首份《人工智能风险管理框架》(AI-RMF 1.0)。但在相关学者看来,这一框架还不足以有效治理人工智能技术带来的数据隐私和内容审核问题。美国国会应建立一个永久性的框架,提供消费者保护,建立公众对人工智能系统的信任,并为其产品路线图创造所需的监管规则。因此美国商务部近期也开始就如何制定法规以保证AIGC的安全性、减少潜在危害向公众征求意见,有望在未来出台更加专业化的法规。! K8 L- g  g# ~0 s9 u; k
此外,4月11日,我国也发布了《生成式人工智能服务管理办法(征求意见稿)》对人工智能生成内容的制作、审核、管理、披露等程序进行了明确,显示出我国加强网络内容治理、应对技术挑战的决心,但同时也缺乏对于LLM和AIGC更加综合性和专业化的治理措施;意大利个人数据保护局也于3月31日宣布就涉嫌违反欧盟通用数据保护条例(GDPR)的行为对ChatGPT展开调查,并命令Open AI停止处理意大利的本地数据,直到该公司在4月30日和5月15日之前分别完成一系列合规清单,包括:信息透明化、增加年龄限制、删除虚假信息、通过广播电视和网络宣传等方式对意大利公众开展规则宣传等;意大利的做法也引发了欧洲其他国家的关注,爱尔兰数据保护委员会、法国数据隐私监管机构CNIL也开始就数据隐私和虚假信息等问题对AIGC产品展开调查,以保证其满足GDPR的数据保护要求。
; u. c5 V: h, \3 _8 s$ E+ l二、创新治理思路以迎接AIGC的发展机遇
8 k; g1 x1 B; ~+ Z: E9 G# XLLM和AIGC的发展虽然伴随着风险和忧虑,但也蕴含着赋能产业发展的机遇。要在危中寻机,通过治理思路的调整和治理手段的创新化危为机。具体可以从以下两方面着手:" D/ S+ u1 b# L
第一,以敏捷思维构建新型治理生态。LLM和AIGC相对于前一阶段的AI而言,技术更为复杂、伦理问题更加突出、风险更为隐蔽。传统的“事后治理”思路不仅难以识别AIGC蕴含在模型和框架内的安全纰漏,而且难以匹配伦理治理的需求,甚至以往的依据关键词识别的网络内容监测机制也会被AIGC基于强化学习而生成的“差异化和定制化”的内容轻而易举地规避。在此情况下,政府需要及时转变治理思路、建立新型有效的敏捷治理机制,将科技企业等AIGC的设计方和LLM的开发方深度纳入到治理程序中,并通过政企之间敏捷的咨询-反馈互动及时获取企业的研发动态和市场情报,设计前瞻性的治理框架。比如说,如果美国政府能够以敏捷思维与Open AI开展合作,就能够进一步了解ChatGPT的不良内容过滤器是如何发挥作用的,政府可以从国家和社会安全的宏观角度给予企业改进内容过滤装置的实时指导,也能够从政策和立法方面对技术无法预防的漏洞进行补充,更有针对性地进行AIGC的网络内容治理。
. R6 A0 h/ b5 ?, a- d: `5 o9 ~第二,加强数据治理,提升数据质量。目前,ChatGPT等AIGC产品依旧是以模型为中心的人工智能,即更加侧重于神经网络模型的设计和优化。但是,数据的数量和质量对于AIGC未来发展也是重要因素。从Open AI的第一代GPT模型——2018年发布的GPT-1到ChatGPT所配置的GPT-3,模型的参数量提升了约1700倍,预训练数据量则提升了约9000倍,并由LLM推动了半监督学习向无监督学习的转变。
# f3 w. I, O0 Z7 k, `1 y  G这种基于模型的人工智能产品(Model-Centric AI)可以更加灵活和高效地产生回应,但却产生了两方面的问题:第一是大模型必须匹配大数据,而在海量的数据库中则存在着数据良莠不齐的现象,并且有可能受到数据投毒和有偏见的数据影响,增加了治理的困难度;第二是在特定领域中,本身就无法产生大量数据来进行模型训练。针对这种情况,吴恩达提出了“以数据为中心的人工智能”(Data-Centric AI)。这种人工智能的训练方式则更加关注优质数据,而非大数据,目前更被拥有专业数据的医疗行业所青睐,但也蕴含着未来人工智能的发展机遇。因此,对于在LLM等大模型领域丧失先机的我国而言,如果能够更加关注数据治理,提升数据质量,设计一套规范来明确专业数据的采集和训练,率先进入数据为中心的人工智能发展赛道,则不仅能够规避LLM和AIGC当前的风险,也能在更多行业中发挥出优质人工智能的赋能价值。' i; \; @; I, |2 x  Z! Q5 V/ w  z
第三,建立AIGC相关的国际对话交流机制。在面对AIGC的治理这一新问题时,各国都缺少既有经验,也都需要信息和情况的及时共享,以应对新技术的不确定性难题。在此背景下,建立和完善相关的国际对话交流机制就成为了实现AIGC有效治理的重要环节。首先,各国可以依托既有的多边机制,利用其平台和资源增设专业化工作组与信息共享机制。比如说可以在联合国框架下,仿照人工智能伦理建议特设专家组(AHEG)的实践经验,建设一个新的、旨在解决AIGC治理问题的特设专家组,为各国的治理实践提供原则性指引。或者利用OECD人工智能治理工作组长期积累研究资源和积攒的研究经验,进行对AIGC治理的专题研究,为各国政策制定者提供更充分、透明的情报和信息。& u  W5 {: Y- I3 o, u
各国还可以以共识为导向、以安全为准绳进行更加深度的双边治理合作。比如:联合进行AIGC的管理标准制定,联合进行AIGC的合规审查,联合披露AIGC中的虚假信息等。国家间的双边治理合作有能够针对AIGC的不确定性、涌现性和差异化等复杂的技术特点,制定更科学的审核标准和更完善的审核机制。$ Q/ G& B! t+ U
最后,加强国家之间的二轨合作也同样是实现AIGC治理的有效途径,为政府提供更加科学、客观、系统的AIGC治理建议。二轨合作可以凝聚多利益攸关方的力量,以专业化和多维度的视角从技术风险、产业生态、社会影响等多重方面审视AIGC的发展态势,有助于各国治理能力和治理水平的提升。
) X% e$ {& v( q  k; L# C(鲁传颖,上海国际问题研究院公共政策与创新研究所副所长、研究员。本文标题为编者所拟。)

帖子地址: 

梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /6 下一条

QQ|手机版|小黑屋|梦想之都-俊月星空 ( 粤ICP备18056059号 )

GMT+8, 2024-11-11 06:57 , Processed in 0.039857 second(s), 22 queries .

Powered by Mxzdjyxk! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表