|
3月18日消息,随着ChatGPT迅速破圈,AIGC(AI Generated Content)被看作继PGC、UGC之后新型利用AI技术自动生产内容的生产方式。而AIGC的快速迭代演变,让大模型应用落地有了新领域,国内企业纷纷跟进大模型研究应用。大模型在带来变革性体验的同时,也带来内容安全、隐私保护、侵权、结果合法性等诸多隐忧,在鼓励创新的同时,如何规范科技向善?
* C4 A; y5 [/ v3 X/ N) S/ x 大突破带来新问题
{2 _" e8 c8 v AIGC推动人工智能从感知理解世界到生产创造世界。内容创作模式由早期专业制作(PGC)、用户制作(UGC)发展到AI辅助用户制作(AIUGC),再到目前AIGC(人工智能创作内容)。备受关注的OpenAI近日发布的GPT-4,即是一个多模态大模型(接受图像和文本输入,生成文本)。
. L/ G. ~/ W# I' P7 ] ; h/ ]/ _9 N6 [- h' T
在国内,大型互联网公司早已进入大模型研究领域,随着AIGC的火热,国内企业在大模型的布局也纷纷浮出水面。我国超大模型不仅不落后于国外同类产品,在某些领域还能实现反超。
9 ~+ ~4 {) D. X/ ~& v$ p 专家预测,到2030年,合成数据(Synthetic data)将取代真实数据成为AI模型所使用数据的主要来源。“架构统一、模态统一、任务统一的通用多模态大模型逐渐成为人工智能研究的一大趋势。”京东集团副总裁、IEEE Fellow何晓冬在接受《通信产业报》全媒体记者采访时表示,多模态大模型是人工智能技术从限定领域的弱人工智能迈向通用人工智能路径的重要途径。通用多模态大模型将逐渐在人工智能领域扮演着基础模型的角色。
- b# d5 L% x+ w9 t4 d 当前人工智能技术三要素包括数据、算法、算力,然而数据往往是静态的、算法是单一任务驱动。何晓冬认为,未来会升级为场景、系统、算力新三要素,包括复杂交互智能场景及其产生的动态数据、多任务协同和多算法融合的系统和能支撑复杂场景与系统的新型算力,从而让计算机能深度地理解真实世界及解决重大的真实问题,提升智能系统的通用性、适应性和任务完成率。新一代融合性智能需要能基于“活的”交互场景去迭代和发展,包括人与智能体的交互、以及多智能体之间的交互,将成为人工智能的一个新发展趋势。
+ N7 E* p) e1 F7 ~6 W7 W& q0 Z 尽管大模型本身还存在一些技术挑战和不完善,但人们已经看到了其威力,甚至已对现行治理带来了不利影响。
- Y+ k: i( n% b# g 隐私、偏见、侵权……0 \( `, M6 O" z8 `
全球前2%顶尖科学家榜单入选者、联通数科首席AI科学家廉士国向《通信产业报》全媒体记者表示,一方面,它并不是按照人类创作内容的方式学习的,并未学习到创作的本质,貌似有对已有内容的风格模仿和元素重组,其产生的内容可能存在版权侵权风险。例如,仿照毕加索风格绘画,仿照某作家风格写小说,合成一段明星人物的语音,将图片或视频中人物面部替换,生成某人的高仿数字化身等。
6 T) T- ^ Y6 }- ~$ Z* e. E 另一方面,它是以数据驱动为主构建的,依然存在深度学习的不可解释性、不公平性等问题,其产生的内容可能存在不真实、不合规等的风险。例如,同样的问题不同的问法,ChatGPT会给出不同的回答、绘画AI会产生不同的画作,甚至会生成违背事实的、歧视性的文字/图画内容等。
( J& L+ y# W" O& G: ~7 K- z- w
. ?+ M W/ \1 a 与PGC、UGC相比,AIGC提升了内容生产效率,但当AIGC内容不可控时,相应的应用风险也会增大。例如,AIGC技术让内容创作更容易了,这也会降低侵权、造假等的成本,而增加监管的成本;AIGC技术使得批量快速生成内容成为现实,这可能带来蓄意控制舆情走向的潜在风险。' }9 }! H+ x% M6 @6 b
何晓冬表示,随着人工智能应用的深入,其自身的技术缺陷以及带来的隐私伦理、决策偏见、使用安全等问题引发了信任危机。技术上,算法脆弱易受攻击带来的危险性;黑箱模型导致算法不透明,使得人们无法直观理解决策背后的原因。应用上,训练数据中存在的偏见导致公平性缺失;以人脸识别技术为代表的生物识别信息的频繁使用增加了隐私泄露的可能。伦理上,人工智能系统决策复杂,难以界定责任主体,带来伦理安全问题。
4 d+ Q. O4 U6 Q 用AI治理AI
" M* K8 M. S5 e 通信行业法律观察家伍霞表示,虽然监管层面已紧密跟踪了新技术新业态,针对互联网信息服务算法推荐、深度合成等出台了相关管理规定,但随着实践创新加速,立法与执法都需要结合具体场景加强预判性。. ~2 f/ p5 j$ X X7 N, O
“人工智能领域的专家们已经开始考虑用技术手段来鉴别AI生成的内容。”廉士国表示,通过人工规则来判断内容合法性、通过文本内容统计分析及添加文本水印等方法来鉴权等。我们相信,除了技术手段之外,相关的数字治理制度也将启动建立。% _0 P2 e$ y7 z
8 \6 i- M$ I! m “我们需要构建安全可信的人工智能治理体系”何晓冬表示。
]7 c5 U# K5 V! D% a6 o' A: J. I 所谓“道高一尺,魔高一丈”,技术演进需要有相应的治理配套技术的跟进。廉士国认为,AIGC的健康发展依赖于通过提升技术成熟度、升级监管手段、健全政策法规等来完善可控性,包括AIGC可解释性技术创新、AIGC内容合规检测、AIGC内容盗版监测、AIGC内容溯源、AIGC适用法律法规配套、AIGC用户风险意识培训等。. H! e) q; N( H0 G* T6 }& m- G
何晓冬认为,加强鲁棒性、可解释性、隐私保护等方面的技术研究,解决当前应用人工智能时所遇到的问题,增强大众对人工智能的信任,确保应用和服务在最大程度上减少偏见,促进人工智能健康高质量发展。+ Y7 `: _" e" S, k# R/ Y
此外,国家知识产权局专家王雷表示,大模型健康有序发展,从专利方面需要从两个角度开展工作。一是利用专利文献,梳理AIGC的技术发展脉络、技术硬核、技术未来发展的趋势。通过专利文献的梳理具有很大的价值,可以帮助中国产业界从全景(Big Picture)看整个技术体系,寻找有利的切入点和生发点。二是专利是一种独占性的保护权利,其实施要获得专利权人的许可。发展技术需要早期就关注到专利权的分布,避开雷区和禁区,或者在有利条件下购买专利许可,避免未来产品和服务面临的专利风险。: ?" f" p* d) D+ q( X/ g
在AI等新兴技术应用发展中,统筹好发展与安全尤为重要。伍霞认为,网络安全方面,当人类无法轻易分辨对话背后究竟是机器还是真人时,电信网络诈骗等违法犯罪行为打击的难度和压力也将陡增。所以,更深层次而言,在AIGC的飞速发展中,还应关注文化安全。
! @ @5 \6 x G “有理由相信,AIGC的快速发展终将会促进人类的进步”廉士国表示。: |0 D2 I: P" O8 p" B: W
科技向善是技术发展的基本伦理,我们有理由相信,AI大模型能“善”解人意,我们也应该拥抱大模型,在发展中完善,在进步中规范。技术没问题,问题只会出现在用它的人身上。
0 |8 X# @5 @/ i% C/ N$ c 采写:崔亮亮
. A) C% ^3 j" _+ m 编辑、校对:亮亮; k2 g! b2 d# K1 n* F0 f! [
指导:新文 |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|