|
|
近日,国家网信办、工信部、公安部联合发布《互联网信息服务深度合成管理规定》。其中要求提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认,任何组织和个人不得用技术手段删除、篡改、隐匿相关标识。该规定自明年1月10日起施行。7 B8 k. \" E, L' \6 B* D9 M" _. D
继算法推荐之后,深度合成技术也迎来单独规范,这其实和我们目前的互联网生活息息相关。8 M' E) e' Q/ r1 j
近日火爆全网的聊天机器人ChatGPT,以及“换脸”、AI绘画、虚拟主播等为人所熟知的场景都使用了深度合成技术。很多用户日常也在使用这些技术,比如一些视频平台提供的换脸服务,让用户可以自己制作很多新奇有趣的视频产品,玩出一些有趣的网络梗。但其中的隐私安全问题一直备受争议,普通用户对潜在的风险也并不了解。
$ ]) L! d9 o5 ?9 L& w p以AI“换脸”为例,负面事件并非没有发生过。2019年,AI“换脸”应用ZAO一度爆红。人们只要上传一张自己的照片,就可以换脸成为影视剧主角。然而仅仅三天,ZAO便因涉嫌未依法依规收集使用人脸信息被工信部约谈,接着直接下架。
8 C! R6 }* k$ L* k. h. H( |; s" T" l此外,深度合成技术也被应用在了散播虚假信息、诈骗、色情内容制作上。类似事件人们也见过不少了,一些栩栩如生的视频引发了巨大的社会关注,最后证明不过是换脸合成而来。这些乱象显然也有进一步规制的必要。
. F* Q" ~: Z$ C6 y随着新规的出台,这些合成技术将被显著标识,就相当于是个时刻存在的提醒,用户能很清楚地了解到接下来将使用的技术就是人工合成,这当中可能存在风险。虽然这可能给用户玩梗浇一盆凉水,但用户的知情权才是第一位的,相应的产品逻辑也应当向这个方向转变。
$ o3 g2 C# |/ g" ^- T当然,仅有提示还不够,关键是对互联网平台要保持足够的制度性约束。比如《规定》明确,深度合成服务提供者、技术支持者应当依法配合网信部门和有关主管部门开展的监督检查,并提供必要的支持和协助。发现存在较大信息安全风险的,网信部门和有关主管部门可以按照职责依法要求其采取暂停信息更新、用户账号注册或者其他服务等措施。
, r$ g0 \2 K$ M$ u' {" I2 }这一方面是对用户的提示,另一方面也是对各大互联网平台的约束。这不仅是让用户知情,互联网服务提供者也必须明白自己的义务,对涉及用户隐私的信息必须做到充分保护,任何一个产品功能和营销手段都不能凌驾于这条底线之上。
# A, S. Y( g; n" u) L: \5 F {还是要认识到,互联网技术提供了异常多元、新奇的产品体验,用户当然也有网络玩梗的刚需,但安全风险问题也随着互联网介入生活程度的加深而不断凸显。当一项新技术横空出世之际,背后的漏洞风险也应当审慎评估,相关的规定应该适时跟上,努力缩短从野蛮生长到规范发展的时间差。 |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|