|
|
最近,# 广州地铁 # 登上热搜
) P0 V1 | q$ l/ L起因竟是一女子在地铁上的裸体照片被疯传+ L% r; i. G( z2 ~
事实上,这张裸体照并非真实照片9 [- Y9 F/ Y6 P; s
而是被 AI 技术一键脱衣生成的 ……
1 z# P: U% U5 @4 m3 S" @' K据泾渭视频报道:近日,广东广州,一女子在地铁上的照片被 AI 一键脱衣,造谣图在网络广泛传播引发关注。
7 g) `$ \$ x0 o8 @ ?3 e6 D事实上,照片的女主角是小红书的一名博主,而所谓的 " 裸照 " 则是她去年 7 月在平台分享的一张照片。原图中她衣着正常,完全没有任何不妥之处,但却被有心之人用 AI 软件一键脱衣,故意全网散播。
- f% H& `5 G6 D目前博主已在评论区回复各位网友,称会进行相关的维权处理。: C( x, i. U/ S1 G# V( p+ I$ v7 D
4 d9 B1 B+ J& ~: m4 G) G3 Y1 Z* g+ \+ n x) d
7 C4 [: H9 x \& F$ l
值得欣慰的是,在这则图文分享的评论区,已经有众多网友评论提醒博主被造谣的事实,催促其尽快报警,也有人热心地帮助其辟谣澄清。2 q4 {6 \7 |8 U) O/ P& I3 Y S9 g
" Y6 S1 w1 z0 b8 K
' q/ T* K9 N! W6 e1 a) F
* t. R( T5 J2 z5 e
( ^/ X: X7 I& m v
% y" ]+ ?0 l- U" ~9 S
% S4 l4 G' x7 v% ^7 `: V
& h: q. L g! g( [3 E7 q0 s+ [死灰复燃的 AI 脱衣,伪造谣言百口莫辩: f! ~ A& n+ s0 p# u" r C
早在 2019 年,国外程序员就开发出了 DeepNude 这款使用 AI 技术 " 脱衣 " 的应用,通过使用类似 deepfakes 的深度学习技术,DeepNude 使用女性裸照训练之后可将图像中女性身上的衣服替换掉,创造出几可乱真的合成裸照,也就是大家所说的 " 一键脱衣 "。
5 D! \9 h0 V; a9 C3 T2 t: J1 Y& b后因广泛的舆论争议,开发团队选择将该项目关闭。# R( V: Y8 ^8 T4 E
但记者发现在百度网站搜索 "AI 脱衣软件 " 仍然会出现众多 " 替代品 "。5 M% _: z+ E; p4 D) {
" k7 j3 r# P4 [" x2 @, B
( \# j- A7 g8 c- G. m
4 q* W" X# A: h* z4 R# g点开其中一个 AI 脱衣软件,甚至在产品说明页中有着详细的说明和 " 优势 "" 亮点 "$ v: b9 p1 N+ P7 n, g* S* V0 q
8 W( U% P% x9 R$ ^
+ P+ j) J0 x; P( I4 d6 s3 T
& z; i4 u+ p# \% s有博主发视频称,在现今 AI 强大的算法下,时间、地点都对得上的情况下,伪造谣言对普通人来说百口莫辩。而唾手可得的脱衣软件则更让造谣者有机可乘。
! S5 I" L' l- g- uAI 换脸换装,或涉嫌刑事犯罪4 R. V) N2 y% j) k
近年来,"AI 换脸 " 网络走红,一些 "AI 换脸 " 的 App 使用明星的图片制作换脸视频进行推广,其趣味性背后暗藏不少法律风险和侵权纠纷。
7 Q& Q# |6 O" v% _- j, A) ?2 ?& h! F( x明星刘昊然就曾在 2021 年 8 月 26 日发博打假,控诉网上流传的某淫秽视频为 AI 换脸技术伪造,并向警方报案。8 h+ j3 B+ u) Z7 M- B+ o9 X3 S, f
/ D3 y: D8 W- E0 K0 K5 h: G8 v* B: ]
/ S+ u* h3 }) \6 Q0 D$ A+ R; _; t7 t专家表示,在《网络安全法》第二十七条的规定当中,特别强调,明知他人实施危害网络安全活动的,不能够为他提供技术支持,如果情节严重,还会构成帮助信息网络犯罪活动罪等刑事犯罪。" H m' t8 Q, y( l. I% f
来源 | 新闻晨报、央视网、网友评论' [( Z# q* l8 C
(编辑 王鹏) |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|