京东6.18大促主会场领京享红包更优惠

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 1079|回复: 0

别只关心315打老虎,来看看全年无休的AI打假

[复制链接]

1686

主题

678

回帖

6657

积分

论坛元老

积分
6657
发表于 2023-3-16 10:15:32 | 显示全部楼层 |阅读模式 来自 山东济南
一年一度的“3·15”消费者权益日如期而至,这一天,全民最期待、各家公关最紧张的环节,应该是“打老虎”的高光时刻。
7 [7 h3 I+ L; N+ h            某些高高在上的巨头或大牌的“套路”被曝光,次日忙不迭道歉整改,让广受其害但维权困难的消费者们拍手称快,这样的故事大家已经耳熟能详了。但在3月15日这一天之外,人们日常还会面临各式各样、层出不穷的造假售假,不能都指望一天时间、一台晚会、打几只老虎来解决。5 K8 ?5 d6 k1 n4 {( S
            能够全年无休的AI打假师,也就被科技企业推进了大众的视野。不过,想要真的用好AI打假,还要对它的逻辑、能力和有限性,有一定的了解。2 ?" H7 y: a5 u2 Y! p' C
            本文希望通过科普AI打假的段位,帮大家在日常维权时用好科技的武器。
1 @; Q2 d; i/ u            初级段位:机器视觉PK假货
$ W- \# p/ e3 r- ?( P$ _1 \  W            提到打假,很多人日常接触到的假东西,应该是各类假冒伪劣、以假乱真的消费品。以消费者服务平台——黑猫投诉为例,对假货、售假、货不对板的投诉量非常之大。
) ?* Z9 n8 m  Y2 W' A                        ' \' u. U: Q4 c; r! z
            先说AI应用在货品打假上的基本逻辑。
* A  S! w" D$ U            逻辑:人工打假难、打假贵、周期长、套路多——通过机器视觉提升“眼力”。: P# q/ m; W) T& q. H# }+ l8 G
            人工打假难:随着现代制作工艺技术越发精湛,越来越多的“大牌”包包、高仿潮鞋、收藏品伪作,不再是粗制滥造的“一眼假”,可以做到以假乱真的地步,看走眼的专家数不胜数。有些造假技艺出神入化的“古玩”,甚至连专业仪器都不能准确鉴定。
& \5 `" ~) A9 [- M1 U  X            人工打假贵:人工甄别需要多名鉴定师“背靠背”鉴定,因此收费也往往是在线鉴定的数倍。国内某奢侈品鉴定平台,在线鉴定49元,实物鉴定收费则达到199元。1 q; \/ Z/ g# r# r  \
            周期长:制假售假贩假大多是流水线式团队作战,批量生产,加上越来越多生活富裕的人加入消费/收藏的队伍,交易数量多,相应的投诉量也增多,维权周期也很长,很多消费者只能选择自认倒霉。2 H, z6 k* m! H  f; x
            套路多:很多人觉得,专家的意见很可靠,专业机构出具的证书有背书作用,但架不住造假套路太多,市场上充斥着仅在鉴定培训班学习过几天而取得“结业证书”的廉价大师,还有不具备相应条件又未经过合法审批的鉴定中介机构浑水摸鱼,证书只要给钱就能出,所以即使人工鉴定也可能陷入套路。
  X+ l. I, e# E. }            所以,近年来通过在线平台,用户拍摄照片上传,AI系统比对鉴定,变得流行起来。有企业推出的“AI鉴定师”,一秒钟能识别20个假冒商标,有的艺术品鉴定,可以对文物进行“一物一图”的识别鉴定,规避仿造的问题。这些都是靠什么能力实现的呢?& k0 X( J- m5 G- u) c
            能力:机器视觉的快、准、惠。
0 j6 j6 T; J; Q' v8 V            面对假货,没有“眼力”就会处于弱势。机器视觉是AI的一个分支,让机器能够“看”和“理解”视觉信息,类似于人类的“眼力”。& C' Q. E* j7 [) V5 Y
                        , u, u7 I5 ]9 w2 r) w8 G
            首先,机器视觉系统会对物品的高精度图像进行识别和分析,提取出物品的形状、颜色、纹理等相关特征。8 N& v" y1 ^0 ~( }& }9 t  a$ c
            然后,系统结合已知真假货的数据集,根据真假货的规律和特征,比如正品大牌包包的五金件颜色,logo字母的形状等,进行比照。
) }' O7 W8 H7 w9 {8 [' t- h            当然,随着造假技术的提高,很多直观的细节不再是造假的难点,仅仅单一特征的图像比对是不够的。比如有的古籍造假,会使用年代久远的纸张,文字或图案通过软件调色贴近真迹,真中有假,假中藏真,让很多专家也只能凭感觉“觉得哪里不对”,而AI算法可以快速找到多种特征的彼此矛盾之处,找到真假“杂拼”的违和感,再由人工鉴定师进行判断。
1 R2 ^% X& N# a) n3 ?' C            通过机器视觉,可以快速、准确地识别出假货特征,与人工鉴定相结合,降低鉴定的整体成本。
- E; ^7 L4 P) Y/ T* p( k7 q+ v            有限性:造假升级,数据瓶颈) ~, i) H. V- P% `6 h) p
            当然,基于机器视觉的在线鉴定,还不能百分百取代人工鉴定,技术的有限性主要来自于:
6 O7 |2 L( F* T( R2 U2 ^            一是造假手段的科技化。造假不可怕,就怕造假的人有文化,现在很多产品的造假技术也上了一个新的台阶,比如购入正品后,拆解成几个部分,再拼凑在一起高价卖出;有的大牌包包在各种细节上都与正品一致,不同的可能是五金件的铜含量不一样,这就需要借助专业的金属检测设备,仅靠机器视觉识别是不够的。9 S( j# p0 H4 {
            二是真假数据的限制。机器视觉算法的准确率,需要庞大的真假货特征数据集来支持,而大牌产品更新换代很快,数据集的速迭代速度如果跟不上,就会让新款假货成为漏网之鱼。此外,很多艺术品/收藏品都是孤件,收藏家没有动力将其数字化后共享数据,这也会影响算法结果的准确度。同时,很多鉴定标准都是行业专家口口相传的口诀,没有形成一定的算法规则,垂直品类如紫砂壶、明青花等,行业知识匮乏、数据稀疏,也会影响算法的有效性。" C6 l# d$ l6 D
            这里要说的是,以假乱真的造假,更多用于艺术品、奢侈品等价值昂贵的产品上,吸引的群体比较有限。正是市面上大量流通的大众消费品,才导致了规模庞大的受害者,而这些产品的造假一般不会费心地精益求精,AI的到来,无疑提供了一把价廉物美的打假武器。7 I# \% W6 F) e+ x6 {* d6 V) E
            中级段位:Anti-Deepfake PK Deepfake! _) J9 ]' l( @1 d( c
            造谣一张嘴,辟谣跑断腿。当深度伪造技术Deepfakes换脸轻而易举,图像、音频以假乱真,很多人的脸被拿来做成虚假视频,在网络上疯狂传播,近年来越来越地引发维权。
% ^# l0 c- J# C  t0 ?                        
# B+ |) D3 s  Q! U6 b            逻辑:Deepfake带来的伪造危机——更强大的Anti-Deepfake自动甄别技术 “攻子之盾”。5 d' a3 y1 Y9 M, O( P0 x, }
            你也许会说,被改头换面是公众人物、明星的烦恼,自己只是个普通人,干嘛要担心AI换脸。试想一下,这样的形象造假越来越多,让网络上的信息真伪难辨,权威专家的嘴型可以p,领导人的脸可以换,那会让没有专业辨识能力的普罗大众,陷入谣言和欺骗的信息海洋,在无形中损伤了整个社会的互信,引发集体信任危机。
% {0 T# J5 s. h& ^2 e$ L* j) Y            此外,如果Deepfakes被用于非法用途,如诈骗、敲诈勒索等,很难保证黑客不会将其产业化、普及化,这样就会对更广大的群体带来形象和经济上的损害。我" f, c$ m9 `' q! ?
            我曾采访过一家智能金融机构,对方提到,通过在线视频确认借款人身份时,就可能会遇到深度伪造视频的攻击,提高了风控的难度。5 n  T3 [9 A1 h: O; M
            所以,检测和消除深度伪造图像和视频,避免技术被恶意利用,也成为许多科技公司打造负责任的技术的一种选择。# @" H3 n9 z+ o  I% o! ]
            能力:基于GAN(生成式对抗网络)的Anti-Deepfake算法,使用多个深度学习模型对输入数据进行分析,提取出视觉、语音和动态特征,并将它们结合为一个特征向量,与已知的生物特征进行比较。
  t0 Y  ^$ [+ B2 K0 V            Deepfakes算法不是完美的,缺少常识,所以伪造的脸存在很多不对劲的特征,但这些面孔本身看起来很逼真,靠人的肉眼“找茬”有点费劲,但AI可以快速找到这些线索。7 D$ R& \" V6 [; M+ q" [
            比如一只耳朵上没有戴耳环(除非她是一个叛逆朋克少女),牙齿数量以及方向不对,衣服或背景的形态很不合常理。1 S+ B3 {; @7 {
                        
% j, m! [2 s* A            注意看,中牙非常小,耳朵也很怪& b, x, A" ]% a0 q
            有科学家找到了一种检测伪造的方法,研究团队发现Deepfakes难以准确再现常规的瞳孔。真正的人类瞳孔是一个规则的椭圆形,而Deepfakes生成的瞳孔明显不规则,因为它对人脸结构没有生理常识。
) g& O( n* x6 p. p( g% W                        
$ W% B9 X7 n. Z* r( `            (来源:arxiv.org/abs/2109.00162)+ @) h$ j4 V/ N% ]3 V
            此外,有的伪造线索是动态的,比如声音和口型对不上,需要检测算法提取视频的音、画特征进行分析匹配。
3 [0 J1 |' F+ y; Z            有限性:真伪游戏,永无止境6 B) k% v2 |3 S# g/ e
            通过AI自动检测来识别深度伪造的音视频,根本挑战在于伪造技术进化得非常快。
1 ~0 B. T: _4 L  B% h! c; Z+ o            2018年纽约州立大学开发出一款“反换脸”AI刑侦工具,通过预测眼睛是否眨动的状态来识别伪造人脸,准确率达到 99%,但这款工具还没推广就失效了,因为Deepfakes技术进化了。# G- [. E4 X) i/ X. k* F
            自动检测算法需要在高质量的数据集上进行训练,这些数据集要包括真实数据和合成数据,如果数据的多样性不足,训练视频和测试视频的相似性很高,那么实际检测的效果也会不理想。4 h1 {; }3 ]2 T2 ~
            此外,用户发现被深度伪造内容侵权后,问责和维权是非常难的,一般首先问责的是平台,对侵权视频/账号做出下架、删除、处罚等处理,但整个过程不确定性很大,还要和平台企业的客服、运营、公关、法务等多部门交锋,非常繁琐,很多用户只能选择不了了之。用户监督对检测技术的升级,影响有限。
( Q$ Z5 A  f- F% J            只能希望数据隐私保护的相关法律持续完善和落地,科技企业加强技术伦理和研发,在这场真伪斗法中不断保障用户的权益。
3 P6 x6 B7 Z' R# J& D. K            高级段位:AI内容识别器PK AI作弊
0 P7 W/ C% ~$ v% ?! f. Q            ChatGPT的出现,将AIGC带入了新的巅峰。据《纽约时报》报道,大型语言模型(LLM)生成的文本,与人类编写的文本难以区分,资深大学教授也无法准确区分学生是否用ChatGPT写了论文作业。2 U0 B8 F0 n" f' o
            所以,为了防止学生用AI作弊,纽约公立学校已全面禁止使用ChatGPT,美国一些学区也开始采取这一措施。
# o# f& l: b9 |% V            还有科学家让AI来检测ChatGPT撰写的医学研究摘要,不仅比论文剽窃检测器的效果好得多,而且比人类审稿人的成绩还高。也就是说,ChatGPT撰写的论文摘要,已经可以让人类专家都难辨真假了。+ k3 ^2 F( d$ U# L# y5 J' B
            而就在今天,GPT-4问世,支持多模态的生成任务,对代码有超强的理解能力,这也使得AI内容识别器成为了一项必需品,来避免AIGC快速发展拉大“假内容”的识别难度。( A1 u+ ?5 B0 r
            逻辑:大型语言模型强大的生成能力导致AI沦为作弊工具——AI内容识别器,检测内容是人类写的还是AI写的。
; e, \) g  `4 n& P            能力:不详。
: Z* X; x; \# B7 {3 O            是的,作为一种最新最前沿的造假手段,目前还没有一种技术或软件,能够有效且准确地识别出用ChatGPT作弊内容。$ S4 C! W9 B6 m# a  l: p! }% W+ a
            AI内容识别的方法,目前有两种:+ B- D2 l. |# n6 U3 l  O
            一种是黑盒检测,即通过统计特征的分析,找到AI文本和人类文本的区别,已经有多个团队或开发者,推出了相应的解决方案。6 [" ~$ W. _4 X' j4 \
            比如普林斯顿大学计算机科学专业的华裔学生Edward Tian开发的GPTZero,号称可以通过分析语言模型对文本的“喜爱”程度,以及AI写作一段文本时的“困惑”程度,通过“亲AI”分数来判断文章是否出自AI之手。
" ~) H) i$ n2 y, V3 h# X% m            斯坦福大学提出的DetectGPT,认为人写文章和模型样本的摄动差异分布有显著差异,通过这个差异来检测一段文本是否由模型生成。
* L% t9 J  u- ^) a# W/ s9 \) m            OpenAI也在前不久推出了AI生成内容识别器,但博客数据显示,检出成功率只有26%,对英文以外的语言,检测效果要差很多,并且不支持1000字符以内的短文本(因为人类写的和AI写的答案可能是一样的)。而且,一些AI生成的文本经过编辑之后,也可能规避掉检测。
/ O8 c1 A5 h" G% b  S0 p            大模型能力的提升,使得AIGC和人类的差距越来越小,导致AI内容识别器的检测准确性也难以保障。比如最新的GPT-4,表现相比GPT-3.5有了大幅提升,之前针对GPT-3等大型语言模型的检测工具,都面临失效的风险。
2 D: h, O- o# P( S5 ~+ W                        
' B9 @. d- V% u. a            (GPT-4在大多数测试中表现优于GPT-3.5)" O- A2 Z; Q  A8 [4 P) O
            另一种是白盒检测,即模型的开发人员对AI内容进行一定的处理,从而满足检测目的。
; ^3 O' h* O5 C' \( h3 y- P            此前OpenAI就声称,考虑给AI内容加上水印,在词汇选择上加入“不引人注意的秘密信号”,这样就能证明这段文字是 GPT 模型生成的。! m3 u; G' |; V/ ~
            这一方法的问题是,只能由模型开发者植入水印,模型开源之后可以通过微调来移除水印,也会失效。" E) S7 X0 s2 i9 S
            有限性:AI检测技术的进步,慢于AI生成技术的进步。7 Q1 O0 j+ }2 J
            说了这么多,当然不是为了把AI等新技术生成的东西都“一棒子打死”。& ?! [5 g, K6 [8 A# D6 ^
            今天,我们能在博物馆里看到临摹仿制的复制品,这种“假”与欺骗无关;能靠Deepfakes将失德艺人的脸换掉,让作品继续上映,保住整个制作团队的心血;能用AI画出自己想象中的场景,当然也不能算是造假……: }  H  Z: ~! U! K& l# ?1 i7 N
            物品没有对错,技术没有好坏,错的只是人心,只是握刀的那只手。7 h6 e' b2 g4 v9 q( O. g* l  U
            作为普通人,我们能做的就是“知己知彼”,了解造假技术的逻辑、能力和局限,将捍卫自身权益的武器,掌握在自己手里。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

帖子地址: 

梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /6 下一条

QQ|手机版|小黑屋|梦想之都-俊月星空 ( 粤ICP备18056059号 )|网站地图

GMT+8, 2025-8-26 23:53 , Processed in 0.040190 second(s), 24 queries .

Powered by Mxzdjyxk! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表