|
一年一度的“3·15”消费者权益日如期而至,这一天,全民最期待、各家公关最紧张的环节,应该是“打老虎”的高光时刻。* F' [/ C- f& g" q2 o0 r; Y; S2 U* G
某些高高在上的巨头或大牌的“套路”被曝光,次日忙不迭道歉整改,让广受其害但维权困难的消费者们拍手称快,这样的故事大家已经耳熟能详了。但在3月15日这一天之外,人们日常还会面临各式各样、层出不穷的造假售假,不能都指望一天时间、一台晚会、打几只老虎来解决。
9 [ x: x; o# }# e/ T9 ] 能够全年无休的AI打假师,也就被科技企业推进了大众的视野。不过,想要真的用好AI打假,还要对它的逻辑、能力和有限性,有一定的了解。* m2 z, o! R! g7 D& z
本文希望通过科普AI打假的段位,帮大家在日常维权时用好科技的武器。4 X, v- N) f, U
初级段位:机器视觉PK假货7 t6 @& \! O& P' K& E0 ?( k
提到打假,很多人日常接触到的假东西,应该是各类假冒伪劣、以假乱真的消费品。以消费者服务平台——黑猫投诉为例,对假货、售假、货不对板的投诉量非常之大。
6 O }5 t& B+ ^$ p$ q2 T7 R 6 y/ [5 ~ @/ @, K e# W5 N
先说AI应用在货品打假上的基本逻辑。, _% ?% c& n% V; a1 U' ^
逻辑:人工打假难、打假贵、周期长、套路多——通过机器视觉提升“眼力”。
' P. @& s0 e. n# A) Z3 a2 Y% d) f 人工打假难:随着现代制作工艺技术越发精湛,越来越多的“大牌”包包、高仿潮鞋、收藏品伪作,不再是粗制滥造的“一眼假”,可以做到以假乱真的地步,看走眼的专家数不胜数。有些造假技艺出神入化的“古玩”,甚至连专业仪器都不能准确鉴定。. }! N6 @- p* y( x& O/ Y
人工打假贵:人工甄别需要多名鉴定师“背靠背”鉴定,因此收费也往往是在线鉴定的数倍。国内某奢侈品鉴定平台,在线鉴定49元,实物鉴定收费则达到199元。
+ p- h$ h, S8 y/ Z4 J/ i- n 周期长:制假售假贩假大多是流水线式团队作战,批量生产,加上越来越多生活富裕的人加入消费/收藏的队伍,交易数量多,相应的投诉量也增多,维权周期也很长,很多消费者只能选择自认倒霉。
% A$ f& m* v% V3 ^4 A2 h$ F0 M 套路多:很多人觉得,专家的意见很可靠,专业机构出具的证书有背书作用,但架不住造假套路太多,市场上充斥着仅在鉴定培训班学习过几天而取得“结业证书”的廉价大师,还有不具备相应条件又未经过合法审批的鉴定中介机构浑水摸鱼,证书只要给钱就能出,所以即使人工鉴定也可能陷入套路。* L$ r' m- m2 P/ J/ ^4 ^1 s
所以,近年来通过在线平台,用户拍摄照片上传,AI系统比对鉴定,变得流行起来。有企业推出的“AI鉴定师”,一秒钟能识别20个假冒商标,有的艺术品鉴定,可以对文物进行“一物一图”的识别鉴定,规避仿造的问题。这些都是靠什么能力实现的呢?- G9 K4 v( X' @6 y; |4 i
能力:机器视觉的快、准、惠。
" n( j4 \ k7 m6 M$ m$ c+ o 面对假货,没有“眼力”就会处于弱势。机器视觉是AI的一个分支,让机器能够“看”和“理解”视觉信息,类似于人类的“眼力”。
- D) n8 ?( x' S$ `6 B1 l6 f 0 d b2 s8 M+ }% O4 n
首先,机器视觉系统会对物品的高精度图像进行识别和分析,提取出物品的形状、颜色、纹理等相关特征。: q, g3 J# q* t+ R
然后,系统结合已知真假货的数据集,根据真假货的规律和特征,比如正品大牌包包的五金件颜色,logo字母的形状等,进行比照。
# O1 h1 W! Q( `' ^ K3 S9 n- n5 G9 x 当然,随着造假技术的提高,很多直观的细节不再是造假的难点,仅仅单一特征的图像比对是不够的。比如有的古籍造假,会使用年代久远的纸张,文字或图案通过软件调色贴近真迹,真中有假,假中藏真,让很多专家也只能凭感觉“觉得哪里不对”,而AI算法可以快速找到多种特征的彼此矛盾之处,找到真假“杂拼”的违和感,再由人工鉴定师进行判断。
3 M1 V" _7 {& n 通过机器视觉,可以快速、准确地识别出假货特征,与人工鉴定相结合,降低鉴定的整体成本。9 Z# L3 Z2 {/ G5 b* K
有限性:造假升级,数据瓶颈
% ?/ r+ L5 N0 M" f1 X 当然,基于机器视觉的在线鉴定,还不能百分百取代人工鉴定,技术的有限性主要来自于:
8 ]* s n3 a9 X$ Q7 x& [* O- S Y 一是造假手段的科技化。造假不可怕,就怕造假的人有文化,现在很多产品的造假技术也上了一个新的台阶,比如购入正品后,拆解成几个部分,再拼凑在一起高价卖出;有的大牌包包在各种细节上都与正品一致,不同的可能是五金件的铜含量不一样,这就需要借助专业的金属检测设备,仅靠机器视觉识别是不够的。, D# u# g, f, x5 H7 C) t2 Y
二是真假数据的限制。机器视觉算法的准确率,需要庞大的真假货特征数据集来支持,而大牌产品更新换代很快,数据集的速迭代速度如果跟不上,就会让新款假货成为漏网之鱼。此外,很多艺术品/收藏品都是孤件,收藏家没有动力将其数字化后共享数据,这也会影响算法结果的准确度。同时,很多鉴定标准都是行业专家口口相传的口诀,没有形成一定的算法规则,垂直品类如紫砂壶、明青花等,行业知识匮乏、数据稀疏,也会影响算法的有效性。
& v' o; F. L o" r, F 这里要说的是,以假乱真的造假,更多用于艺术品、奢侈品等价值昂贵的产品上,吸引的群体比较有限。正是市面上大量流通的大众消费品,才导致了规模庞大的受害者,而这些产品的造假一般不会费心地精益求精,AI的到来,无疑提供了一把价廉物美的打假武器。
/ ?- `8 [5 y- O" p: _ 中级段位:Anti-Deepfake PK Deepfake
" d: _6 n# Z9 ~ 造谣一张嘴,辟谣跑断腿。当深度伪造技术Deepfakes换脸轻而易举,图像、音频以假乱真,很多人的脸被拿来做成虚假视频,在网络上疯狂传播,近年来越来越地引发维权。
' [) e, {( \( ^1 ?8 k& ^ n0 { 1 r3 Y: b9 ?8 [9 C9 o* ]; n/ G3 t+ I
逻辑:Deepfake带来的伪造危机——更强大的Anti-Deepfake自动甄别技术 “攻子之盾”。
# k B/ x9 o# U 你也许会说,被改头换面是公众人物、明星的烦恼,自己只是个普通人,干嘛要担心AI换脸。试想一下,这样的形象造假越来越多,让网络上的信息真伪难辨,权威专家的嘴型可以p,领导人的脸可以换,那会让没有专业辨识能力的普罗大众,陷入谣言和欺骗的信息海洋,在无形中损伤了整个社会的互信,引发集体信任危机。1 @' O e3 M9 h X8 o; m1 |8 s
此外,如果Deepfakes被用于非法用途,如诈骗、敲诈勒索等,很难保证黑客不会将其产业化、普及化,这样就会对更广大的群体带来形象和经济上的损害。我- F" K. c/ c8 q7 X' B
我曾采访过一家智能金融机构,对方提到,通过在线视频确认借款人身份时,就可能会遇到深度伪造视频的攻击,提高了风控的难度。+ N/ I. C$ [% v5 K3 [
所以,检测和消除深度伪造图像和视频,避免技术被恶意利用,也成为许多科技公司打造负责任的技术的一种选择。
$ d7 _$ R- j- _) t* w 能力:基于GAN(生成式对抗网络)的Anti-Deepfake算法,使用多个深度学习模型对输入数据进行分析,提取出视觉、语音和动态特征,并将它们结合为一个特征向量,与已知的生物特征进行比较。
# T4 i! l/ }! N; Z Deepfakes算法不是完美的,缺少常识,所以伪造的脸存在很多不对劲的特征,但这些面孔本身看起来很逼真,靠人的肉眼“找茬”有点费劲,但AI可以快速找到这些线索。$ f& d* R1 H% A" L, M- E- x5 J
比如一只耳朵上没有戴耳环(除非她是一个叛逆朋克少女),牙齿数量以及方向不对,衣服或背景的形态很不合常理。
# q3 _$ t3 C7 R ]" H6 ] ; i& A# K1 h, i; B
注意看,中牙非常小,耳朵也很怪
5 ~) E4 b$ `5 ~% j" _" j: t, z' v 有科学家找到了一种检测伪造的方法,研究团队发现Deepfakes难以准确再现常规的瞳孔。真正的人类瞳孔是一个规则的椭圆形,而Deepfakes生成的瞳孔明显不规则,因为它对人脸结构没有生理常识。; v- \' [( l" [8 u7 B1 t
L) y# ?. L% z& o5 O+ E. e
(来源:arxiv.org/abs/2109.00162)
" Z) s" R; v; ]9 ^+ d 此外,有的伪造线索是动态的,比如声音和口型对不上,需要检测算法提取视频的音、画特征进行分析匹配。
9 V9 T N) a6 [9 C( t1 o 有限性:真伪游戏,永无止境7 T* F5 i/ |& H/ u9 l( N
通过AI自动检测来识别深度伪造的音视频,根本挑战在于伪造技术进化得非常快。
- _1 }; G; |; E& ], O B9 ]" m6 t 2018年纽约州立大学开发出一款“反换脸”AI刑侦工具,通过预测眼睛是否眨动的状态来识别伪造人脸,准确率达到 99%,但这款工具还没推广就失效了,因为Deepfakes技术进化了。. o4 U: [) F3 t: ~
自动检测算法需要在高质量的数据集上进行训练,这些数据集要包括真实数据和合成数据,如果数据的多样性不足,训练视频和测试视频的相似性很高,那么实际检测的效果也会不理想。
' T- |, S5 x' @5 c4 F' t2 i 此外,用户发现被深度伪造内容侵权后,问责和维权是非常难的,一般首先问责的是平台,对侵权视频/账号做出下架、删除、处罚等处理,但整个过程不确定性很大,还要和平台企业的客服、运营、公关、法务等多部门交锋,非常繁琐,很多用户只能选择不了了之。用户监督对检测技术的升级,影响有限。
5 E+ v( \. W7 X( P 只能希望数据隐私保护的相关法律持续完善和落地,科技企业加强技术伦理和研发,在这场真伪斗法中不断保障用户的权益。
( J! h+ O# b) z9 u) C) O" f 高级段位:AI内容识别器PK AI作弊# w0 D7 ]* W4 o
ChatGPT的出现,将AIGC带入了新的巅峰。据《纽约时报》报道,大型语言模型(LLM)生成的文本,与人类编写的文本难以区分,资深大学教授也无法准确区分学生是否用ChatGPT写了论文作业。
6 Z5 w5 Z3 t- j 所以,为了防止学生用AI作弊,纽约公立学校已全面禁止使用ChatGPT,美国一些学区也开始采取这一措施。
2 }* v7 y' h9 }% \ 还有科学家让AI来检测ChatGPT撰写的医学研究摘要,不仅比论文剽窃检测器的效果好得多,而且比人类审稿人的成绩还高。也就是说,ChatGPT撰写的论文摘要,已经可以让人类专家都难辨真假了。
: F& x4 n" m" C- }, r y( H" H 而就在今天,GPT-4问世,支持多模态的生成任务,对代码有超强的理解能力,这也使得AI内容识别器成为了一项必需品,来避免AIGC快速发展拉大“假内容”的识别难度。! k* h% ?& k& _+ m; r/ ~/ x( P
逻辑:大型语言模型强大的生成能力导致AI沦为作弊工具——AI内容识别器,检测内容是人类写的还是AI写的。
$ ^: R% J+ F0 Q9 i( |6 T 能力:不详。; |$ ^- w+ L0 |' u4 V' u# B
是的,作为一种最新最前沿的造假手段,目前还没有一种技术或软件,能够有效且准确地识别出用ChatGPT作弊内容。4 e4 [) t. f* A8 g9 C& ~6 `
AI内容识别的方法,目前有两种:
# W# d6 Z4 v+ p0 C3 F! M9 d 一种是黑盒检测,即通过统计特征的分析,找到AI文本和人类文本的区别,已经有多个团队或开发者,推出了相应的解决方案。! p6 j1 U ]( @% V. I' S
比如普林斯顿大学计算机科学专业的华裔学生Edward Tian开发的GPTZero,号称可以通过分析语言模型对文本的“喜爱”程度,以及AI写作一段文本时的“困惑”程度,通过“亲AI”分数来判断文章是否出自AI之手。3 F( T# J2 l5 X* Y$ b3 E
斯坦福大学提出的DetectGPT,认为人写文章和模型样本的摄动差异分布有显著差异,通过这个差异来检测一段文本是否由模型生成。
. O/ h' r% q; X7 A _: J: A9 C$ t$ M OpenAI也在前不久推出了AI生成内容识别器,但博客数据显示,检出成功率只有26%,对英文以外的语言,检测效果要差很多,并且不支持1000字符以内的短文本(因为人类写的和AI写的答案可能是一样的)。而且,一些AI生成的文本经过编辑之后,也可能规避掉检测。$ j+ x) {4 ^1 v; `7 d
大模型能力的提升,使得AIGC和人类的差距越来越小,导致AI内容识别器的检测准确性也难以保障。比如最新的GPT-4,表现相比GPT-3.5有了大幅提升,之前针对GPT-3等大型语言模型的检测工具,都面临失效的风险。' f2 U2 V2 I: P* ], y; V1 q
! D6 d% T; R& G+ D (GPT-4在大多数测试中表现优于GPT-3.5)9 I* d- u; Z; i& V' d8 c: v
另一种是白盒检测,即模型的开发人员对AI内容进行一定的处理,从而满足检测目的。
" x! W5 h' M0 _! `% \ ? 此前OpenAI就声称,考虑给AI内容加上水印,在词汇选择上加入“不引人注意的秘密信号”,这样就能证明这段文字是 GPT 模型生成的。% Z, L2 ] E ^% X8 `
这一方法的问题是,只能由模型开发者植入水印,模型开源之后可以通过微调来移除水印,也会失效。1 b( ^( S4 X5 R. l* L- U! M$ Y
有限性:AI检测技术的进步,慢于AI生成技术的进步。
# \9 {. Y' @8 F" I% C 说了这么多,当然不是为了把AI等新技术生成的东西都“一棒子打死”。+ U: s. O3 J) P$ s' d
今天,我们能在博物馆里看到临摹仿制的复制品,这种“假”与欺骗无关;能靠Deepfakes将失德艺人的脸换掉,让作品继续上映,保住整个制作团队的心血;能用AI画出自己想象中的场景,当然也不能算是造假……
! x) |0 e% _% D( a' S 物品没有对错,技术没有好坏,错的只是人心,只是握刀的那只手。
. J; h/ n" t2 }, O3 h! H, V 作为普通人,我们能做的就是“知己知彼”,了解造假技术的逻辑、能力和局限,将捍卫自身权益的武器,掌握在自己手里。 |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|