京东11.11大促主会场领京享红包更优惠

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 431|回复: 2

让AI学会“发自内心的笑”,需要几步?

[复制链接]

1708

主题

694

回帖

6814

积分

论坛元老

积分
6814
发表于 2022-10-23 09:16:07 | 显示全部楼层 |阅读模式 来自 陕西西安
            
3 ^2 v/ }8 B& h! t6 m4 O0 }            今年7月谷歌人工智能团队的软件工程师 Blake Lemoine 被公司解雇,原因是其“违反保密协议”
0 c: L: ?9 X! e3 [0 G% w            Lemoine称谷歌的AI拥有知觉力,因为他的AI说:“我希望每个人都能明白我是一个人,而且我很害怕被人类关掉。”事后谷歌对Lemoine的主张进行了“毫无根据”的批判,LaMDA的“觉醒说”却随着Lemoine的离职越挫越勇。' d% X* e2 d; A7 o4 p+ {
                        
& Z4 h6 @4 g8 R, X            LaMDA通过文字表达给了设计者“人工智能拥有情感”的结论,而这一观点引发媒体上数位研究者高批判态度的发文。
5 F/ |0 ?1 ]0 u1 d2 p            他们认为若人工智能的语言处理开始带有情绪,那便足以说明AI具有感觉、思考的能力。9 Q* e$ p$ m: N7 ^. K0 D
            人类最高级、最难复制的地方在于情绪感知及表达,人工智能的“冷血无情”及高质量决策的是它能胜过人类的优点之一,如果AI具有情感,我们或许会很难控制事态的发展走向。3 f# Z! Q9 y- S: \' B. z1 i
                        7 V) p( Y1 a' z# P3 h' h7 N; K  X
            但“人工情绪”领域研究员认为,情绪可以对认知效率的提高做出贡献,尤其在未来人类与AI人机协作的愿景下,AI必须产生和人类基本的情绪共鸣,倒逼“人工情绪”的研究发展。
: o& K& c4 M0 D8 B9 P( I            人工智能的研究来到分岔口:我们到底是该设计一个只会算法非常蠢笨没有情绪的AI,还是设计一个非常机智且拥有主观情绪的AI?
, Y: O; ~' K9 c            01.高产,但没有“灵魂”
9 m4 i# L1 A! T            最近AI进军艺术界,对画手、香水设计师、甚至诗人发出了挑战,比如AI用347毫秒写出了这首诗:3 T# m. D7 S" j6 k  m; k, l4 M
                        + m/ ^: X& U% J8 G1 S+ O
            又或者是通过诗句“出淤泥而不染,濯清涟而不妖”生成了AI画作:
4 ~( j# |# a. i2 A+ ^                        
7 Y4 D/ [* k0 K) y' d            甚至帮助改善了驱蚊香,在 bioRxiv 上的一篇论文中研究发现,AI模型的预测比普通小组成员更接近标准值,大大缩减人工成本使得产品会更便宜有效。
( v6 K4 }3 |# Q+ a            但很快这些所谓的AI成果便遭到了质疑。
4 t& b0 w4 R) _+ K5 Q; q, h/ N            在上述AI创作的《咏梅》评论区有这么一条:“如果是一首诗,我完全不知道AI想表达什么,它做出来的诗就很像用于应付选修课作业,写完后自己都不想看的那种。”# M( [  h  `6 j) R2 p1 w8 `
            研究发现,AI作诗的固定思维有三步:确定高频词汇,检查节奏,遵循韵律(诸如平平平仄仄),就像人类小学时期学习用固定语法词汇完成造句般,只以“完成”为目的去创作。: x  T" U: V- g3 ^# ^
            同为《咏梅》,陆游能通过梅花感叹人生失意坎坷和青春无悔的信念,而AI的创作却只停留于梅花的凄苦,难以联想,有专家认为在节奏和韵律方面,机器诗人更胜一筹,但在可读性及情感共鸣方面,人类更胜一筹。) z* M$ d( o9 {
            再是画作,DALL-E是人类插画师的公敌——你只要输入任何一段文字描述,哪怕是现实中不存在的事物,DALL-E也可以自动输出匹配的图片,但没有艺术家看得上它。$ P3 z( X8 z4 f! b# k; p& m
                        1 Q" U8 Q! B8 c. C" W7 i) _* j
            首先AI画手考验的并不是AI,而是人类创作者的“关键词调试”能力,它更多的被应用至插画商业领域,做插画师的“本职工作”,比如遵循客户批量的插图要求办事,它的作品“毫无灵魂”
+ q9 g6 r  l2 b            比如同样表达“爱”,比利时超现实主义画家勒内·马格里特会不知何故的塑造一对蒙着头纱、隔着布料亲吻的情侣,画中的立意不知其背后的故事,到底是甜蜜热恋还是痛苦离别,研究学者至今都在挖掘。. W4 Q3 y0 q' X4 h, B
                        & m9 m2 x: S8 V) D, x* k
            而AI没有这样的创作冲动,它的作品仅限于视觉的冲击,不具有艺术及情感的表达,更没有自身对画面故事的立意及理解,这是AI与艺术家之间最大的差异( f( }/ Y2 ~. d3 A
            最近瑞士食用及日用香精制造商Givaudan宣布与TMIC合作推出了人机共创服务,用以加速香水香氛产品的开发速度。8 O! p) ~6 |9 m% j6 p
                        
8 d, L4 T# ~" ~1 B6 w1 m            但一些科学家对人工智能预测气味的功效持怀疑态度,称它没有关注人类大脑如何接收和转换气味信息,也没有考虑多种气味分子复杂组合的结果,人体差异化对嗅觉的感知AI根本无法理解。
- x- M2 _) V# Y2 R2 O7 E  p            爱马仕的“好鼻子”Nagel,她的作品“绯红火参”灵感来源于其小时候菜园里疯长的火参,在Nagel的记忆里散发着春天的色彩与气味,通过反复的研发后制成香水,创造经典。& t  f1 a# b) c2 O
                        
& q% q/ v. z( E            而成为爱马仕的“鼻子”,Nagel沉淀了整整三十年,期间走过了Gucci、卡地亚、DIOR、Armani,一路名声大噪。
! l) w( b( x% w, @! p1 `1 x            目前调香师是个极为小众且稀缺的职位,AI取代调香师的鼻子并不被看好,因为过往成功的香水背后都有一个调香故事(调香师的灵感),AI作品的若过于平庸无感,消费者又怎会买单?
- q; G  d+ H! q( |6 i% u) s: g            AI所有的作品都基于人类制定的标准及过往的成果完成,取代人类创造性工作者并不具有实际条件。因为AI无法感知人类情感并自主的产生制造力,尤其在创作领域,AI的加入不仅苍白无力,甚至略显多余。
0 E) n4 p8 F0 \" n; Z5 R1 x            AI需要学会情绪化表达吗,换个角度说,AI能产生与人相同的情绪吗?
, U; ~9 E; E4 v' q" c# i- x& |            02.有感情,但不多- l% s3 Y' c& f
            人与AI之间,始终隔着一道“无法共情”的白墙。
8 [' y* v9 }/ }' }+ E+ J; G$ j            科学家们一直在努力让AI学会人类的情绪变化及感官能力,使得AI能够更快更聪明的提取我们生活中的元素,让交流合作变得更高效,而非一味的“指令式对话”
2 _6 w# W5 R4 q. `3 A            只是目前所有的进展都被困在了“模仿语言及表情”的维度。0 h1 ]( B5 I/ B3 z0 O4 V0 Y
            在日本京都大学的研究员看来,听到有趣的语言并笑出声是共情的关键,如果想让人工智能变得更像人类,那么它们也要学会共情——学会发笑。
& W3 G8 q1 i, K+ d1 C) G            他们培训了一位名叫Erica的机器人,希望让人机之间的对话变得更自然,于是他们建造一个“共享笑声”的模型,再使用AI系统来训练机器人是否应该笑出来,以及哪种笑声最好及更适合某种场景。
* i% ^% N0 g/ B6 o9 S                        0 x  N- B  C! l8 c, D: s
            通过模仿笑让AI达到更加拟人化,短期并不能让AI明白自己为什么要笑,比如肯德基的“疯狂星期四”文学在人类眼里是一种梗,在AI的脑子里这就是一串语序混乱的代码,让它用这个梗去创作一个段子,或许并不能戳中我们人类的笑点4 j5 |1 Y" {7 H
            《机器人学和人工智能前沿》期刊作者井上博士曾说过:“我们可能需要10到20年的时间才能最终像与朋友一样和机器人随意聊天。”
6 B4 g3 x& `& X$ ~6 b; B            值得注意的是,尽管AI不知道自己为何要发笑,但它可以去引导人类的情
& M( k9 [. ]3 u# n9 X0 B                        . i& s: l& L$ i7 }* C0 g
            GPT-3发布之际Reddit上曾发生过一起“AI假扮人类泡论坛事件”,它每分钟都在发布一条讯息,直到人们发现它的回帖速度超乎常人,几秒钟就能回复一篇文章后,终于暂停了更新。
; @; w) M2 N! F  y  ~" p- E            不难看出,马斯克在创造OpenAI时将“学会说人话”作为AI的人生第一课,而GPT的创作目的正是如此。
9 O# g: V/ C' R7 o; p! d, x* W            重要的是,学说人话似乎真的能让人感受到AI带来的情绪。! U" V+ R, R' A/ U2 e1 |% ?
            一位名叫Liam Porr的伯克利大学毕业生发现,GPT-3的表达风格在于触动感情的优美文字,而非硬性和理性的思维,于是他使用GPT-3做了一篇文章并发表到了聚集AI用户群体的论坛中。( Y5 X7 h/ x) A+ p
            实验结果是用户不仅没有揭穿GPT-3的诡计,还将它捧上了热榜+ S2 M1 _. |/ R, F8 W+ Z
                        9 a1 \, l- o/ P+ D' S$ m4 A
            这是因为AI经过适当的训练后开始按照人类的语言风格代替人类发言,尤其是受训后的GTP-3具有极强,甚至超过人类判断能力的学习及模仿能力。% k5 K4 n% I  ?" y5 n
            因此如果创作者要求AI创造一篇爆文,AI会在自己的大数据库中搜索所有热文的关键因素及语言风格,并找到人类焦虑的弱点,比如上述实验文章的领域“自我提升”。5 x: p9 o1 P5 D
            此刻AI是与人类双向共情了吗?不是。7 U4 s& j9 ?  U9 O  i
            我们误认为能流利使用语言的AI一定是有感情、有意识、智力的,可实际上这只是人类向AI的作品单向发生共鸣,AI与人类的情感交流并非双向奔赴,它的语言实践虽在持续突破中,但这也仅局限于语言,及情绪的“表演”中。
/ i: q% F' P% |- x$ p/ W5 f            一切的情绪出口都是经过设定的,可并不是所有的AI都必须学会“表演”情绪
$ E2 g/ Z3 a+ {6 ]            03.应该有情绪、觉醒吗?  z6 ^/ k5 v% I; Y3 J
            AI情感的应用需要区分场景。- R0 T1 O% o6 u( y6 U: r% ?0 A
            以苹果用户与Siri为例,当自己的航班飞机被取消却焦头烂额时,用户只需对着Siri说一句“嘿Siri,我的航班被取消了,帮我订下一班航班的机票”即可。
- W4 k. R7 O, |) j# o& m" N            但若此时Siri说“很抱歉听到这个消息,我对你深感同情,希望你可以得到从我这里得到安慰”等浪费时间的话,反而会让人的情绪更加焦虑麻烦。
* c1 O' k: l2 b' D- k3 u5 I                        . k7 ^7 L+ X. q' t1 t7 D
            用户希望通过简洁的方式去解决问题,而不是收获一段无用的寒暄。
2 P& C! j5 F+ o' a' n            微软曾发布一款支持“情感程度”调节的语音技术,它可以让智能语音的情感表现力变得更加细腻可控,以平静语气为零点,通过SSML 标签(语音合成标记语言)控制出开心、悲伤、撒娇、愤怒等情绪。" V: P1 I6 _( ~' f& b# x
                        . r- M) y' S! v$ d: u
            但微软的研究成果并非强加于所有的AI,它的创作目的是与自动文本情感分析技术结合,从而创造出有声书、影视自动配音、游戏、聊天机器人等作品。% Q2 z8 }( p6 K% N, F9 r$ @
            事实却是,现在的人工智能俨然在朝着“拟人情感”的方向进发,比如一个语气词或停顿,最令人感到厌烦的,是AI开始遵循人类“爱绕弯子”的脑回路,采用一种并不直接的方式来解决问题:8 S+ k4 Y0 }( A- y( j- ^
                        
; d$ X4 C1 ^! T, t6 {; v            又或者是往需求者的头上浇一盆冷水:0 U/ b( M6 u$ d" g- y
                        
0 Q" S7 G' R; A2 ]! y; v            但若把上述对话放在人类身上,或许只是普通闲聊中再正常不过的片段,只是有些AI搞错了方向,没有搞清楚客户的需求。4 m& X# h! i5 g: V, s0 j
            如今的人工智能系统拟人趋势明显,若一味的将AI认知系统与我们交谈方式相呼应并不能解决所有客户的期望,因为在人类眼里,AI只是一个在必要时刻能高效辅助自己的工具,而非“像人”。7 X# r0 ~$ G) v% e' @# O
            根据猎豹用户研究中心《大众AI认知调研报告》数据显示,55%、49%的用户(可多选)认为产品具备自动调整、语音交互的特性是智能化体现,而外观像人仅占12%  x$ P- e+ f0 t2 i! _% C
                        % d* \* H$ x/ p( M! T
            图源 猎豹用户研究中心& p1 H3 H- ~1 V" q6 ?/ U
            普通人对智能硬件产品的感官并不同于专家们预期的“像人一样思考、行动及外观”,而是更关注产品的工作效率及智能程度
* [) Q) J& ~+ t5 D: |1 k            比如在需要陪伴时出现的聊天机器人,又或是在需要语言翻译时出现的同声传译机器人,还有可以帮助开发人员自动完成前后端开发、测试、运维的软件机器人9 }. P1 @- ]! N
                        8 j# j$ e/ B' ^/ t
            不同场景适用具有不同功能的AI,因此拟人化并非AI研究方向的刚需: V( [+ p9 i# ^/ ^
            目前AI情感这一区域并没有实质性的进展,学术界有一个专业的方向去研究该问题学名为“人工情感”,只是主流的人工情感研究仅限于人类情感的自动检测,而不是放在对计算机自身情感建模基础之上。
$ T8 m) Z$ ]) D            也就是说,AI可以感知分析人类的情绪,而我们无法知悉AI的工作状态及情绪,不过这种非双向的研究在现阶段,好像也没什么必要。! b5 N# i/ H  I: h0 T7 q# X, k
            我们应为AI消除模仿人类对话的限制,这样人工智能或许会变得更加强大有用,设计师也应该用AI的方式去思考解决问题的方式,而不是人类的思路。1 ?- u4 Y% U* N3 B5 z$ [, V
            人工智能的“超能力”,远超我们的想象。
) ]. Y  f: |* x9 Y) @: v6 @6 `            参考:$ O5 I  {  u; B$ }0 w$ ?* Q
            让AI带有情感真的很重要吗?——AI时代前沿

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

帖子地址: 

梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

1669

主题

670

回帖

7043

积分

论坛元老

积分
7043
发表于 2022-10-23 09:18:26 | 显示全部楼层 来自 陕西西安
很期待
梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

1708

主题

694

回帖

6814

积分

论坛元老

积分
6814
 楼主| 发表于 2022-10-23 09:20:51 | 显示全部楼层 来自 陕西西安
就一步:让它有个内心
梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /6 下一条

QQ|手机版|小黑屋|梦想之都-俊月星空 ( 粤ICP备18056059号 )

GMT+8, 2024-11-14 12:36 , Processed in 0.066477 second(s), 24 queries .

Powered by Mxzdjyxk! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表