|
|
桑达尔·皮查伊(Sundar Pichai) 视觉中国 资料图8 H5 J6 o; ]" u( x$ _* h* E5 O6 @
3 q; v/ [5 j' K2 Q, c“我一直认为 AI (人工智能)是人类正在研究的最深刻的技术,比火、电或我们过去所做的任何事情都要深刻。”当地时间4月16日,在哥伦比亚广播公司(CBS)的采访节目《60分钟》里,谷歌及其母公司Alphabet的首席执行官桑达尔·皮查伊(Sundar Pichai)表达了他对人工智能的快速发展及其对社会潜在威胁的担忧。$ a' `) j {: v$ c' W/ x3 g
皮查伊认为,社会需要适应新技术,各行各业或许都会受到影响,作家、会计师、建筑师,以及软件工程师在内的“知识工作者”或将被人工智能颠覆。
, W$ V7 T' X5 P; v, @ P1 `“新技术将影响每家公司的每一种产品。”皮查伊举例,假如你是一名放射科医生,想象一下从现在起的五年到十年,会有一个人工智能与你共同工作,当你早上起来面对上百件待处理任务时,它能够告诉你哪些是需要优先处理的最严重的事件。
u2 q2 G" _( |8 a1 W8 [9 f4 i对于新技术带来的安全问题,皮查伊表示,虚假信息、假新闻和图像方面有很大问题,他强调生成式人工智能的风险之一是深度伪造视频(deep fake videos),在这些视频中,一个人的行为可能会被伪造,例如发布从未说过的某种言论。
0 ^/ A! \3 U+ }% B$ ?“这些陷阱说明了监管的必要性。”他说道,“制作这些深度伪造视频的人必须承担后果。任何与人工智能合作过的人都会意识到,这是如此不同、如此深刻的东西,以至于我们需要社会法规来思考如何适应。” * {, r# F |: B
因此他强调必须有监管存在,“我们周围已经发生的技术,将比我们以前见过的任何东西更有能力。”
, h) {* G( K; X3 {7 p在采访中皮查伊表示,让他夜不能寐的一件事是谷歌的AI技术被以有害的方式利用。
) g; @, E! i# N$ A; t f在OpenAI推出ChatGPT后,谷歌开始部署自己的聊天机器人Bard。目前,谷歌一直对Bard采取谨慎的态度,强调这只是“实验性”产品。
# u$ R( g: ^) b( w( [据介绍,Bard内置安全过滤器,以帮助抵御恶意用户的威胁。皮查伊表示,公司需要不断更新系统的算法,以打击虚假信息活动并检测深度造假行为,比如检测计算机生成的看似真实的图像。3 R4 U3 [1 j* c8 O$ q# t9 s+ [9 }6 t
此前,谷歌发布了一份关于“监管人工智能建议”的文件。皮查伊表示,社会必须迅速适应监管滥用行为的法律和条约,以确保人工智能对世界的影响。) f. j) M J7 b9 g8 E) E
皮查伊强调,“这不是一家公司可以决定的。这也是为什么我认为新技术的发展不仅需要工程师的努力,还需要社会科学家、伦理学家、哲学家等共同参与。”
) N$ T$ [! _; w1 p" F5 t当被问及社会是否为像Bard这样的人工智能技术做好准备时,皮查伊回答说,“一方面,我觉得没有,因为我们的思考和适应的速度赶不上技术发展的速度。”
9 A! n# g! e/ d. n+ ^' _) k# G不过,他补充说自己很乐观,因为与过去的其他技术相比,“开始担心其影响的人”很早就有所准备了。 |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|