您的位置:首页 >原创 >

研究人员希望公司开始承认新AI技术的风险

在7月,两个世界顶级的人工智能实验室推出了一种可以读取嘴唇的系统。

由Google Brain和DeepMind (谷歌母公司Alphabet拥有的两个大牌实验室) 的研究人员设计,这种自动设置有时可能胜过专业的lip阅读器。当阅读研究人员收集的视频中的嘴唇时,它识别出大约40% 的时间错误的单词,而专业人士错过了大约86%。

在一篇解释这项技术的论文中,研究人员将其描述为一种帮助有言语障碍的人的方法。他们说,从理论上讲,它可以使人们仅通过移动嘴唇就可以进行交流。

但是研究人员没有讨论另一种可能性: 更好的监视。

唇读系统是政策制定者所说的 “两用技术”,它反映了顶级人工智能实验室出现的许多新技术。自动生成视频的系统可以改善电影制作-或提供假新闻的创建。自动飞行的无人机可以在足球比赛中捕获视频-或在战场上杀死。

现在,由46名学者和其他研究人员组成的小组,名为 “计算学院的未来”,正在敦促研究界重新考虑其共享新技术的方式。他们说,在发表新研究时,科学家应该解释它如何以消极和积极的方式影响社会。

西北大学教授布伦特·赫希特 (Brent Hecht) 表示: “计算机行业可能会变得像石油和烟草行业一样,我们只是在建设下一件事,做老板告诉我们的事情,而不是考虑其中的影响。”“或者我们可以成为开始更广泛思考的一代。”

在发表新作品时,研究人员很少讨论负面影响。这部分是因为他们希望以积极的态度来看待他们的工作-部分是因为他们更关心技术的构建而不是使用技术。

随着许多领先的人工智能研究人员进入谷歌大脑和DeepMind等公司实验室,受到高薪和股票期权的诱惑,他们也必须服从雇主的要求。上市公司,尤其是像Google这样的消费巨头,很少讨论其工作的潜在弊端。

Hecht和他的同事呼吁同行评审的期刊拒绝不探讨这些缺点的论文。即使在科技行业难得的自我反省的时刻,该提议也可能很难卖出。许多研究人员担心审稿人会因为缺点而拒绝论文,因此对此想法表示反对。

尽管如此,越来越多的研究人员试图揭示人工智能的潜在危险。在2月,一群来自美国和英国的著名研究人员和政策制定者发表了一篇论文,致力于人工智能的恶意使用。其他人正在构建技术,以展示人工智能如何出错。

而且,有了更危险的技术,人工智能社区可能不得不重新考虑其对开放研究的承诺。争论说,有些事情最好闭门造车。

麻省理工学院媒体实验室的研究人员马特·格罗 (Matt Groh) 最近建立了一个名为Deep Angel的系统,该系统可以从照片中删除人和物体。这是一项计算机科学实验,也是一个哲学问题,旨在围绕人工智能在假新闻时代的作用引发对话。格罗说: “我们很清楚假新闻的影响力。”“现在,问题是: 我们该如何处理?”

如果机器能够生成可信的照片和视频,我们可能不得不改变我们查看互联网上的内容的方式。

Google的唇读系统可以帮助监视吗?也许不是今天。在 “训练” 他们的系统时,研究人员使用了正面和特写镜头捕捉人脸的视频。牛津大学 (University of Oxford) 研究员钟俊生 (Joon Son Chung) 说,来自高架街道摄像头的图像 “绝对不足以进行唇读”。

在一份声明中,谷歌的一位发言人说了同样的话,然后指出该公司的 “人工智能原则” 表示不会设计或共享可用于监视的技术,“违反了国际公认的规范”。

但是相机变得越来越好,越来越小,越来越便宜,研究人员正在不断完善驱动这些唇读系统的AI技术。谷歌的论文只是最近一系列进展中的另一篇。中国研究人员刚刚公布了一个项目,该项目旨在使用类似的技术 “在野外” 读取嘴唇,以适应不同的照明条件和图像质量。

伦敦帝国理工学院的研究员Stavros petridis承认,即使使用智能手机摄像头,这种技术最终也可以用于监视。“这是不可避免的,” 他说。“今天,无论您构建什么,都有好的应用程序和坏的应用程序。”

相关推荐

猜你喜欢

特别关注