乐清市工程机械网

当前位置:主页 >> 混泥土机械

新AI技术的风险

发布时间:2021年08月18日    点击:[1]人次

新AI技术的风险

旧金山 - 7月,两个世界顶级人工智能实验室推出了一个可以阅读嘴唇的系统。由Google Brain和DeepMind的研究人员设计 - 这是Google的母公司Alphabet所拥有的两个大型实验室 - 自动化设置有时可以胜过专业的唇读者。在研究人员收集的视频中读到嘴唇时,它在大约40%的时间内识别出错误的词,而专业人员错过了大约86%中国机械网okmao.com。

在一篇解释该技术的论文中,研究人员将其描述为一种帮助人们处理语言障碍的方法。理论上,他们说,它可以让人们通过移动他们的嘴唇进行交流。但研究人员没有讨论另一种可能性:更好的监控。

新AI技术的风险 合亚嗒资讯网,heyada.com

唇读系统是政策制定者所称的“双用技术”,它反映了顶级AI实验室涌现的许多新技术。自动生成视频的系统可以改善电影制作 - 或者创造假新闻。自拍式无人机可以在足球比赛中捕捉视频 - 或者在战场上杀死。现在,由46名学者和其他研究人员组成的团队,称为计算机学院的未来,正在敦促研究界重新思考它分享新技术的方式。他们说,在发表新研究时,科学家们应该解释它如何以消极的方式和积极的方式影响社会。

“计算机行业可以变得像石油和烟草行业,在那里我们正在建立下一件事,做我们的老板告诉我们做的事情,而不是考虑其影响,”西北大学教授布伦特赫克特说。 。“或者我们可以成为开始更广泛思考的一代人。”在发表新作品时,研究人员很少讨论负面影响。这部分是因为他们希望将他们的工作放在积极的一面 - 部分是因为他们更关心的是建立技术而不是使用技术。

由于许多领先的人工智能研究人员进入企业实验室,如Google Brain和DeepMind,受到大额工资和股票期权的诱惑,他们还必须遵守雇主的要求。上市公司,特别是像谷歌这样的消费巨头,很少讨论他们工作的潜在缺点。赫克特先生和他的同事们正在呼吁同行评审的期刊拒绝那些没有探讨这些缺点的论文。即使在技术行业这种罕见的自我反思时刻,该提案也可能是一个难以出售的问题。许多研究人员担心审稿人会因为缺点而拒绝论文,对这个想法犹豫不决。

尽管如此,越来越多的研究人员试图揭示人工智能的潜在危险2月,来自美国和英国的一群着名研究人员和政策制定者发表了一篇致力于恶意使用人工智能的论文其他人正在建设技术作为一种方式。 AI显示AI可能出错。而且,随着更多危险的技术,人工智能社区可能不得不重新考虑其开放研究的承诺。争论说,有些事情最好是闭门造车。

麻省理工学院媒体实验室的研究人员Matt Groh最近建立了一个名为Deep Angel的系统,它可以从照片中删除人和物体。计算机科学实验兼并作为一个哲学问题,它旨在引发围绕人工智能在假新闻时代的角色的对话。“我们非常了解假新闻的影响力,”格罗先生说。“现在,问题是:我们如何处理这个问题?”

如果机器可以生成可信的照片和视频,我们可能不得不改变我们查看互联网上的内容的方式。谷歌的唇读系统可以帮助监控吗?也许不是今天。在“训练”他们的系统的同时,研究人员使用了正面拍摄特写镜头的视频。牛津大学的研究员Joon Son Chung表示,来自头顶街道摄像机的图像“绝不足以进行唇读”。

在发表声明时,谷歌发言人大致相同,在指出该公司的“ 人工智能原则 ”表明它不会设计或共享可用于监视“违反国际公认规范”的技术。但是相机越来越小,越来越便宜,研究人员不断改进驱动这些唇读系统的AI技术。谷歌的论文只是近期进展中的另一篇。中国研究人员刚刚推出了一个旨在利用类似技术在“野外”阅读嘴唇的项目,以适应不同的光照条件和图像质量。

伦敦帝国理工学院的研究员Stavros Petridis承认,即使使用智能手机相机,这种技术最终也可用于监控。“这是不可避免的,”他说。“今天,无论你构建什么,都有很好的应用程序和糟糕的应用程序。”