如何规避AI最新烈焰sf带来的技术风险?

  • 如何规避AI最新烈焰sf带来的技术风险?

    但还是有越来越多的研究人员试图揭示人工智能的潜在危害。今年2月,来自美国和英国的一群著名研究人员和政策制定者发表了一篇专门论述恶意使用人工智能的文章。还有的人正在从另一个角度来构建技术,展示人工智能可能会出错的方面。而且随着更危险的技术的出现,人工智能界可能不得不重新考虑其开放研究的承诺。有人认为,有些事情最好是关起门来。

    现在,46名学者和其他研究人员组成了一个团队,称为计算机学术的未来(the Future of Computing Academy),它正敦促研究界重新思考分享新技术的方式。他们认为,在发表新的研究成果时,科学家们应该解释它如何以消极和积极的方式影响社会的。

    但研究人员没有讨论另一种可能性——更好的监控。唇读系统是政策制定者所称的“双刃剑技术”,它反映了从顶级人工智能实验室中出现的许多新技术。自动生成视频的系统可以改善电影创作,但同时也会被用于假新闻的制作。自拍式无人机可以在足球比赛中捕捉视频,,也可以在战场上杀死敌人。

    如果机器可以生成可信的照片和视频,我们可能不得不改变我们查看互联网上内容的方式。

    在发布新成果时,研究人员很少讨论负面影响。这部分是由于他们希望将其工作放在积极的光环之下,另一部分是因为他们更关心开发技术而非使用技术。

    如何规避AI最新烈焰sf带来的技术风险?

    不久前两个世界顶级人工智能实验室Google Brain和DeepMind推出了一个可以阅读唇语的系统。这个由Alphabet旗下的研究人设计的系统可以在很多时候超过专业的唇语解读者。在对研究人员收集的视频进行唇语解读时,该系统的错误率仅为40%,而专业人员为86%。

    但摄像机变得越来越小,价格也越来越便宜,研究人员对人工智能的不断改进驱动了这些类似于唇读系统技术的产生。谷歌的论文只是近期诸多进展中的一个。中国的研究人员刚刚推出了一个旨在利用类似技术在“野外”阅读唇语的项目,它能适应不同的光照条件和图像质量。伦敦帝国理工学院的研究员Stavros Petridis承认,即便使用智能手机的相机,这种技术最终也可用于监控。他称:“这是不可避免的。今天,无论你在构建什么,都既可能被善用,也可能被误用。”

    在一篇解释该技术的论文中,研究人员将其描述为一种帮助人们处理语言障碍的方法。他们认为,在理论上,该系统可以让人们通过蠕动嘴唇进行交流。

    AI技术和过去的所有技术革命一样,这种全新的强大的力量在为社会注入活力的同时,也会带来各种社会问题。作为AI浪潮核心的知识分子和工程师们,应该也必须为自己创造的知识体系担负起应有的责任,力求造福世界,也应极力避免技术的滥用和误用带来的损害。同时企业在追求利润的同时,也应该慎重地考量技术和使用的方式所带来的影响,保证风险和技术的使用是合理可控的,这也是技术企业承担社会责任的一部分。

    正如许多领先的人工智能研究人员进入像谷歌大脑和DeepMind这样的企业实验室时,在高额薪资和股票期权的利益下他们必须保证雇主的利益。上市公司,特别是像谷歌这样的消费巨头,很少讨论他们工作的潜在缺点。

    赫克特先生和他的同事们正呼吁同行评审期刊拒绝那些没有对技术潜在的缺点进行讨论的论文。即便处在目前技术行业进行罕见的自我反思的时刻,该倡议也可能很难被人接受。许多研究人员担心审稿人会因为讨论技术缺点而拒绝论文,因而他们对是否接受该倡议犹豫不决。

    美国西北大学教授布伦·特赫克特认为:“计算机行业可能会变得像石油和烟草行业一样,受到老板和资本的驱使而进行技术研究,而非考虑其真实的社会影响;不过我们也可以选择成为开始更广泛思考的一代人。”

    麻省理工学院媒体实验室的研究员马特·格罗最近建立了一个名为暗色天使(Deep Angel)的系统,它可以从照片中删除人和物体。这是一个计算机科学实验兼作一个哲学问题,目的在于,在假新闻时代激发围绕人工智能角色的对话。格罗先生说:“我们非常了解假新闻的影响力,现在的问题是,我们如何处理这个问题?”

    如何规避AI最新烈焰sf带来的技术风险?

    谷歌的唇读系统可以帮助监控吗?也许现在还不能实现。在“训练”其系统的同时,研究人员使用了正面拍摄特写镜头的视频。牛津大学的研究员Joon Son Chung表示,来自街道头顶摄像机的图像“还达不到可以进行唇读的标准”。在一份声明中,谷歌发言人先是提出与上面差不多的观点,然后才指出该公司的“人工智能原则”,声称不会设计或共享“违反国际公约”的可用于监视的技术。