当前位置:首页 > 热点

人工智能“无间道”—新闻—科学网

作者:丁佳 来源:科学网 www.sciencenet.cn 发布时间:2019/8/20 12:48:48 选择字号:小 中 大
人工智能“无间道”
  前段时间,无间道一些视频在网上广泛传播。人工有人在1994年电视剧《射雕英雄传》中使用人工智能技术,新闻将演员朱茵扮演的科学黄蓉一角换成了杨幂,效果几可乱真;还有人将人工合成的无间道“美国前总统奥巴马”放在境外社交媒体上,吐糟现任总统特朗普是人工“彻头彻尾的笨蛋”。   人们看了之后,新闻大多当做网络段子一笑而过,科学但仔细想想的无间道话,如果你的人工脸也被用来制作假视频、假新闻,新闻你还能笑得出来吗?   实际上,科学人工智能技术的无间道滥用和因算法漏洞引起的安全问题,已经引起了业内人士的人工高度警觉,一场看不见硝烟的新闻“攻防战”,正日趋白热化。   危险逼近   从街头巷尾刷脸支付的无人售货机,到公共场所的安防监控,甚至是影视制作、国防事业,人工智能正深刻地改变着人们的生产生活方式。但今年以来,利用人工智能技术造假的新闻屡见报端,也引发了越来越多的公众关注。   “公众对人工智能技术抱有希望和想象,相信它能为生活的方方面面带来改变,但我们也应当正视,当前人工智能技术还处在比较初步的发展阶段,还面临着一些挑战。”清华大学教授、清华大学人工智能研究院基础理论研究中心主任朱军坦言。   冰冻三尺非一日之寒,早在几年前,学术界和产业界已经感受到危机在悄悄逼近。   “这几年在各种各样的学术会议上,我们能听到越来越多关切的声音,有关人工智能安全的论文也是呈指数级增长。”瑞莱智慧(RealAI)公司CEO田天说,该公司是清华大学人工智能研究院重点孵化的一家高新技术企业。   人工智能滥用也已引起国家有关部门高度关注。5月28日,国家互联网信息办公室发布了《数据安全管理办法(征求意见稿)》,其中明确表示,网络运营者利用大数据、人工智能等技术自动合成新闻、博文、帖子、评论等信息,应以明显方式标明“合成”字样;不得以谋取利益或损害他人利益为目的自动合成信息。   除了技术的滥用,人工智能本身存在的算法漏洞也令人担忧。几个月前,比利时鲁汶大学的研究人员发布了一则视频,实验者通过在肚子上贴一张打印出来的图片,就能够逃脱智能监控系统的识别,实现“隐身”;而想要把“隐身术”传给同伴也很简单,只要把这张纸递给他就好了。   “可以设想,如果这项技术被犯罪分子掌握,就能够很容易躲避智能安防系统,给公共安全带来极大威胁。”田天说。   “道”高一尺 必先“魔”高一丈   2018年6月,清华大学人工智能研究院揭牌成立,以“一个核心、两个融合”作为发展战略,即以人工智能基础理论和基本方法研究为核心,积极推进大跨度的学科交叉融合,积极推进大范围的技术与产业、学校与企业融合。   该研究院院长、中国科学院院士张钹认为,作为研究性机构,清华大学人工智能研究院的本分是要搞好学术研究,“但是人工智能又与应用结合相当紧密,因此研究院不仅仅是开开会,我们的研究一定要产生出算法,要孵化出新产业,甚至成为人工智能界的‘BAT’(百度、阿里巴巴、腾讯的合称)。”   在这一思路的指引下,瑞莱智慧应运而生,其核心研发团队来自清华大学、北京大学、中科院等,致力于打造安全、可靠、可解释的第三代人工智能,提供工业检测、预测性维护、金融风控、人工智能系统安全评测与防护等服务。   “在技术层面,人工智能安全会是一个持续攻防的过程。”田天说,“攻击者会采用新的方法来进行攻击,而防御者也需要适应动态变化的攻击场景。如果要占据主动权,就要对未来可能潜在的攻防场景做预演,并为应对潜在的风险提前设计可行方案。”   瑞莱智慧算法科学家萧子豪介绍,他们很早就关注到网上假视频、假图片的问题,一直在想能否利用清华积累的技术优势,去防止人工智能技术的滥用。   但是,想练就一副“火眼金睛”,就得需要大量高质量的数据去训练计算机。   近期,瑞莱智慧将工作的重点放在了换脸假视频的检测上,研发团队利用清华大学人工智能研究院在深度生成模型方面的积累,通过生成更加逼真的假视频,训练出了一个更加可靠的模型来检测假视频。经测试,这一模型的识别准确率超过了99%,能够覆盖市面上绝大多数换脸技术生成的假视频,达到了“真的不误杀,假的不漏判”的目标。   打开“黑盒”   张钹在2016年中国计算机大会上提出了“后深度学习时代的人工智能”,此后又进一步提出了“第三代人工智能”的概念,曾引起广泛关注。   这是因为当前主流的基于深度学习的人工智能技术,也就是第二代人工智能,存在着一个难以逾越的“天花板”,业内人士称之为“黑盒”。   “当前人工智能的算法越来越复杂,它告诉你明天要下雨,但是你完全不知道它是怎么做的决策,又谈何信赖呢?”田天坦言,如果被人利用,“黑盒”将带来严重的安全问题。   鲁汶大学的“隐身术”原理其实就是针对这种算法漏洞,专门生成一些噪点,来诱导人工智能识别出错。   瑞莱智慧也做了类似的尝试。技术人员研发了一种带有噪点的“眼镜”,只要戴上,就能通过商用智能手机的刷脸解锁。   多年来,清华大学人工智能研究院一直在攻防技术上深耕,曾在谷歌公司组织的“对抗样本攻防竞赛”上获得了所有任务的冠军。创办瑞莱智慧后,研发团队利用新技术做了更精确的建模,更加深入地研究如何利用白盒的替代模型来攻击黑盒的受害模型。通过发现真实存在的、危害更大的漏洞,团队进一步有针对性地设计防御算法来提升整个人工智能系统的安全性。   今年5月,清华大学人工智能研究院与瑞莱智慧联合发布了人工智能安全平台——“RealSafe对抗攻防平台”,它能够提供多种攻击与防御算法,开展全面、细致的攻击防御算法的评测与比较。此外,通过该平台,研究人员可以很容易地开展人工智能安全方面的学习和实训,帮助更多的人来关心和研究人工智能安全。   “随着人工智能技术渗透到人们生活的各个方面,因技术滥用、算法漏洞等导致的安全问题也随之而来。对此,公众需要提高自我保护意识。”田天呼吁,“但人工智能总体来说是有利于社会发展、有利于提升人民生活水平的,随着技术的不断演进,人工能智能会让我们的生活变得更加便捷,更加美好。”   显然,人工智能的“无间道”还将长时间上演。但可以肯定的是,这条螺旋式上升的路,最终会将人类带往一个充满想象力的未来。     版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:[email protected]

分享到:
 京ICP备19007577号-5