“AI换脸诈骗潮”来了?
“AI换脸诈骗潮”来了?换脸 公安部门:全国爆发消息不实,但涉诈风险正在积聚 一张静态半身照,诈骗经过特殊软件处理,换脸就能变成视频,诈骗而这样一段视频,换脸可能被不法分子用来诈骗。诈骗那么,换脸“AI换脸”是诈骗如何实现的?目前全国真的爆发“AI诈骗潮”了吗?对普通公众而言,如何识别“AI假脸”?换脸 花钱就可“买脸” “AI换脸”暗藏黑产 “AI换脸”技术,一直是诈骗网络安全监管的重点对象,许多换脸软件,换脸不得不通过短视频平台、诈骗社交账号等私密渠道进行资源共享。换脸 某社交平台一位商家介绍,诈骗可以提供国内明星换脸服务,换脸软件价格2000元一套,可送一个模型,“模型可以定制,另外加500元一个。”此外,该商家提供了多组套餐供选择:包括单图换脸、实时换脸、全自动换脸等,每套价格多集中在2000元至3000元。商家表示,可采用多个人脸混合的方式,将使用者本人的脸和明星的脸进行混合,以降低侵权风险。 在某销售网站上,一名软件开发者则展示了如何将知名女星的眼睛和嘴巴拼接融合到一起,生成全新虚拟数字人的过程。该款软件提供了从初级到超级再到全套的不同版本。以初级套餐来说,付费499元可提供软件界面、视频指导、入门级模型、基础指导等。付费2888元,则可得到全套等级的视频换脸模型。 软件不仅可以实现视频换脸,还支持直播换脸。“如果你有看中的脸,可以找到某个人的正面、侧面等各种角度视频拿来训练。”该软件开发者同样表示,“如果你想要明星脸,又怕侵权,不想那么像,就可以找几个人的脸放在一起训练,看上去又像又不像,达到明星脸的效果。” 此外,网络上不乏AI换脸教程。在国内某知名App上输入“换脸”,弹出的高频检索记录显示,有“换脸软件”“换脸App免费”“换脸视频怎么做”“换脸算法”等。 视频“大变活人” 是如何实现的 “AI换脸”也叫“深度伪造技术”,堪称现代网络“易容术”,是比PS强大很多的动态换脸技术。这一方式被一些不法分子用于盗刷银行卡、非法办理手机卡等诈骗场景。除了欺骗机器外,还可以通过伪造电话语音、视频通话等欺骗真人,引诱转账、实施敲诈等。那么,“AI换脸”到底是如何实现的? “深度伪造技术主要分两部分:自动编码器和生成对抗网络。”天津大学智能与计算学部教授翁仲铭介绍,其核心原理,是利用“生成对抗网络”等算法,将目标对象的面部,“嫁接”到被模仿对象上,一般可分四类:重现、替换、编辑和合成。 随着深度学习技术的发展,自动编码器、生成对抗网络等,逐渐被应用到“深度伪造”中。那么,什么是自动编码器?翁仲铭介绍,自动编码器是一种神经网络技术,就是把一个人的照片特征抓取出来,然后用数字代表。 有编码器就需要解码器,解码器会把一串串数字再还原成照片。不同解码器,可以还原不同照片,比如朱茵的解码器可以还原朱茵的照片,而还原施瓦辛格照片,则需要施瓦辛格的解码器。 “深度伪造技术,就是在设计、训练精准的编码器和解码器。”翁仲铭解释,因为编码器是抓取照片的特征,所以基本上只需要一套就可以了。但解码器就需要训练很久,以换成史泰龙的脸为例,这个过程需要输入史泰龙600—3000张照片,并经过48—72小时来训练深度模型。 “自动编码器做出的照片是否自然真实,还需要判别把关,这就需要‘生成对抗网络’技术。”翁仲铭解释,这包括两个机器学习模型,分别为“生成网络”和“辨别网络”,这种网络包含两个相互博弈的神经网络,像“猫捉老鼠”一样对抗:一个尽力去忽悠另一个,让它相信自己生成的是真样本,而另一个则尽力去区分真假样本。 生成网络扮演“造假者”,在模型训练后,产生伪造影片;而辨别网络则扮演“检测者”,不断地检视假影片,直至它再辨别不了结果是假的。数据越多,效果越理想,假影片越真实。 AI进入快速迭代期,涉诈犯罪风险正在积聚 通过AI换脸和拟声技术,10分钟骗430万元;AI虚拟人在聊天中筛选出受害者,人工接力实施诈骗……近期,多起宣称利用AI技术实施诈骗的案件引发关注。 那么,“AI诈骗潮”是否真的到来了?近日,公安部门确认,“AI诈骗全国爆发”的消息不实,目前此类诈骗发案占比很低。但公安机关已注意到此犯罪新手法,将会同有关部门,开展技术反制和宣传防范。 专家表示,AI在技术上确实能做到换脸、拟音,但被用来进行“广撒网”式诈骗需要具备很多条件。 这类诈骗如果得手必须做到:收集到被换脸对象的个人身份信息、大量人脸图片、语音素材,通过AI生成以假乱真的音视频;窃取被换脸对象的微信号;充分掌握诈骗对象个人身份信息,熟悉其与被换脸对象的社会关系,综合作案成本很高。 公安机关研判,目前AI涉诈案件仍属零星发案状态,成熟的类型化诈骗犯罪,往往具有在全国多地集中爆发的特点,但当前没有成规模的AI诈骗类案件发生。 所以,近期网上“AI换脸、换声诈骗在全国爆发”传言不实,目前全国此类案件发生不到10起,但该动向值得高度关注。网上一键换脸功能的App、小程序有技术滥用风险,需要加强技术防范反制等工作。 国家开发投资集团特级专家赵建强表示,虽然AI诈骗类案件尚未大规模爆发,但AI技术正加速向网络诈骗、虚假信息、色情等领域渗透。“如假冒明星换脸直播、一键脱衣、造谣、制作色情视频等。虽然AI诈骗案件未成气候,但这一趋势值得关注,必须提早防范。”一位反诈民警说。 用“白AI”对抗“黑AI”,及时画红线、踩刹车 中国移动信息安全中心品质管理处副处长周晶表示,近年来,各界正在研判AI技术给社会带来的风险和潜在威胁,设法将AI技术发展纳入一定规则中,做到安全可控。 业内人士建议,要加强AI反制技术研究,“以AI制AI”。一些科技公司正加强对图像、声音伪造技术的反制研究,在公安、金融的视频认证场景已有应用。有一线民警建议,要加强AI安全技术应用研发,将AI技术应用于犯罪识别、预警、对抗中,实现以“白”AI对抗“黑”AI。 其次,加强源头治理和行业引导,及时更新、完善相关法律、标准、规则,为AI技术发展保驾护航。“数据是AI犯罪的源头,保护好公民的个人隐私数据安全,就能在最大程度上降低AI违法犯罪的能力。”周晶说。 中国互联网协会监管支撑部主任郝智超建议,AI技术发展还要有相关法律法规来画红线、踩刹车。对AI技术的研发、传播、使用做到有规可循,并根据技术发展实际情况,及时完善对技术服务商行为的规范引导。 此外,还要有针对性地加强反诈宣传。郝智超表示,未来AI可根据大数据创造出无比接近真实的“真实”。“要通过不断的教育,改变大众观念,让人知道眼见不一定为实,有图不一定有真相,提升对网络信息的辨识力。” (一)合成声音 骗子通过骚扰电话录音等,提取某人声音,获取素材后进行声音合成。 (二)通过AI筛选受骗人群 骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。 (三)AI换脸 骗子首先分析公众发布在网上的各类信息,用AI技术换脸,可伪装成任何人。 识别假脸 多数假脸是使用睁眼照片合成,假脸极少甚至不会眨眼。还包括语音和嘴唇运动不同步、情绪不符合、模糊的痕迹、画面停顿或变色等。(记者 于梅君)
- 最近发表
-
- 11月底恐爆BQ.1疫情 醫估單日確診逾2萬
- 投資非要「多情」不可!
- 不斷傳唱的台語經典〈雙人枕頭〉,當初根本不是對唱曲、甚至不是主打歌?
- 一曲〈燃燒吧火鳥〉,是如何讓瓊瑤、高凌風各自有了新突破?
- 「文化成年禮」明年3月發放 滿18歲可領1200元
- 杭州亞運:男子3000公尺滑輪溜冰接力賽台灣奪金,黃玉霖0.01秒之差戲劇性逆轉,韓國隊鄭喆元向國民及隊友道歉
- 教師道德糾結症候群:與「職業倦怠」同樣構成現代教師的職涯挑戰,但兩者之間略有不同
- 快4000位老師問卷調查:3成教師不快樂,政策要求太多、下班後還要回覆LINE群組
- 一年砸10億美元,Nike榮登全球最凱運動贊助商|天下雜誌
- 《奴隸航道》:數百萬奴隸運過大西洋需要大量資金,歐洲人平衡帳目的答案就在咖啡杯底
- 随机阅读
-
- 12個《牛津》關鍵英文新詞,一把抓住科技新趨勢!|天下雜誌
- 4個你不能不知道的淨水知識!四張圖表帶你看
- 2023兩廳院永續國際年會側記:由裡到外、從小處著手,兩座劇院的永續改造行動
- 《畢達哥拉斯的思考課》:AlphaGo對弈贏過世界冠軍李世乭的關鍵,正是因為蒙地卡羅搜尋法
- 广西桂林:“两书同送”让经营主体重回“正常赛道”
- 逃離黑手黨:從小在義大利黑幫家族長大的孩子,如何重獲新生?
- 杭州亞運9/27中華隊戰績一次看:武術張煥宜進帳1銅,女足勝泰國連3屆晉級8強
- 【對談】新銳創作者田子平X學者暨策展人邱誌勇:科技表演藝術的新視野,媒材對於不同世代的意義是什麼?
- 韩启德、窦贤康、潘建伟交锋:如何支持卓越青年人才?—新闻—科学网
- 從勾結建商到國際開發密約,韓國在野黨魁李在明涉貪連黨內同志也不挺
- 上班族瘋運動 路跑登山的同時你該注意的是….
- 讓樂高迷們失心瘋的「朝聖景點 」
- 38只!广东阳江首次记录到成群东方白鹳
- 一張圖表讓你秒懂什麼是「化學添加」和「天然添加」!
- 英國研究:「終極盤古大陸」2.5億年後成形,極端高溫恐致人類等哺乳類滅絕
- 感謝我年輕時曾遇見《紅樓夢》與《莊子》,他們教導我什麼是「人生真相」
- 宏達電不要 蘋果當寶 原來圖的是串流|天下雜誌
- 【2023女性影展】《觀景窗裡》導演蕭逸凡專訪:你拍下這些東西,那些影像就在跟你說告別
- 《自律神經5分鐘自癒術》:這十件事需要每日執行,藉由「三行日記」與「自我評分」回顧一天
- 疲勞、壓力大、晚上總是睡不好?失控的生理時鐘
- 搜索
-
- 友情链接
-