警惕AI“深度伪造” 接陌生电话时建议先“变声” 视频,不法分子
警戒AI“深度伪造”
接生疏电话时建议先“变声”
专家:人体生物特性易被“移花接木” 电话、视频聊天时需增强防备与甄别
“以前我们说‘眼见为实’,但随着技术发展,不法分子的技术手腕也在更新,造出‘假人说谎话’,有时让人防不胜防,必需要注意鉴别和防备。”近日,于深圳举办的世界数字城市大会“生物特性辨认技术使用论坛”上,国度特聘专家陈友斌教授在接收本报全媒体记者专访时谈到:“人脸辨认技术已经落地各项使用,由此引发的个人隐私泄漏等问题也日渐突出,人脸辨认技术使用安全管理势在必行。”
文、图/ 全媒体记者 冯秋瑜(除署名外)
AI换脸、声音合成
“好友”以假乱真走钱财
“如今,社会生活中的不少业务都可以在线上进行,金融方面如开户、开卡、理财、信贷;民生方面如申领社保、修正密码、开庭、办案;商务方面如会谈、签约、公证等,然而你有没有想过,屏幕上呈现的那个人,是否真的是你以为的那个人?人工智能大时期下,这一点特殊须要警戒。”陈友斌说。
前不久包头警方就通报了一起运用AI实施诈的案件:福州市某公司法人代表郭先生10分钟内被430万元。据通报,郭先生的一位“好友”突然通过微信视频接洽他,称自己的一位客户朋友在外地竞标,须要430万元保证金,且须要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信赖,加上已经视频聊天核实了地位,郭先生没有核实就直接分两笔把430万元转到了对方指定的银行卡上。事后,郭先生拨打好友电话才知道被,本来不法分子通过智能AI换脸和拟声技术,佯装成好友对他实施了诈。“不法分子用视频对讲的方法模仿受害者朋友的声音,看起来,人也是这个人,声音也是他的声音,但其实根本就不是他朋友所为。” 陈友斌说。
无独有偶,2023年2月,有位陈先生到派出所报案,称自己被“好友”诈了近5万元。经警方核实,诈分子运用陈先生某好友在社交平台宣布的视频,截取其面部画面后运用“AI换脸”合成,制作陈先生与“好友”视频聊天的假象取其信赖,从而实施诈。
今年10月7日,国度金融监视管理总局北京监管局宣布风险提醒称,有不法分子非法获取个人信息,通过盘算机算法仿真合成受者亲人、引导同事或公职人员的肖像面容与声音,冒充上述人员地位行;在获得受害者信赖后应用事先筹备好的套路话术向受害人发送银行卡转账、虚拟投资理财、刷单返利等诈信息,并运用视频通话,语音轰炸等手腕进一步降低受害者的防范心,受害者往往在短时光内难以察觉异样,一旦听信诈分子的术并完成转账,对便利杳无音讯。
AIGC数字人?自然人?
人体生物特性或被“深度伪造”
“不法分子通过AI换脸和拟声技术,佯装熟人实施诈。”陈友斌介绍,我国在人脸辨认这一领域的使用排在世界前列,因而人脸辨认的风险和隐私维护必需引起关注。
“在镜头前面的那个人,他是不是一个真实的自然人?人是不是真实的?证件是不是真的?人证是不是一致?须要远程核身的手腕。”陈友斌介绍,呈现在伪造图像或者伪造视频中,借助AI技术生成或者伪造的人称为“AIGC数字人”。它可以是真实世界不存在的人,也可以是对真实世界存在的人的伪造。而“自然人”是呈现在真实图像或者真实视频中,且存在于真实世界的人。
据了解,目前在广深两地,生产和销售虚拟数字人的企业已达上千家,由AI技术创立的“数字人”具有高度真切的外观和自然的语言交互才能,能够与用户进行实时对话互动,甚至到达“不细心看看不出来”的真切水平。
作为多年从事图像辨认与人工智能领域研讨的专家,陈友斌提示:“人脸、声纹、指纹、虹膜、签名等是最常用的人体生物特性,即便是自然人,但是否他本人此时此刻就在那个处所,还是别人移花接木把他粘到那里去?也须要鉴别。”
陈友斌介绍,与传统技术相比,“AI换脸”的损坏力不仅在于“伪造”,更在于“深度”。“诈分子一般会先对公众在网络上宣布的各类信息进行大数据剖析,包含社交媒体上的个人数据、工作信息、人际关系等,研讨他们的日常生活习性、工作习性、资产状态等,然后联合要实施的术,通过AI技术对人群进行筛选,从而肯定要实施诈的目标人群,锁定诈对象。”
警戒声纹造假
接生疏电话“变个声音再说”
陈友斌介绍,“深度伪造(Deep Fake)”是一种基于深度学习的多媒体改动与合成技术,重要包含图像、语音、视频和文本的伪造及改动等,在视频通话、视频会议中,模拟目标人物去欺另外一个人。“深度伪造发展得非常快,这个技术最早用于好莱坞拍电影时去模仿一些现实中拍不到的部分,后来被不法分子所运用,让人脸图片的嘴巴动起来、眼睛眨起来,还能摇头晃脑的,还有换脸等,现在这类模型非常多。”
他告知记者,这种深度伪造技术在不转变地位的情形下,可以对人脸进行年龄、性别、种族的转变,并且把持口部或者表情;还可以通过人脸迁移、交流、堆叠等方法,以“换脸也换表情”“换脸不换表情”等多种方式混合来转变地位。“实时交互式的深度伪造将合成映射到现在的时刻,针对实时交互式的使用场景,如在线会议中应用虚伪地位窃取信息或扰乱秩序,或在视频通话中模拟目标人物去欺另一端的用户等。”
陈友斌提示:特殊须要注意的是,声音的信息也可以通过提取“声纹”来进行造假。什么是“声纹”呢?陈友斌介绍,人类语言的发生是人体语言中枢与发音器官之间一个庞杂的生理物理进程,发声器官——舌、牙齿、喉头、肺、鼻腔在尺寸和形态方面每个人的差别都很大,所以任何两个人的声纹图谱都有差别。现在大家都常接到很多生疏人打来的广告电话,殊不知在和生疏人说话的进程中,不知不觉就把自己的声纹泄漏了。
“不法分子可能通过不同的人向你打电话‘轮番轰炸’,也许他们的目的根本不是为了倾销,而是获取你的声纹、生活习惯和社会关系,进而实施诈。”陈友斌介绍,语音时长会影响声纹辨认的精度,有效语音时长越长,算法得到的数据越多,精度也会越高。因此他提示:“不熟习人工智能科技的老年人尤其须要进步警戒,包含年青人也一样,接到生疏电话千万不要多说话,实在必需说话时可以捏着鼻子、变个声音跟他说,否则经过一段时光的数据学习,不法分子就可能会运用你的声纹信息和讲话习性等,合成你的声音、换成你的脸,在你的社交网络里进行诈。”
仔细留心AI伪造“蛛丝马迹”
多渠道确认不轻信视频内容
如何防备AI深度伪造诈?陈友斌提示:“如果这个人跟你很熟,你跟他多交互对话几次,就可以发现问题了。”据了解,以银行业务为例,是须要通过图像、语音、自然语言处置再加上交互对话来完成金融业务,最大限度减小风险。而普通人也可以通过多种核对的方法来发现AI深度伪造的“蛛丝马迹”。
他介绍,因为人脸合成的素材大多应用的是睁眼照片,所以“缺乏眨眼”可以被视为是合成视频的“特性”之一,此外合成视频还可能存在口型和发音不同步、情绪不符合、某个处所不自然或者不连接、牙齿和嘴唇纹理不清,耳朵不对称等情形。AI拟声、AI换脸包装作伪后的通话,虽能真切地模拟原始人物的语言和行为,但仍充斥漏洞,例如眨眼频率过低、眼睛移动不和谐、面部表情不自然、语句不连贯等——这些都是“数字人”的特色。以下防备口诀比拟好记:“电话回拨再确认,视频不可轻易信;私人问题记得问,答不上来不可信;眨眼能破AI面貌,要害时刻要常用。”
据悉,国度网信办8月8日宣布的 《人脸辨认技术使用安全管理规定(试行)(征求意见稿)》,也从公共场合、经营场合、可能损害他人隐私的场合等作出了要求。有关部门也提示:要进步信息维护意识,特殊警戒须要录入个人信息的非正规软件;在开启“定位服务”、输入地位证号或是录入“人脸辨认信息”“指纹辨认信息”等个人生物信息时必定要慎之又慎;发现APP过度、强制收集个人信息时及时向有关部门投诉举报。此外,妥当设置个人社交账户的阅读权限,不过度公开或分享涉及个人信息的动图、视频等,对不明平台发来的链接进步警戒,不轻易向生疏人开启手机屏幕共享。
《 》2023年10月29日第A5版
还没有评论,来说两句吧...