耳听、眼见也不一定为实?新型“AI换脸”诈骗的千层套路怎么破?
随着技术的不断进步,AI应用场景越来越丰富,曾经离我们很遥远的AI,如今正迅速进入大众生活。
但需要注意的是,骗子也盯上了AI技术,利用它玩起了“真假美猴王”。和你视频对话的,可能不是本人。
日前,包头警方发布了一起利用AI实施电信诈骗的电信案例。某天中午,福州的郭先生突然接到好友的微信视频邀请,两人聊了一会儿。好友说,自己的朋友在外地投标,需要430万元保证金,必须公对公账户过账,想要借用郭先生公司的账户走一下账。
好友向郭先生要了银行卡号,声称把钱打到了郭先生的账户上,还把银行转账底单的截图微信发给了他。
已经视频过了,还有什么可怀疑的,郭先生甚至没有核实这笔钱到没到账,就把430万元按对方要求打了过去,并给好友发了一条微信消息,说事情已经办妥。这下对方懵圈了,什么情况?于是给郭先生回了一个“?”。
郭先生也懵了,赶紧给好友打电话,听到对方说没有这回事,才意识到自己跌进了一个“高端技术玩家专业骗局”,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。
郭先生立即报警,包头市公安局电信网络犯罪侦查局当班民警以最快速度完成核查、报审,在涉案银行卡所属银行的全力协助下,将该诈骗账户内的336.84万元被骗资金成功拦截。
剩余款项目前正在全力追缴中。
案件披露后,#AI诈骗正在全国爆发#的话题冲上了热搜,引发网友广泛关注。
AI诈骗的常见手法
那么,AI诈骗的常用手法有哪些?是如何瞒过大众的眼睛的呢?日前,新华网发布了AI诈骗的几种常用手法。
合成声音:
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
通过 AI 技术筛选受骗人群
骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实的骗术,通过 AI 技术对人群进行筛选,从而选出目标对象。
AI 换脸
骗子首先分析公众发布在网上的各类信息,用 AI 技术换脸,可以伪装成任何人,再通过视频方式进行信息确认,真是防不胜防。
如何防范AI诈骗
那么面对AI换脸诈骗就没辙了吗?
在AI时代,眼见、耳听都不一定为实了,大大增强了迷惑性。运用AI技术,再加上套路和剧本的演绎,这样的诈骗手段,我们如何防范?
诈骗“魔高一尺”,防范“道高一丈”。
识别假脸
多数假脸是使用睁眼照片合成,假脸极少甚至不会眨眼,缺少眨眼是判断一个视频真假的好方法。
辨识“深度伪造“换脸视频的方法还包括,语音和嘴唇运动不同步、情绪不符合、模糊的痕迹、画面停顿或变色。
多重验证,确认身份
在涉及到转账交易等行为时,通过电话等形式询问具体信息,多重验证确认对方是否为本人。最好向对方的银行账户转账,避免通过微信等社交软件转账,将转账到账时间设定为“24小时到账”,以预留处理时间。
保护信息,避免诱惑
加强个人信息保护意识,谨防各种信息泄露,不管是在互联网上还是社交软件上,尽量避免过多地暴露自己的信息。对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。
相互提示,共同预防
要多多提醒、告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,共同预防受骗。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
拒绝诱惑,提高警惕
要学会拒绝诱惑,提高警惕。避免占便宜心理,警惕陌生人无端“献殷勤”。
新技术的不断面世,带给人们更多的乐趣,但也要警惕随之而来的安全隐患,保护好自己的钱袋子。