1. 首页
  2. 网络失信举报
  3. 视频里的女儿是假的?AI合成的女儿差点骗了湖州老章

视频里的女儿是假的?AI合成的女儿差点骗了湖州老章

发布时间:2024-01-02 15:01 分享到:

最近,有骗子玩出“新花样”,上了“AI换脸”的技术。湖州德清的老章,就差点上当受骗。

12月24日中午,老章接到一个陌生电话,对方却自称是女儿盈盈。

“盈盈”告诉老章,手机在高铁站弄丢了,只能借超市老板的手机打电话,问老章要10000元买手机。

“我女儿什么声音,我不知道吗?”老章听着电话里的声音并不像盈盈。电话里的“盈盈”却说,如果老章不信,可以下一个视频通话APP和她视频。

老章按照那头的引导下载了一个APP,果然在屏幕上看到了女儿的头像。

老章信以为真,急急忙忙跑去银行给“女儿”打钱。

半路上,老章却接到了莫干山派出所反诈预警员陈成林的电话。

“怎么会是诈骗?我跟我女儿视频通话确认过。”老章很吃惊。

“你千万别转账,我们马上就来!”陈成林连声说,并驱车赶赴现场。

德清警方供图

5分钟后,陈成林在银行与老章见了面,了解了事情的来龙去脉。

“视频里的你女儿是AI合成的。”听完老章的讲述,陈成林告诉老章,骗子通过收集老章女儿平时的照片以及声音信息,合成AI“假盈盈”行骗。

老章连忙给女儿打电话,得知盈盈正在外地出差,并没有丢手机。

“自己真是老糊涂了!还好有你们来劝阻我,电话晚打来两分钟我这1万块钱就打出去了!”

德清警方介绍,AI诈骗是指利用人工智能(AI)技术,冒充他人的身份或声音,通过视频或语音的方式实施诈骗的行为。

套路一般有两种:

一是声音合成。骗子先通过拨打骚扰电话的方式获取对方声音信息,对音频素材进行AI处理之后,利用AI技术伪造对方声音实施诈骗;另外一种方式,是不法分子通过盗取受害人微信等社交账号后,使用特殊的语音插件,转发之前的语音信息,获取信任实施诈骗。

二是AI换脸。和声音合成相比,这种形式更具有欺骗性。不法分子利用AI技术,根据搜集来的照片和视频生成与目标对象相似的面容,然后再给受害人拨打视频电话,带上“人脸面具”,以假乱真。

那么,如何防范AI换脸诈骗?

AI拟声、AI换脸包装作伪后的通话虽能逼真地模仿原始人物的语言和行为,但仍充满破绽,例如眨眼频率过低、眼睛移动不协调、面部表情不自然、唇形不匹配、语句不连贯等。若在与亲友视频语音沟通中发现上述异常行为,应立即警觉。

视频电话中,眼见未必为实、耳听未必为真。无论任何人要求你分享个人身份信息,如你的地址、出生日期或名字,都要小心。对突如其来的电话要保持警惕,即使是熟人或者朋友,因为来电显示的号码也有可能伪造。如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等多种沟通渠道核验对方身份,不要未经核实随意转账汇款,一旦发现风险,请及时报警求助。

(来源:"网信浙江”)

(链接:https://mp.weixin.qq.com/s/XgjeoNIFE6SxCA26ng_8GQ)


机构简介|网友建议|在线评论|一键举报|举报查询|

举报电话:15336715159    举报邮箱:qzjbzx2021@163.com

  备案:浙ICP备16024883号

建议使用1366*768分辨率/IE9.0或以上浏览器访问达到最佳效果