骗局揭秘:
利用AI换脸和语音合成技术,骗子伪造亲友视频通话,谎称“紧急用钱”“被警方拘留”等,骗取受害人转账。

经典案例:
2024年1月中旬,香港遭遇了一起堪称“教科书级”的巨额诈骗案,一家跨国公司香港分部的职员,在诈骗分子的精心布局下,被骗走高达2亿港元,而这背后竟是AI“多人变脸”诈骗的首次“登台亮相”。
诈骗分子的手段可谓“环环相扣、步步为营”。他们先从YouTube等视听网站下载相关视频,运用深度伪造技术,精准模仿公司高层的声音,同时精心仿造其形象,制作出以假乱真的伪冒视频。在精心策划的视频会议里,受害者看到的“首席财务官”以及其他高层管理人员,形象和声音都与现实毫无二致。但实际上,除了受害者自己,其他“参会人员”全是经过AI换脸后的诈骗分子。
受害者被这逼真的场景迷惑,放松了应有的警惕,按照“指示”先后转账15次。直到转账后向总部查询,才如梦初醒,意识到自己陷入了精心设计的骗局。

对普通人来说,自身警惕才是关键。“熟人”线上借钱,别只信视频,多问私密细节;人脸认证时核对平台,不随意传面部数据;遇可疑账号,先电话或线下确认。别让AI换脸的“假熟人”,骗走你的真信任和真钱财。
AI技术虽带来诸多便利,但也可能被不法分子利用成为犯罪工具。公众务必提高警惕,面对可疑视频会议,主动核实身份,不轻易提供生物识别信息,一旦被骗,及时报警,守护好自己的“钱袋子”。
(来源:“杭州网警”微信公众号)
(链接:https://mp.weixin.qq.com/s/A5bg29t0AwiVLILgvGUJaQ)