A+
A-
微信 朋友圈 微博 QQ空间
123456
78910111213
14151617181920
21222324252627
28293031

01版:关 注

02版:探“店”话非遗之二十

03版:探“店”话非遗之二十

04版:走进老旧小区看变化

05版:走进老旧小区看变化

06版:读桂·社会

07版:时事关注

08版:聚焦中国

09版:聚焦中国

10版:深度国际

11版:深度国际

12版:燃情体育

13版:文娱关注

14版:情感·故事

15版:财经·彩票

16版:早上好

返回 2023年05月25日

AI换脸诈骗频发
有人十分钟被骗走四百三十万

桂林晚报      2023年05月25日     
  假如某天,年迈的母亲打来微信视频说买了台按摩椅要你付款,住校的女儿找你要生活费,多年好友找你借点钱,公司老板要作为财务的你打下款……
  在确认了人脸和声音后,你会不会转账、付款?
  随着人工智能的迅猛发展,诈骗团伙的诈骗手段也越来越科技化,竟然用上了AI技术。
  此前有媒体报道过有人用知名男星AI版的声音差点就行骗成功,当时就有网友说,如果画面和声音同时AI化,那岂不是更容易被骗?
  如今,网友担心的事情真的发生了。
  5月22日,#AI诈骗正在全国爆发#的话题冲上热搜第一,引发网友广泛关注。

1 “好友”打来视频 10分钟骗走430万
  据平安包头官微消息,近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州一科技公司老板10分钟被骗走430万元。
  4月20日11时40分左右,郭先生的好友突然通过微信视频联系到他,两人经过短暂聊天后,好友告诉郭先生,自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,所以想要借用郭先生公司的账户走一下账。好友向郭先生要了银行卡号,声称已经把钱打到郭先生的账户上,还把银行转账底单的截图通过微信发给了郭先生。基于视频聊天信任的前提下,郭先生没有核实钱是否到账,于11时49分先后分两笔把430万元给对方打了过去。钱款转账后,郭先生给好友微信发了一条消息,称事情已经办妥。但让他没想到的是,好友回过来的消息竟然是一个问号。
  郭先生拨打好友电话,对方说没有这回事,他这才意识到竟然遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。
  “当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生事后说。
  接到郭先生报警后,警方联动银行迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移,目前正在全力追缴中。

2 换脸“明星”卖货 全套模型仅3.5万
  近日,有网友点开某直播间,却发现一当红女星正在直播带货。不过,这些当红女星并非本人,而是使用了AI实时换脸技术的普通主播,这也引发了网友广泛热议。
  直播间利用当红明星的“脸”卖货,既是因为如今AI换脸技术已经实现了形象实时替换,也是因为让“明星”代言可以使自己在竞争激烈的直播带货大军中凸显优势,增加流量,提高销量。
  据报道,AI实时换脸全套模型购买价仅需3.5万元,于是某些商家就乐得通过这种小投入,来获取大利益。

3 生成你“露脸说话”的视频仅需数十元
  目前,AI换脸随处可见,在短视频平台,不少用户都体验过换脸带来的新鲜感。这项技术也越来越成熟,仅需提供一张照片,就可以让你变成视频中人,或直接生成会眨眼、张嘴的视频。
  七七(化名)专门在网上接单用AI帮别人生成视频,“只需提供一张背景干净的正面照,我就能生成视频,不仅眼睛、嘴巴都会动,还能时不时动动头,非常自然。另外如果你提供文字,我还可以让视频中的人物口型对上,配合度很高,可以连续播放1分钟。”七七说,他目前做这个工作已经非常熟练,“一个晚上就能完工”。
  除了快速AI换脸,用AI手段合成或克隆声音也越来越常见。
  一位商家向记者介绍,只需要提供某人一段10分钟至30分钟的声音素材,要求没有杂音,就能用2天左右时间生成一个专属模型,后续输入任何文字,发出的都是这个人的声音。
  “这个办法属于一劳永逸,而且这个模型不仅能读文也能唱歌。一般来说,提供的素材时间越长,最终相似度越高。”上述商家介绍。
  据记者了解,目前制作一套“露脸且说话”的视频成本不高。七七表示,用照片生成一段1分钟时长的视频仅需30元左右,如果视频时间比较短,且画面质量要求不高,这个价格可以再降,几块钱一段都可以。上述商家也表示,生成一个专属模型也只需要几十元。
  这意味着,如果有人蓄意生成你的长相搭配你的声音的视频,花费也仅需数十元。

4 律师提醒:转账需多渠道交叉验证
  换脸、合成声音等AI诈骗形式为何如此容易得手?北京市盈科(佛山)律师事务所合伙人陈显敏律师分析,使用人工智能技术手段模仿真人面容、声音,冒充亲友、熟人、领导等,很容易达到以假乱真的程度,具有极强的迷惑性。与其他类型电信诈骗相比,AI诈骗迷惑性更强,针对性更强,辨识更困难。
  北京市京都律师事务所合伙人张小峰律师指出,AI技术可以综合运用语音、视频等手段使虚假信息更真实,更难被分辨,甚至需要用专业技术来辨认。此外,AI可以根据大数据和个人信息分析,生成高度定制化的诈骗信息,精准投放给筛选出的对象,别有用心地锁定诈骗对象实施诈骗。
  面对如此“狡猾”的诈骗形式,我们又该如何防范掉入他人精心设计的“陷阱”呢?山东圣义律师事务所律师宿昊表示,现今,AI技术的应用不仅解放了生产力,便利了我们的生活,也带来了大量的隐患,犯罪分子利用AI换脸和拟声技术实施诈骗,让普通民众更容易中招。要提高警惕,电话视频并不可信,遇对方要求求助借款、要求转账等行为,一定要多方位确定信息真实性、有条件可以要求面见,或询问共同熟人,避免让犯罪分子钻空子。
  张小峰律师建议,大众要对这种新型诈骗手段提高警惕,不要过度相信语音或视频等,选择可信的通信渠道,尽量使用官方网站或其他具有实名认证或安全验证功能的软件进行交流,防止对方身份冒用;最后,还应该下载如国家反诈App等防诈骗软件,辅助识别诈骗信息。综合海报新闻、台海网、中新经纬、央视新闻