logo

哈达波斯网|专注网站

最新公告

眼见为实?AI变声换脸诈骗来了!

最新公告  2024/4/24 9:09:05  管理员  

AI诈骗,你知道吗?

“一键换脸,和你爱的明星小哥哥合影”

“大叔秒变萝莉御姐网红音”

AI变声换脸应用玩法多样

你有没有尝试过

图片
需要注意的是
骗子也盯上了AI技术
利用它玩起了“真假美猴王”


AI诈骗常用手法


level1 合成声音

骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

图片


 案例 

2020年12月,某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。


level2 AI换脸

骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。

图片

案例

近日,小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。


如何防范?

HOME

面对利用AI人工智能等新型手段的诈骗,我们要牢记以下几点:

多重验证,确认身份

01

目前,AI换脸难以肉眼区分。因此,在涉及钱款时,尽量通过电话询问具体信息,确认对方是否为本人。

保护信息,避免诱惑

02

加强个人信息保护意识,对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。

相互提示,共同预防

03

做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。

图片


图片 | 网络截图
素材 | 上海网警
编辑 | 蔡虹


— END —

图片

扫码关注我们

公安部网安局


网站首页  | 最新公告  | 漏洞修补  | 网站模板  | 知识文档  | 与我联系
Copyright © 2015 jlasp.com All Rights Reserved.
哈达波斯网|专注网站 版权所有
地址:吉林省吉林市昌邑区 联系QQ:383612004 联系人:董先生
未经本站授权,禁止复制或建立镜像,内容仅用于学习参考!
ICP备案号:吉ICP备15000891号-1 | 

吉公网安备 22020202000301号