警惕!视频通话“AI换脸”新型诈骗!相似度可达80%
最近,视频网站上通过人工智能换脸,国产影视剧里的主角用英语说起了台词,通过小程序用户也可以将自己变成电影里的人物,新技术带来欢乐的同时,也带来了一种名为“AI换脸诈骗”的新骗术。前不久,国家金融监督管理总局北京监管局发布谨防“AI换脸”等新型欺诈手段的风险提示。
青岛的一名大学生和他在网上认识的“女朋友”视频聊天,对方称需要资金周转,男孩打钱过去之后,发现竟然被诈骗了。
广东深圳某科技公司产品部经理 梁雅婷:通过取证发现,跟他聊天的并不是他的女朋友,对方是通过虚拟的摄像头,用AI换脸的功能跟他聊天。
AI如何做到在视频通话时换脸呢?记者在一家为公安机关提供技术支持的科技公司看到的演示,相似度可以达到80%。
记者在现场看到,一个高配置的电脑,合成一段10秒的换脸视频只需要一两分钟。而技术的发展,上述案件中视频聊天的实时变脸也不是难事了。
广东深圳某科技公司产品部经理 刘远洋:照片上传后,大概有30秒的时间对照片进行特征识别,然后建模,建模后就可以进行实时转换。不管是你的头像,还是你在朋友圈的一张小照片,都可以直接上传。
AI生成的技术还在不断更新迭代,比如性别的互换、声音的变换,都可以同步进行。由于算法是开源的,也就是说一个普通的工程师就可以制作出一个变脸软件,这就在控制源头上带来了极大的困难。
通过让对方做动作 可发现部分“AI换脸”破绽
不断迭代的AI技术,已经把换脸视频做到“真假难辨”,我们应该如何防范此类新型诈骗呢?戳视频了解↓↓↓
ata-alt="" poster="https://v6.huanqiucdn.cn/4394989evodtranscq1500012236/4140d8c33270835011859733814/sampleSnapshot/sampleSnapshot_10_2.jpg?w=1260">
△央视财经《第一时间》栏目视频
热门相关:高甜预警:我家影后超猛的 高人竟在我身边 帝国远征 善良的嫂子4 我在末世有套房