据“安庆公安”官方微博5月25日消息,日前,安庆经开区发生一起“冒充熟人”诈骗案,诈骗分子使用了一段9秒钟的智能AI换脸视频,佯装“熟人”实施诈骗,金额高达132万元。
近期,“AI换脸”的应用范围越来越广,但存在滥用之嫌,甚至有人利用AI换脸实施犯罪,例如伪造不雅视频、换脸诈骗等。
【资料图】
中国互联网协会日前指出,伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,面对利用AI技术的新型骗局,广大公众需提高警惕,加强防范。
9秒被骗132万元!
据警方通报,日前,安庆经开区发生一起“冒充熟人”诈骗案。反诈中心民警调查发现,诈骗分子使用了一段9秒钟的智能AI换脸视频,佯装“熟人”让受害人放松警惕从而实施诈骗。
4月28日,专案民警连夜赶赴北京市抓获3名涉诈嫌疑人。5月22日,警方将先行追回的132万元被骗款及时返还给群众,目前案件正在进一步侦办中。
据媒体报道,5月22日,安徽安庆的何先生接到熟人视频电话,让他帮忙转一笔账。但9秒之后,对方以“在开会”为由,迅速挂断了电话,还称“微信和电话不能说,加一下QQ”。
图片来源:微博
“因为打了视频电话,又是熟人,我就没多想,就转账了。”事发时,何先生放松了警惕。发现被骗之后,何先生迅速报警,专案民警第一时间冻结相关账户,连夜赶赴北京市抓获3名涉诈嫌疑人,追回何先生被骗的132万元。
此前,据“平安包头”微信公众号消息,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。今年4月,他的好友通过微信视频联系他,称自己的朋友在外地竞标,需要430万元保证金,想借用郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生在10分钟内,先后分两笔把430万元转到了对方的银行账户上。事后,郭先生拨打好友电话才得知被骗。
AI换脸还出现在直播带货中,此前,多个电商直播间被曝使用明星AI换脸直播,曾引发舆论关注。在一个展示换脸直播效果的视频中,使用者把名为“成龙”的模型载入相关软件后,摄像头前的人在直播画面中就有了与成龙相似的五官,但脸型和发型还保持原样。只有手掌从脸前划过时,动效才出现了比较明显的破绽。
一些使用换脸技术的直播并不会直接提到相关明星艺人的名字,但也不会主动声明或者否认。相关人士表示,该行为涉嫌欺诈或虚假宣传。有一款主打AI换脸的App由于如此换脸侵犯了公民的肖像权,在监管部门约谈后很快下架。
AI技术存在滥用风险
中国互联网协会5月24日消息指出,今年以来,ChatGPT和GPT-4等技术的应用,成为了信息科技领域的热点,引起公众对AI技术的广泛关注和热情。但伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频,进行诈骗、诽谤的违法行为屡见不鲜。
值得一提的是,这些骗局中,骗子不是漫无目的地全面撒网,而是通过AI技术筛选受骗人群,别有用心地锁定特定对象。
如此以假乱真,让人防不胜防。“AI换脸”的法律边界在哪?普通人又该如何防范?
为规范人工智能发展,去年12月,《互联网信息服务深度合成管理规定》正式发布,明确了合成数据和技术管理规范。其中提到:深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。
专家提示,“AI假脸”的纹理特征存在破绽,也有可能不符合正常人的生理特征,而且由于人嘴部的运动是最为频繁且快速的,因此AI软件无法真实准确地渲染连续动作,嘴部特征有可能辨别出真假。
中国互联网协会提醒,要做好个人信息安全第一责任人,加强个人信息保护意识,防止信息泄露;远程转账务必需要多重验证,把好“钱袋子”。在AI时代,文字、声音、图像和视频都有可能是深度合成的。在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款。如发生资金损失请及时报警。
Copyright © 2015-2022 北冰洋家电网版权所有 备案号:沪ICP备2020036824号-3 联系邮箱:562 66 29@qq.com