您的位置:首页 >热点 > 正文

“AI换脸”诈骗来了!提醒:涉资金转账先多种方式确认

来源:华声在线2023-05-24 08:32:04

“AI换脸”诈骗来了!小心“好友”不友好

和你视频对话的,可能不是本人!有人10分钟被骗430万 提醒:涉资金转账先多种方式确认


(相关资料图)

新华社 图

10分钟被骗430万!5月22日,一起利用人工智能(AI)实施电信诈骗的典型案例冲上热搜,引发全网关注。

“和你视频对话的,可能不是本人!”5月23日,三湘都市报记者从长沙市反诈中心获悉,长沙暂未接到“AI换脸”类型诈骗。警方提醒,针对花样翻新的智能AI诈骗,公众要提高防范意识。

■全媒体记者 杨洁规

【体验】

一条30秒“AI换脸”视频,最低仅需5元

去年9月,长沙市反电诈中心曾发布过一份警方紧急预警,提醒大家谨慎使用“AI换脸”软件,以防造成个人信息泄露并被利用于电信网络诈骗。

技术改变生活,也改变了骗术。骗子很快就把新技术应用到了诈骗当中。骗子可以通过录音提取声音,利用AI“变声”技术对录音素材进行剪辑合成,用伪造的声音实施诈骗;通过收集发布的照片、视频,利用AI技术“换脸”,用伪造的照片或视频实施诈骗;通过AI技术收集个人信息并对人物性格、需求倾向等进行刻画,根据所要实施诈骗的方式对人群进行筛选,选出目标人群。

5月23日,三湘都市报记者以使用者的身份咨询了一家提供“换脸软件”网站。

该网站客服表示,如要实现实时换脸,则需要从零开始训练“数字人”,如果24小时挂机不停地训练模型,需要经过半个月到一个月的时间,才能达到可以合成视频的效果,费用在20万元一年。

比起定制“数字人”,更多人选择购买现成的模型。该网站客服称:“只是五官的替换,可以替换任意素材使用,不分张三李四。至于费用,处理量越大,费用越低,一条30秒以内的视频最低仅需5元。”

【提醒】

涉及资金转账时要通过多种方式确认

长沙市反电诈中心提醒,涉及资金转账时,市民要提高安全意识,通过多种方式确认对方是否为本人,也可将转账到账时间设定为 “24小时到账”,以预留处理时间。

针对支付软件以及网银软件,要使用多种登录及转账验证方式。针对花样翻新的智能AI诈骗,公众要提高防范意识,应谨慎使用各类AI“换脸”、AI“变声”软件,加强个人信息保护意识,避免注册不需要的账号、填写不必要的个人信息,以防个人信息泄露。面对不断更新的网络技术和诈骗方式,市民要坚持不轻信、不透露、不点击、不转账。

记者了解到,随着技术迭代不断加速,与之对应的,对人工智能技术的法律规制和政策引导也在不断完善。今年1月,国家互联网信息办公室、工业和信息化部、公安部联合发布的《互联网信息服务深度合成管理规定》正式实施,要求深度合成服务提供者落实信息安全主体责任。

4月11日,国家网信办发布了《生成式人工智能服务管理办法(征求意见稿)》,共21条,对生成式人工智能产业给出较为详尽的规定,其中包括定义、准入资格、责任义务和处罚措施等。

(一审:谢振华 二审:邓望军 三审:石伟)
关键词:

最近更新