长相声音都对,AI合成的“朋友”骗了他430万!AI作恶,如何“破”?
公众刚开始享受人工智能的好处,已经有人成了人工智能诈骗的受害者。近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,再次表明AI换脸存在巨大隐患,亟待纳入监管。
确认过长相声音仍被骗93万余元已被骗子转移
【资料图】
据介绍,4月20日11时40分左右,福州市某科技公司法人代表郭先生的好友突然通过微信视频联系到他。短暂聊天后,好友告诉郭先生,自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,想借用郭先生公司的账户走一下账。
好友向郭先生要了银行卡号,声称已经把钱打到账户上,还把银行转账底单的截图发给郭先生。基于视频聊天的信任,郭先生没有核实钱是否到账,分两笔把430万元给对方打了过去。可当郭先生主动给好友微信发消息,称事情已经办妥时,好友竟然不知情。他这才意识到遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。
“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时给我打了视频,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生说。
值得注意的是,骗子并没使用一个仿真的好友微信添加郭先生为好友,而是直接用好友微信发起视频聊天,这也是郭先生被骗的原因之一。骗子极有可能通过技术手段盗用了郭先生好友的微信。
警方接报后,在银行的全力协助下,仅10分钟就将该诈骗账户内的336.84万元被骗资金拦截,但仍有93.16万元资金被转移,目前福建警方与包头警方正在全力追缴中。
骗子手段防不胜防
“AI诈骗”成功率竟近100%
在这起骗局中,骗子防不胜防的程度,超出正常认知的仿真度,令人不寒而栗。
图据湖北网警巡查执法
连视频聊天都已不可信,连科技公司从业者都被科技拿捏,傍上人工智能的诈骗简直太可怕了。
据警方介绍,AI诈骗还有不少花样,通过声音合成、AI换脸、转发语音等手段,成功率竟接近100%。人工智能让犯罪有了技术优势,也给普通人带来更多风险,不仅是物质上可能存在损失、精神上受到伤害,还可能加剧人与人之间的信任危机。
面对不断增加的人工智能诈骗风险,该怎么“破”?人工智能作为一种技术手段,由人所创造,为人所使用,也就需要有人来约束。撕掉AI画皮,还得靠人的“慧眼”。
新兴技术出现伊始,总有人利用普通人对新技术的不熟悉,作出不当甚至违法的行为。随着技术越来越普及,普通人对其熟悉度越来越高,监管越来越到位,诈骗手段自然就开始广为人知。目前人工智能的应用正处于从新兴到普及的过程,监管力量自然应该适时介入。
遏制人工智能违法应用还须多方发力多管齐下
要遏制“AI换脸”等人工智能领域的深度合成技术应用乱象,还得多方主体共同发力多管齐下。
4月11日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,对生成式人工智能产业给出较为详尽的规定,对用户安全保护已经迈出第一步。此外,监管部门要看到这一问题的严峻性,担负起监管责任,挖出相关产业链,给犯罪分子以震慑。平台和个人也应避免信息泄露,不给骗子留下把柄。
技术是一把双刃剑,拥抱新技术带来的发展与变革,也必须规避可能存在的风险和危险。既然有人在用它图谋不轨,就必须为这把剑装上剑鞘,这是为了保护剑,也是为了保护人。
关键词:
Copyright (C) 1999-20120 关于我们 www.ahcar.com, All Rights Reserved
版权所有 环球快报网 | 京ICP备2022018928号-24联系我们:315 541 185@qq.com