近日,福建省福州市某科技公司法人代表郭先生10分钟内被诈骗分子利用AI换脸诈骗430万元。主要原因是郭先生基于已有和对方伪装的“好友”视频聊天的信任,且对方表示只想公对公账户过账,并已将银行转账截图发了过来,郭先生就直接转账了。随后,郭先生拨通好友电话告知转账成功,结果对方说没有这回事,他这才意识到遇上了骗局。
不寒而栗,是很多人看到这则案例的第一感受。这意味着,关乎借钱、转账等金钱交易安全的网络视频和语音的面孔、声音确认,几乎已不能支撑身份核验,现代社会的信任体系在逐步被技术所侵蚀。
这个案件中,有很多细节让人细思极恐。第一 ,诈骗分子盗取郭先生好友的微信,并与郭先生视频提出高额资金转账,这首先需要明确郭先生的确有此经济实力。盗取一个人的微信,并知道他微信好友的资产,这些隐私信息都是如何泄露的?第二 ,诈骗分子盗取郭先生好友的微信,并通过AI换脸与郭先生视频。视频结束,郭先生转账结束后,再发微信给好友时,微信的掌控者已切换回郭先生好友了。微信“了无痕迹”地失窃又“悄无声息”地返还,这种新的微信盗取方式是如何实现的,值得公安机关重点关注。第三 ,该案中当事人报警后,福建福州、内蒙古包头两地警银成功止付拦截了336.84万元,但仍有93.16万元被转移。视频对话尚可作假,如果连郭先生好友的电话也被犯罪分子利用技术所控制,例如通过骚扰电话录音等来提取某人声音,获取素材后伪造声音,那将真是做戏做全套的诈骗,恐怕这次资金的拦截将更无时间和可能性了。
那么,未来面对重要事务,但远距离的人们打电话、打视频都无法证明对方确实是其本人时,该如何防止和避免AI换脸诈骗?综合近期出现的案例和有关专业人士的介绍,笔者帮大家总结了几个防范AI换脸技术的识别方式:一是要求对方用一根手指在面前来回晃动。因为目前犯罪分子利用AI算法换脸时多使用正面照,而不少算法程序还不能处理好突然在面前出现的物体,当有手指等在面前晃动时,AI假脸可能会出现不自然的跳动或变形。二是打视频时看对方的眼睛。目前,部分AI假脸是利用睁眼照片,通过人体图像合成技术生成的,有些假脸眨眼的频次明显少于正常人,而有些甚至不会眨眼。三是向其询问只有你们双方知道的事情。涉及借钱等要紧事,可拿出平常的生活细节、小秘密等只有两个人或少数人知道的事来确定对方的身份。用“友谊和爱”打败“魔法”,这是现实生活给技术负面影响最沉重的一击。
除了我们个人的努力外,国家有关部门和AI技术服务平台也应不断提升监管技术水平。尽管去年12月《互联网信息服务深度合成管理规定》已出台,近期也有平台和企业发布了“关于人工智能生成内容的平台规范暨行业倡议”,但接下来AI技术服务平台及时监测并制止利用AI发布侵权内容、创作诈骗内容等情况,仍任重道远。各级网信部门和公安部门要依据各自职责,提升监督管理工作和技术水平。各级执法司法部门在破获案件后,应及时总结新型犯罪途径和防范方式,以发布典型案例等形式,方便社会大众广泛了解社会动态,掌握相应的知识,提高防范意识和自我保护水平。
被AI换脸诈骗侵蚀的信任,还得靠多方努力来找回。毕竟,单靠个人提高鉴别诈骗的能力,是永远赶不上技术发展速度的。