随着人工智能的迅猛发展,诈骗团伙的诈骗手段也越来越科技化,不知不觉,他们竟然已经用上了AI换脸技术。近日,包头警方发布一起利用人工智能(AI)实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。


(相关资料图)

端详案情的细节,可以说是细思极恐。郭先生的“好友”是通过微信视频联系到他,两人经过短暂聊天后,郭先生才转账的。这也就是说,骗子不仅盗取了他的好友微信,还直接利用AI合成了好友的人脸和声音,如此以假乱真,让人防不胜防。

以往,针对朋友借钱或其他网络转账,我们常常提醒大众要打个电话或视频核实一下,确认后再转账。然而现在,这种“核实”心理反而被利用了,试问,连眼睛和耳朵都可以赤裸裸被欺骗,还有什么验证方式能够让我们放心地进行网络交易?这件事情之所以能冲上热搜,这便是最大的痛点,令人迷茫而恐惧。

而这些诈骗分子之所以能够进行AI换脸、合成声音,就在于他们掌握了一定的受骗人信息,比如受骗人的照片、视频、语音等。那么,他们是从哪里获取的这些个人信息?

可以想见的渠道主要有两个,一是,有可能来自受骗人自己对外公开的社交帐号,比如微博,只要不是博主主动设置自己发布的内容仅在一定范围内可见,那么理论上任何人都是可以搜索查看,甚至还可以看到博主和好友的互动。二是,受骗人的个人信息被有意泄露甚至售卖。

所以,AI诈骗看似一个新问题,其实又回到了个人信息保护上。正如有业内人士分析称,“我觉得科技的进步也让防范诈骗的难度在提升。发生的原因还在于信息爆炸导致的信息泄露过度。”一方面,这需要个人在日常网络行为中,注意不过分暴露个人信息;另一方面,也需要严格规范技术的开发和应用,完善相关授权机制。

去年12月,《互联网信息服务深度合成管理规定》正式发布,关于授权同意的原则提到,深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,“应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意”。换句话说,一些AI软件未经“主人”授权就随意生成人脸人声,是违法的。

诈骗分子之所以能够鸟枪换炮,就是因为之前他们可以购买的是姓名、住址、亲友关系等社会信息,而如今他们可以获取人脸、人声等生物信息了,并且可以利用技术软件进行合成。那么,是谁在充当这个技术中介?这是非常重要的一环,只要打断了这个中间环节,AI诈骗也就失去了技术前提。

图据湖北网警巡查执法

从目前爆出的案例来看,对于AI诈骗,基本都是事后追查打击,这其实是很被动的。接下来,治理AI诈骗的工作应该进一步前置,多在预防环节下功夫。而对个人信息的保护,就是最好的预防。

我们常说,科技是一把双刃剑。如果前些年,科技的伤害之刃还处于一种“划伤”阶段,那么如今在一些领域已经出现“刺痛”感了。而疼痛是保持清醒最好的方式。眼下,看着别人被骗几百万,所有人都应该警惕,这样的技术侵害是无差别的:任何人的脸与声皆可合成,即使不被用于诈骗,谁又能保证不被用于其他侵害呢?

(来源:光明日报微信公号 编辑:董盈)

推荐内容