一位老人接到电话,对方自称是其战友,说自己因生病想借钱。老人熟悉这位战友的声音,先后
汇款2000元,8000元到对方银行账户。没想到,钱刚刚到对方账户,这位“战友”就消失了,老人这才发现自己被骗了……随着“AI合成技术”日益发展,一些不法分子也开始利用其合成音视频实施诈骗。
最近几年,基于人工智能合成技术进行的网络诈骗屡有发生,有如前文所述的“声音合成”诈骗,更有换脸加声音合成的“高级骗术”,往往教人防不胜防。
曾经我们认为“耳听为虚,眼见为实”。“有图有真相”也一度成为一个现象级的热梗在互联网领域流传,但“P图”技术的进步和相关软件的广泛应用为图片与真相之间划上了一个“不等号”。或许有人会说,这也无妨,视频和声音是难以造假的。然而此后,人工智能时代下的“声音合成”,“AI换脸技术”的出现又让屏幕那头“亲人朋友”的真实身份变得难以捉摸。这下,不光“眼见不一定为实”,连“耳闻也可能为虚”了。
浏览诸多“AI诈骗”事例,我们不难发现,行骗者往往会选择数字基础较为薄弱的人群实施诈骗活动。就以老人群体来说,他们对于电子产品的使用不太熟练,且由于年龄的增加,自身的判断力下降,在遇到信息核实和身份查验时就有可能出现疏漏。故而,他们很容易成为一些诈骗分子的目标。并且,“AI诈骗”大多是“突然袭击”,受骗人猝然接到亲人朋友遭遇事故,面临困境的消息,情绪紧张之下自然无暇思考分辨,不会第一时间向家人朋友打电话证明真伪,往往在汇款之后才发觉上当。
细究“AI骗术”的运行逻辑,行骗者都是在掌握了一些公民的个人信息和社会关系之后才得以“发挥”,针对他人的弱点漏洞行骗。有关部门要加强宣传,提醒公民在日常生活中要注意保护个人信息和个人隐私,面对容貌、声音、亲属关系等信息的征集时要提高警惕,防止其泄露。同时,公安机关要严厉打击人工智能诈骗,通过“出重拳”来对诈骗分子形成有力震慑。铲除了“AI诈骗”的滋生土壤,社会环境才能够更加清朗。 (据东方网)