你的脸安全吗?AI换脸诈骗频发,个人信息保护亟待加强

2024-06-24 19:38:31

在数字时代,我们的人脸、声音和指纹等生物特征信息正面临前所未有的安全挑战。一段看似普通的视频或语音,可能并非真人所为,而是不法分子利用深度合成技术所炮制的陷阱。自去年以来,多起“变脸”诈骗案在各地频发,暴露出技术滥用的严重性。

“新华视点”记者的调查揭示了一个令人不安的现实:随着深度合成技术的迅猛发展,一些犯罪分子开始利用这一技术进行诈骗,盗取个人敏感信息,甚至为黑灰产业链提供技术支撑。陈先生的案例就是一个典型,他被一个使用AI换脸技术的“好友”骗走了近五万元。警方在合肥的一次行动中,揭露了一个利用人工智能伪造人脸动态视频的犯罪团伙。

这些伪造视频的制作成本低廉,却能以假乱真,甚至通过人工审核。犯罪嫌疑人通过简单的教程和软件,就能自学成才,制作出逼真的动态人脸视频。他们利用非法获取的公民人脸数据,将照片和身份证照片分类存放,形成了一个庞大的“料”市场。

专家指出,公众对动态信息的信任度仍然较高,但深度合成技术的发展已经让“眼见为实”变得不再可靠。尽管检测技术在不断进步,但伪造技术的更新速度更快,使得检测难度越来越大。法律的滞后也为犯罪分子留下了可乘之机。

为了保护个人信息安全,公众需要提高警惕,不要轻易提供生物信息给他人,同时在进行网络转账前,应通过多种方式核实对方身份。一旦发现可疑情况,应立即报警。同时,国家层面也在加强科技伦理治理,强调技术合法使用的边界和安全评估程序,以提高技术滥用的违法成本。

技术规制和风险治理的体系化、完善化是防范“变脸”诈骗的关键。通过技术创新和对抗,提升检测技术的能力,同时构建数据集质量规范,对相关技术进行风险分级分类管理,明确各方责任,共同维护网络空间的安全。