从ChatGPT火爆全网,到“AI换脸”新骗局全国频发,人工智能作为战略性新兴技术受到了市场广泛关注。如今,在“AI换脸”诈骗多发的背景下,如何破局AI技术滥用、如何应对AI技术安全风险无疑也引发业界深思。5月24日,瑞莱智慧RealAI合伙人、高级副总裁朱萌接受了北京商报记者专访,从目前的“AI换脸”骗局如何防范、鉴别,到其背后的深度合成技术,再到推动建立安全可控的AI治理体系,朱萌一一详谈了她的看法。
信息造假难度降低
“张嘴、摇头,摄像头捕捉到人的动作后,屏幕上原本静态的人像可以动起来,动作幅度和真人一致,还能眨眼和露齿微笑,仿真度颇高,几分钟内就能生成一段视频,脸还能被任意替换。”这就是“AI换脸”技术,成为不少黑产分子新型诈骗的工具。
近期,一家公司老板被“AI换脸”10分钟骗走430万元引发市场热议,“AI换脸”骗局不断。其中,包头市公安局电信网络犯罪侦查局近日也发布一起使用智能AI技术进行电信网络诈骗案件,不法分子利用“AI换声”“AI换脸”技术,伪装成特定人物,实时与他人进行视频通话。更换后的面部表情自然,以假乱真,能够冒充他人身份联系被害人,博取被害人信任后实施诈骗。
据了解,“AI换脸”背后采用的是深度合成技术,利用深度学习、虚拟现实等生成合成类算法,制作图像、音频、视频等信息,目前在社交、影视、广告、医疗等诸多领域不断深化应用,有较大的技术价值和商用潜力,不过也存在着一定的安全隐患,“双刃剑”效应明显。
朱萌在接受北京商报记者专访时表示,随着研究的深入,深度合成技术得到快速发展,早期的换脸视频,由于技术不成熟、不完善,尚存在“微表情不自然”“面部边缘有锯齿”等明显换脸痕迹,可作为参照辨别真假。但近年来在社交媒体上广泛传播的换脸视频,动作的逼真度、自然度,以及视频整体的清晰度、流畅度都得到大幅提升,足以达到以假乱真水平,传统基于生物特征的鉴别方式越来越难以发挥作用,真假难辨的背后更是危害性的不断增强。
朱萌进而指出,深度合成技术大大降低了信息造假的难度,只需要拿到一张照片,就能生成非常逼真的伪造视频,用于捏造虚假信息、伪造不雅视频、恶搞特定人物等。
5月24日,中国互联网协会也发文称,伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用虚假音视频,进行诈骗、诽谤的违法行为屡见不鲜。面对利用AI技术的新型骗局,广大公众需提高警惕,加强防范。
一道安全防火墙
针对“AI换脸”等技术被用于诈骗、诽谤等问题,朱萌对北京商报记者表示,RealAI已开发配套的治理工具,即深度伪造内容检测平台DeepReal,为防范大规模的视频造假提供技术支撑。
目前,学术界和产业界均已对深度合成鉴别检测技术的研发进行了大量投入。在国内,清华大学、中科大等高校均在深伪检测方面取得显著成果。瑞莱智慧RealAI、腾讯优图实验室等企业机构也已构建人脸合成检测平台并发布针对性的检测产品,支持对多种换脸方法进行检测。
据朱萌介绍,RealAI推出的深度伪造内容检测平台DeepReal,通过辨识伪造内容和真实内容的表征差异性、挖掘不同生成途径的深度伪造内容一致性特征,能够快速、精准地对图像、视频、音频内容进行真伪鉴别,有效打击财产诈骗、虚假宣传、证据造假等违法行为。
据了解,DeepReal平台基于千万级训练数据,能够实现毫秒级检测速率,每帧画面检测时间仅需30毫秒,同时在主流数据集检测准确率达99%以上,在实际产业中检测准确率也达到业界顶尖水平。
深度合成技术的加速应用已成为现实趋势,据朱萌介绍,RealAI未来还将进一步扩展深度合成溯源、深度合成鉴定等方面的能力,全面提升技术应对能力。
目前,瑞莱智慧的产品解决方案主要在政务、金融、能源、制造、互联网等场景落地,致力于以安全、可信、可靠、可扩展的第三代人工智能技术为合作伙伴提供人脸识别系统安全、自动驾驶系统安全、深度合成和伪造检测、隐私保护计算、AI攻防靶场等全套产品和解决方案。
北京商报记者了解到,除了瑞莱智慧RealAI之外,部分涉足人脸识别的上市AI公司也已研发了视频图像鉴真相关产品。
让AI安全可控
伴随着“AI换脸”骗局在全国范围内爆发,AI技术的安全问题也受到了广泛重视。今年以来,有关推动建立安全可控的AI治理体系也被不断提及。
行业调查上,德勤今年发布的《2023技术趋势》报告显示,有七成左右的受访企业主管表示将看好AI技术业务变革;47%的业务主管更关心AI透明度问题;而41%的技术专家担忧AI会引发道德风险。
朱萌对北京商报记者表示,包括人脸识别、深度合成在内的人工智能技术的普遍应用,可能引发诸多治理挑战。从整个大市场来看,AI治理应该从法规与倡议约束、研究计划与竞赛引导、技术手段发展的角度全面展开。其中技术手段发展方面,应对AIGC生成内容的不断演化,对治理技术也提出了越来越高的挑战。从数据制作、传播到事后检测追责的全链条看,需要技术侧不断优化合成检测、检测结果可解释、数字水印、合成溯源等方面的技术能力。国内外相关机构也均推出和优化相应的技术工具。
据了解,为推动人工智能伦理治理体系的建立,RealAI在2022年6月正式成立AI治理研究院,提出“安全可控、敏捷评测、开放共治”的治理理念,搭建了由“研究体系”“实践体系”和“监督体系”组成的治理框架,持续开展人工智能伦理规则、治理实践与监督体系的研究,着力于伦理规则与立法贡献、治理技术落地与探索伦理安全规范。
此外,据朱萌介绍,推动建立负责任的AI技术治理体系,RealAI主要从“算法可靠、数据安全、应用可控”三个方面着手,提升算法模型的可靠性,解决模型训练与使用过程中的隐私保护与技术滥用问题等,还搭建了安全可靠可控的新一代人工智能基础设施,且目前已在政务、金融、工业互联网等高价值场景中发挥了重大作用,成为AI纵深赋能的坚实基座。
5月24日,北京商报记者就“AI换脸”诈骗、应对AI技术安全风险等相关问题与瑞莱智慧RealAI合伙人、高级副总裁朱萌进行了深度对话,以下附部分对话实录:
Q:面对利用AI技术的新型骗局,广大公众可以如何防范?
A:AI换脸、AI换声诈骗就是一个典型的AI安全风险,而且深度伪造技术一直在不断自我优化、升级换代,生成的声音越来越自然流畅,视频也越来越逼真,普通人的耳朵和肉眼已经很难辨别真伪了。如果遇到这类疑似AI换脸诈骗的情况,可以在视频时有意识地引导对方做一些特殊动作,如大幅度的摇头或张嘴。如果骗子技术手段较弱,那么我们有可能发现对方面部边缘或者牙齿的瑕疵,从而识别出AI换脸。如果疑似是声音伪造,可以试一下与对方用方言交流。另外,在防止自己上当受骗的同时,还要注意保护好个人图像,尽量避免在公开平台大量晒自己的照片和视频,给不法分子提供便利。深伪制作的原材料是个人音频、图片、视频,这些数据越多,训练出的视频也就越逼真、越难以鉴别。
Q:去年底ChatGPT横空出世,有关AI与人类未来的讨论愈演愈烈,也加深了人们对AI是否已经失控的担忧。如何看待市场上的这种担忧?
A:产生这种担忧是很正常的,不过大家如果去真实地使用它,就能发现它还是存在不少问题,会犯很多常识性的错误,尽管行文非常流畅,甚至逻辑和前后转换关系看起来很严谨,但内容却是错的。实际上,它离大家理想中的人工智能还存在差距,也不具备人类“举一反三”和创造的能力。反观历史,每当有新技术出现时,大家在初期都会有一定恐慌和忧虑,但后来这些技术不仅帮助我们提高了生产力和生产效率,还衍生出一些新的工作机会。这给我们的启示是要去学会利用ChatGPT这样的新兴工具,更好服务于生产和生活,恐慌是大可不必的。
Q:如何看待人工智能企业研发人员的重要性?目前瑞莱智慧研发团队人员情况是怎样的?
A:人才不仅是推动人工智能技术发展和创新的关键力量,也是人工智能企业成功的关键因素之一。目前瑞莱智慧公司研发团队占比超60%,硕士及博士占比超45%。在核心研发团队中,来自清华大学、北京大学的成员超过1/3。
北京商报记者 马换换