美国布鲁金斯学会近日发布题为《深度造假无法检测时的应对之策》的报告(下称《报告》)。《报告》阐述了深度造假的严重影响,指出了深度造假自动检测技术的潜在局限,并提出了若干应对策略。
1 深度造假的严重影响
深度造假通常指利用机器学习技术,尤其是“生成对抗性网络”技术制作的虚假内容。影响包括:
①虚假信息泛滥。相比纯粹文本形式的虚假信息,图片、音频及视频等形式的虚假信息更易传播;
②真实信息难获话语权。普通民众难以判定信息真伪,可能导致真实信息的公信力降低,传播范围缩小;
③行为体借助深度造假获利。若深度造假盛行,部分行为体可能声称对其不利的原始音视频材料系伪造,从中获利。若被恶意滥用,深度造假可能给社会带来其他严重危害,如颠覆合法政府公信力,甚至引发社会动荡等。
2 自动检测技术的潜在局限
深度造假的应对策略集中在开发深度造假的自动检测技术,即开发人工智能算法以识别特定图片、音频或视频是否已被篡改。但是,深度检测技术也存在局限:
①用于自动检测的人工智能算法,可能反而被用于改进深度造假以避免检测;
②“深度造假检测算法”可能会被利用于生成真实性较高的假信息,再以开源模式广泛传播;
③对于高质量的深度造假,通过压缩数据、避开复杂特征等手段进一步提升其不可检测性。鉴于自动检测技术的诸多局限,自动检测技术无法检测的“深度造假霸权”或在未来10年内出现。
3 深度造假的应对策略
①投资自动检测技术。如资助DARPA的“媒体取证”项目,支持谷歌、微软、亚马逊及脸书等商业公司开发新检测技术等,并资助记者等相关人员使用这些检测技术。
②投资新技术。通过DARPA或国家科学基金会等途径支持开发新技术,如反向视频搜索或基于区块链的验证系统等。
③支持社会科学。支持脸书、推特等公司,通过可靠平台向社会科学研究人员发布大型社交媒体数据集,以研究错误虚假信息传播的解决方案。
④强化立法。强化针对深度造假的立法,明确媒体平台、创作者等的责任,制定切实可行的处罚措施。
来源:美国布鲁金斯学会网站/图片来自互联网
军事科学院军事科学信息研究中心 佘晓琼
声明:本文来自国防科技要闻,版权归作者所有。文章内容仅代表作者独立观点,不代表士冗科技立场,转载目的在于传递更多信息。如有侵权,请联系 service@expshell.com。