10月14日,美国会研究服务处发布《深度造假与国家安全》报告,介绍了“深度造假”的制作与应用、识别与检测等情况,分析了政策制定应考虑的因素,并提出国会面临的与“深度造假”有关的若干潜在问题。
“深度造假”技术及应用
①制作。“深度造假”通常指利用机器学习(ML)技术,尤其是“生成对抗性网络”(GAN)技术制作的虚假内容。在GAN程序中,神经网络创建、识别出虚假数据,虚假数据经历不断迭代,形成更加真实的数据。
②识别与检测。DARPA已启动“媒体取证”和“语义取证”项目,检测并识别“深度造假”技术制作的各型产品,提高美军在信息作战中的防御能力。“媒体取证”项目寻求开发自动分析照片和视频完整性的算法,并向分析人员提供虚假内容如何生成的信息。该项目已识别出“深度造假”中视频音频不一致的技术。“语义取证”项目试图开发自动检测、定性和表征各种类型“深度造假”内容的算法,将对语义上的不一致进行分类,并将可疑的“深度造假”进行排序,以供人工检查。
③应用。“深度造假”技术可用于娱乐等合法用途,但也有可能被恶意使用。敌方国家或出于政治动机的个人可能会发布包含公众人物的煽动性言论或不当行为内容的虚假视频,以破坏公众信任,对舆论造成消极影响,甚至干扰政治选举;还有可能被用于胁迫或敲诈掌握机密信息的官员或其他人员。
政策考量
基于算法的检测工具可能会导致“深度造假”技术通过快速升级,修复检测工具发现的缺陷。因此除部署“深度造假”检测工具外,社交媒体平台需提供一种标记和认证内容的手段,包括要求用户确定内容来源的时间和位置,或要求其对编辑过的内容进行标记。对“深度造假”技术的监管可能给社交媒体平台带来不必要的负担,或导致违反言论自由。除使用技术手段应对“深度造假”威胁外,还应对公众进行“深度造假”方面的教育,并加大对恶意造假者的惩罚。
美国会面临的潜在问题
①美国防部、国务院和情报部门是否已掌握有关国家“深度造假”技术的足够信息,及其可能被用来危害美国家安全的具体方式。
②DARPA开发的“深度造假”自动检测工具是否存在局限,能否确保恶意“深度造假”不会危害美国家安全。
③联邦政府的投资和协调工作是否能够满足相关研发需要。
④国家安全对“深度造假”的考量,应如何与保护言论自由等相平衡。
⑤是否应要求社交媒体平台对内容进行认证或标记,并要求用户提交内容来源,对社交媒体平台以及用户安全、保障和隐私产生的影响。
⑥社交媒体平台和用户应该在什么程度上、以何种方式对虚假内容的传播和影响负责。
⑦政府如何向大众普及“深度造假”方面的知识。
来源 :美国会研究服务处网站/图片来自互联网
军事科学院军事科学信息研究中心 方勇 陈培
声明:本文来自国防科技要闻,版权归作者所有。文章内容仅代表作者独立观点,不代表士冗科技立场,转载目的在于传递更多信息。如有侵权,请联系 service@expshell.com。