CSI的为“将Deepfake威胁情境化到组织”,旨在帮助组织识别,防御和应对deepfake威胁。它建议组织实施实时验证功能、被动检测技术以及针对高级人员及其通信的保护措施等技术,以检测和缓解深度伪造。
深度伪造是指使用人工智能 (AI) 和机器学习技术合成创建或操纵的多媒体内容。包括各种形式的人工生成或操纵的媒体,包括浅/廉价的伪造,生成AI和计算机生成的图像(CGI)。网络行为者现在可以使用这些技术的便利性和规模对国家安全构成了独特的挑战。
与许多技术一样,深度伪造既可用于积极目的,也可用于恶意目的。虽然有迹象表明,有恶意行为者大量使用这种合成技术,但能力较差的恶意网络行为者可获得的合成媒体技术的可用性和效率不断提高,表明这些类型的技术可能会增加频率和复杂性。
深度伪造可能带来的不良后果诸多,比如一旦有人通过冒充领导者和财务人员或使用欺诈性通信来访问网络和敏感信息,就可用来破坏组织的品牌和财务。此外,深度伪造还有可能通过传播有关政治、社会、军事或经济问题的虚假信息来引起公众骚乱。
如今,像GitHub这样的开源存储库已经提供了现成的基于深度学习的算法,使这些技术的应用可供技术技能和设备最少的个人使用。
深度伪造和生成式人工智能的新兴趋势
报告中提到,与深度伪造的创造相关的技术发展动态趋势将继续降低将该技术用于恶意目的的成本和技术壁垒。到2030年,生成式人工智能市场预计将超过 1000 亿美元,以每年超过 35%的平均速度增长。尽管恶意行为者可用的能力将大幅增加,但寻求识别和减轻深度伪造的防御者可用的技术和技巧也将大幅提高。
为了应对这些不断变化的威胁,国家安全局、联邦调查局和中央情报局敦促安全专业人员实施CSI中提到了几点建议:
选择并实施检测深度伪造和展示媒体来源的技术:包括实时验证能力和程序、反向图像搜索、视觉/音频检查、元数据检查等;
保护高优先级个人的公共数据:为了保护个人信息不被用于或重新用于虚假信息,人们应该开始考虑使用主动认证技术,如水印或CAI标准。
组织应优先考虑信息共享,计划和演练对剥削企图的响应,并提供人员培训以最大程度地减少深度伪造的影响。
参考来源:https://ts2.space/en/the-national-security-agency-nsa-issues-guidance-on-deepfake-threats/