而黑客常常利用人工智能和机器学习方面来对付企业。例如轻松访问云环境,使得开始使用AI并构建强大、有能力的学习模型变得简单。
让我们看看黑客如何使用人工智能和机器学习来瞄准企业,以及防止以人工智能为重点的网络攻击的方法。
黑客使用AI对抗安全团队的3种方式
1.在基于人工智能的工具测试恶意软件是否成功
黑客能以多种方式使用ML。第一种方法是通过构建他们自己的机器学习环境,并对自己的恶意软件和攻击实践进行建模,以确定安全团队寻找的事件和行为的类型。
例如,一个复杂的恶意软件可能会修改本地系统库和组件,在内存中运行进程,并与黑客控制基础设施拥有的一个或多个域通信。所有这些活动结合在一起创建了一个称为战术、技术和程序(TTP)的配置文件。机器学习模型可以观察TTP,并使用它们来构建检测能力。
通过观察和预测安全团队如何检测TTP,黑客可以巧妙而频繁地修改指标和行为,领先于依赖基于人工智能的工具检测攻击的安全团队。
2.用不准确的数据破坏AI模型
黑客还利用机器学习和人工智能,用不准确的数据破坏人工智能模型,从而破坏环境。机器学习和人工智能模型依靠正确标记的数据样本,来构建准确和可重复的检测配置文件。通过引入看起来类似于恶意软件的良性文件或创建被证明是误报的行为模式,黑客可以诱骗AI模型,使其相信攻击行为不是恶意的,还可以通过引入AI训练标记为安全的恶意文件来毒化AI模型。
3.绘制现有AI模型
黑客积极寻求绘制网络安全供应商和运营团队使用的现有和正在开发的AI模型。通过了解人工智能模型的功能及其作用,黑客可以在其周期内积极干扰机器学习操作和模型。这可以使黑客通过欺骗系统来影响模型,使系统有利于黑客。它还可以让黑客通过巧妙地修改数据来避开基于已识别模式的检测,从而完全避开已知模型。
如何防御以人工智能为中心的攻击
防御以人工智能为重点的攻击是极其困难的。安全团队必须确保与学习模型和模式开发中使用的数据相关联的标签是准确的。通过确保数据具有准确的标签标识符,用于训练模型的数据集可能会变得更小,这对人工智能的效率没有帮助。
对于那些构建AI安全检测模型的人来说,在建模时引入对抗技术和策略可以帮助将模式识别与野外看到的策略结合起来。约翰霍普金斯大学的研究人员开发了木马软件框架,以帮助生成木马和其他恶意软件模式的人工智能模型。麻省理工学院(MIT)的研究人员发布了一款用于自然语言模式的工具TextFooler,该工具可能有助于构建更具弹性的人工智能模型,以检测银行欺诈等问题。
随着人工智能的重要性日益增长,黑客将寻求通过自己的研究来超越安全团队的努力。对于安全团队来说,及时了解黑客的攻击策略以防御他们是至关重要的。