在技术进步和社会变革的快速步伐中,“人工智能”一词已经牢牢地站在了全球话题的前沿。随着大型语言模型(LLM)的日益普及,安全和隐私问题的激增将AI与网络安全世界直接联系起来。卡巴斯基研究人员展示了人工智能工具如何在 2023 年帮助网络罪犯进行恶意活动,同时也展示了这项技术的潜在防御应用。卡巴斯基公司的专家还揭示了未来人工智能相关威胁的演变情况,其中可能包括:
更复杂的漏洞
随着遵循指令的LLM被集成到更多面向消费者的产品中,新的复杂漏洞将出现在概率生成人工智能和传统确定性技术的交叉点上,从而扩大网络安全专业人员需要保护的攻击面。这将要求开发人员研究新的安全措施,例如用户批准 LLM 代理发起的操作。
网络安全专家的综合人工智能助手
红队人员和研究人员利用生成式人工智能开发创新网络安全工具,有可能开发出使用 LLM 或机器学习 (ML) 的助手。这种工具可以自动执行红队任务,根据渗透测试环境中执行的命令提供指导。
神经网络将越来越多地用于为诈骗生成视觉效果
未来一年,欺诈者们可能会利用神经网络来扩大他们的策略,利用人工智能工具创建更有说服力的欺诈内容。由于恶意行为者能够毫不费力地生成令人信服的图像和视频,因此与欺诈和诈骗有关的网络威胁升级的风险也随之增加。
人工智能不会成为 2024 年威胁格局发生突破性变化的驱动力
尽管有上述趋势,但卡巴斯基专家仍对人工智能能否在短期内显著改变威胁格局持怀疑态度。虽然罪犯确实会采用生成式人工智能,但网络防御者也是如此,他们会使用相同甚至更先进的工具来测试增强软件和网络的安全性,因此人工智能不太可能大幅改变攻击格局。
更多与人工智能相关的监管举措,以及私营部门的贡献
随着技术的快速发展,这已成为政策制定和监管的问题。与人工智能相关的监管举措数量将会增加。非国家行为者,如科技公司,由于其在开发和利用人工智能方面的专业知识,可以为全球和国家平台上有关人工智能监管的讨论提供宝贵的见解。
为人工智能生成的内容添加水印
将需要更多的法规以及服务提供商政策来标记或识别合成内容,后者将继续投资检测技术。开发人员和研究人员将为合成媒体加水印的方法做出贡献,以便于识别和确定来源。
“人工智能在网络安全领域是一把双刃剑。它的自适应能力可以强化我们的防御,为应对不断变化的威胁提供主动防护。然而,同样的动态也带来了风险,因为攻击者利用人工智能来策划更复杂的攻击。取得正确的平衡,确保负责任的使用而不过度共享敏感数据,对于保护我们的数字边界至关重要,”卡巴斯基安全专家VladislavTushkanov评论说。
想要了解更多有关人工智能在网络安全领域的应用详情,请访问Securelist.com.
这些研究成果是卡巴斯基安全公告(KSB)的一部分,卡巴斯基安全公告是针对网络安全领域关键变化的年度预测和分析报告系列。要查看更多KSB文章,请点击这个链接。