没有人能给出这个答案,因为对于这个问题,答案是复杂的、极具变化的,且让人捉摸不透的。可以利用人工智能更轻易地保护计算机的某些部分免受攻击。但是其他部分就没那么容易了,甚至是永远无法使用智能,无论是人脑还是人工智能。虽然知道这很困难,但是仍有迹可循。因为AI模型快速发展,人工智能在哪里能用的上,都是未知数。最危险的言辞莫过于:“人工智能永远不会有危险。”
定义人工智能和机器学习
“人工智能”和“机器学习”术语经常互换使用,但它们并不相同。人工智能是指可以模仿人类行为或超越人类行为的技术。机器学习是 人工智能的一个子集,它使用算法来识别数据中的模式,以便在没有人为干预的情况下获得预判。机器学习的目标是帮助人类或计算机做出更好的决策。实际上,今天在商业产品中被称为人工智能的大部分都是机器学习。
人工智能具有优势,可以立即对防护和入侵生效。他们可以在大量数据中搜索模式,并经常可以找到将新事件与旧事件相关联的方法,以此来应对未知。
许多机器学习技术具有很强的统计性,针对计算机系统和加密算法的许多攻击也具有这种特性。新机器学习工具包广泛传播,攻击者和防御者轻而易举就可以利用这些算法。攻击者使用它们来搜索漏洞,防御者使用它们来观察攻击者的迹象。
事实上,人工智能有时候也达不到人们的预期,会变成“人工智障”。它只能表达其训练数据集中的内容,并且可以像计算机疯狂输出那样,用文字表达出来。因为人工智能的使用具有随机性,因此有些人也将它称之为“温度”,像气候变化一样不可预测。
人工智能的网络安全用例
近期大家对ChatGPT一定十分熟悉,有人认为它正在“掀起新一轮AI革命”。那么问题来了,ChatGPT是否会沦为黑客的攻击工具?
答案是肯定的。有网络安全研究实验室发现已有攻击者在使用 ChatGPT 进行精准投递钓鱼软件,开展网络诈骗且已有黑客利用其代码编写功能以及信息编写功能开发出了恶意软件。
ChatGPT可以自动生成攻击工具。毫无基础的新手可以通过ChatGPT自动生成攻击工具,这样导致的直接后果是攻击数量大幅上升。其次,ChatGPT可以快速更新攻击工具。ChatGPT的迭代和更新速度非常快,同样会让攻击者的能力和攻击方式加快进化,发现漏洞的时间变短,新的攻击武器的形成时间也会相应缩短。
比如,黑客在恶意站点"chat-gpt-pc.online",提供了Windows版的ChatGpt的pc客户端,实则是利用Redline窃密木马感染访问者,该页面使用官方ChatGPT徽标来诱骗用户重定向到恶意站点。其次,黑客在Google play和第三方Android应用商店推广虚假的ChatGPT应用,借此将恶意软件推送到用户设备上运行。
其实AI对网络安全行业影响的案例有很多,不止于此,且未来也不会减少。网络安全是非常复杂的,防御系统需要关注数学、网络分析和软件工程的细分领域。更复杂的是,人类是系统的重要组成部分,了解人类的弱点至关重要。
该领域也是许多分支学科的混合体,而且这些分支学科可能非常不同。例如,通过检测恶意数据包来保护网络层的方法在强化哈希算法方面可能毫无用处。
Resilian首席执行官Paul Kocher说,“显然,在某些领域,你可以在人工智能方面取得进展,比如在错误搜索和仔细检查代码方面,AI比模糊测试(引入小的随机错误以触发缺陷的过程)更好。”Paul已经探索使用新技术来破解密码算法了。
有些人使用AI已经炉火纯青了。举个最简单的例子,可以编纂旧知识并重新应用它。Coinbase的主管Conor Grogan要求ChatGPT查看在以太坊区块链上运行的实时合约,之后GPT列出了一个简明的弱点列表,并给到了修复它们的建议。
人工智能是如何做到这一点的?人工智能的机制或许是模糊的,但它是基于过去不管什么形式的人们对于人类弱点的公开讨论。人工智能能够将新旧知识关联,并列举要解决的问题,所有这些都无需任何自定义编程或专家指导。
微软开始将这种方法商业化。它训练了AI Security Copilot,这是ChatGPT4的一个版本,具有协议和加密算法的基础知识,因此它可以响应提示并协助人类。
有些人正在利用嵌入大型语言模型中的庞大的知识库。Claroty的研究人员依靠ChatGPT节省时间,ChatGPT提供百科全书式的编码知识。他们能够使用ChatGPT编写攻破漏洞所需的代码,从而赢得黑客竞赛。
攻击者还可以利用AI的能力来塑造和重塑代码。ReliaQuest的首席技术官乔·帕特洛(Joe Partlow)表示:“我们真的不知道人工智能实际上是如何“思考”的,你会看到像Codex或Github Copilot这样的代码完成模型已经在帮助人们编写软件,我们已经发现人工智能生成的恶意软件变种。举个例子,利用AI帮助C竞赛获胜者进行模型培训,帮助设计有效的后门。“
一些成熟的公司正在使用人工智能来监测企业环境中的网络异常和其他问题,他们依靠机器学习和统计推断的某种组合来标记潜在可疑行为。
使用AI查找弱点,破解加密
最近一项研究显示,51%的密码可以在不到一分钟内被AI密码破解。
这意味着,我们使用传统的密码保护个人账户的方法已经不再安全。这些密码很可能是常用的、容易猜测或者本身就不够复杂,给黑客留下了可乘之机。
虽然AI已经被用于寻找漏洞,破解密码,但是AI对数据流的了解程度是有限的,尤其是那些加密的数据流。如果攻击者能够确定哪些加密数据包是好是坏,他们将能够破坏底层加密算法。
再提一个深层次的问题,人工智能能否在网络安全的最基层中找到漏洞。目前还没有重大公告,但已经开始有人各执一词了,有些人认为可以,而有些人认为不可以。
关于这个问题,尚无清晰的答案。虽然人工智能可能像人类一样行动,但在它们本质完全不同。大型模型是按多个层次结构排列的统计关系的集合,最近的许多进展都来自于参数和权重数量的快速扩展。
构建大型机器学习模型的许多最常见方法的核心是使用大量的线性数学,将非常大的矩阵和张量的序列链接在一起。线性度是算法的关键部分,因为它能获得一些可用于训练的反馈。
然而,最好的加密算法是被设计成非线性的。像AES或SHA这样的算法依赖于通过一组称为S盒的函数传递数据来反复加扰数据。这些功能经过精心设计,具有高度非线性。更重要的是,算法的设计者确保它们被检验过很多次,确保可以防止一些普遍的统计攻击。
其中一些攻击与现代AI有很多共同之处。几十年来,密码学家一直通过加密算法使用大量统计数据来对数据流进行建模,其方式与AI对其训练数据进行建模的方式大致相同。过去,密码学家利用他们对加密算法的了解来调整统计数据。
最著名的例子之一通常被称为差分密码分析。虽然它首先由Adi Shamir和Eli Biham公开阐述,但NIST的数据加密标准等早期算法的一些设计者表示,他们理解这种方法并针对它强化了算法。像AES这样针对差分密码分析进行强化的算法应该能够承受来自AI的攻击,这些AI部署了大部分相同的线性统计方法。
还有更进一步的基础问题是许多公钥算法依赖于具有数千位精度的数字。加州大学圣地亚哥分校的密码学家Nadia Heninger解释说:“这只是一个实现细节,但AI可能比这更深入,因为这些模型的权重是浮动的,精度非常重要。”
许多机器学习算法经常在精度上偷工减料,因为在一个草率、俚语和多变的语法时代,在人类语言等不精确的领域无需做得如此精确。那么这也说明一些现成的工具不适合密码分析,通用算法可能会进行调整,这一方向也已有人开始研究。
更大的规模和大型符号模型可能让AI威胁加剧
巴菲特曾向记者表示,AI确实带来了社会变革,但目前尚没有大规模的实验结果来支撑人工智能发展对人类有益这一观点。也就是说,大规模的AI发展影响真的那么大吗?
如果AI真的能够更加智能,那么和旧的差分算法相比,AI也许可以找到更多的漏洞,甚至一些原有的技术可以用来更有效地指导机器学习算法。
一些人工智能科学家正在设想如何将大型语言模型的绝对优势与更合乎逻辑的方法和形式结合起来。部署用于推理数学概念的自动化机制可能比简单地尝试模仿训练集中的模式要强大得多。
《量子时代》的作者、安全研究员西姆森·加芬克尔(Simson Garfinkel)解释说:“这些大型语言模型缺乏它们实际生成的符号模型,没有理由假设安全属性将被嵌入,但已经有很多使用常规方法查找安全漏洞的经验。”
人工智能研究人员正在努力通过用更好的符号推理嫁接大型语言模型来扩展它们的力量。例如,Wolfram Alpha的开发者之一Stephen Wolfram解释说:“这是我们的目标之一,现在在 Wolfram 语言中,我们拥有大量事物的内置计算知识,但是对于一个完整的符号话语语言,我们必须建立世界上一般事物的额外'演算':如果一个物体从A移动到B,从B移动到C,那么它就会从A移动到C之类的。”也就是说事物的延申要被考虑进去。
Whitfield Diffie是一位密码学家,他是公钥密码学领域的先驱,他认为像AI这样的方法可能能够在新的、未开发的数学领域取得进展。AI的想法可能与人类不同,甚至有自己的价值。
密码分析领域只是尚未经过测试的数学领域的一个。可能性是无穷无尽的,因为数学本身是无限的。粗略地说,如果人工智能能够为闯入价值超过成本的系统做出贡献,人们就会使用它,但真正的问题是如何做到。
来源
https://www.csoonline.com/article/3692868/what-is-artificial-intelligence-s-true-potential-impact-on-cybersecurity.html