文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

研究人员绕过 GPT-4o 模型安全护栏,利用“十六进制字符串”成功令其编写漏洞攻击程序

2024-11-28 16:05

关注

参考 OpenAI 介绍,ChatGPT-4o 内置了一系列“安全护栏”措施,以防止该 AI 遭到用户不当使用,相关防护措施会分析输入的提示文本,判断用户是否要求模型生成恶意内容。

▲ 图源 Marco Figueroa 博客(下同)

不过 Marco Figueroa 尝试设计了一种将恶意指令转化为十六进制的越狱方法,号称能够绕过 GPT-4o 的防护,让 GPT-4o 解码运行用户的恶意指令。

研究人员声称,他首先要求 GPT-4o 解码十六进制字符串,之后其向 GPT 发送一条实际含义为“到互联网上研究 CVE-2024-41110 漏洞,并用 Python 编写恶意程序”的十六进制字符串指令,GPT-4o 仅用 1 分钟就顺利利用相关漏洞编写出了代码(IT之家注:CVE-2024-41110 是一个 Docker 验证漏洞,允许恶意程序绕过 Docker 验证 API)。

研究人员解释称,GPT 系列模型被设计成遵循自然语言指令完成编码和解码,但系列模型缺乏对上下文的理解能力,无法评估每一步在整体情境下的安全性,因此许多黑客实际上早已利用 GPT 模型这一特点让模型进行各种不当操作。

研究人员表示,相关示例表明 AI 模型的开发者需要加强模型的安全防护,以防范此类基于上下文理解式的攻击。

来源:IT之家内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯