尽管这些担忧各有道理,但早期采用者所获得的好处将远远超过这些阻碍探索的潜在后果。
在本文中,我们将帮助各位团队成员和客户了解为何不能把安全视为事后因素,而应将其作为AI与业务相集成的先决条件,同时探讨这方面工作中的一系列最佳实践。
以安全策略为起点
企业已经感受到由AI应用所带来的新兴安全风险与现实紧迫性。事实上,根据之前提到的统计报告,81%的企业领导者表示他们的公司已经实施、或者正在制定围绕生成式AI建立的用户政策。
然而,由于该项技术的发展速度极快、新兴应用与用例时刻都在涌现,因此政策内容也必须不断更新以应对随时出现的风险和挑战。
为了在加快探索的同时最大限度降低安全风险,我们自然有必要为测试和学习工作设置“护栏”。而且相关政策的制定也绝不应孤立推进,而应从企业内各个部门的代表处充分征集意见,思考不同职能单位如何使用/是否可以使用生成式AI应对各自面临的安全风险。
总而言之,各部门对于AI技术的探索不应被粗暴禁止。如果单纯出于恐惧而在企业范围内全面封禁,那么大家也不必担心竞争对手吞噬自己的市场份额了——您本身就是在自毁长城。
以一线人员为核心
为了确保能够以安全的方式使用生成式AI,我们首先应为普通开发人员提供许可,例如允许他们全面使用大语言学习模型Insight GPT的私有实例。这一方面有助于发现潜在用例,同时也能根据输出开展压力测试,对生成式AI服务做出持续改进。
我们很快发现,一位仓库团队成员找到了一种提高订单配送效率的方法。在这种非凡的用例中,该成员要求Insight GPT在SAP中编写一份脚本,用以自动处理部分工作负载。虽然效果很棒,但如果没有设置适当的护栏,这种尝试也极易引发事故。比如说,一旦工作人员粗心之下执行了一笔订单中并不存在的交易,那么后续的自动环节将无法中断。
所以在促进民间探索并尽可能限制风险的过程中,我们需要:审查委员会应制定明确的指导方针,开展风险评估并加强AI系统的透明度。进行适当培训,教育员工如何以负责任的方式将AI纳入工作场景,特别是应当阐明对于道德标准、偏见、人类监督和数据隐私等关键问题的处理方式。开设内部论坛,鼓励团队成员在公司创新者群组内分享自己的发现和教训。
减少“幻觉”的风险
生成式AI之所以存在风险,一个重要原因就是它偶尔会产生“幻觉”。根据Insight报告,企业领导者最关心的一个共同主题,就是幻觉会如何引发错误的商业决策。然而,由幻觉导致的风险往往各不相同,有时问题不大、有时后果严重,具体影响往往因场景而异。
虽然GPT工具必然会输出某些与客观现实不符的结果,但我们很快意识到这种错误回答往往属于措辞层面的混淆。例如,在早期测试当中,我们询问Insight GPT埃迪·范·海伦曾与埃迪·范·海伦合作过哪首作品。正确答案是“Beat It”,但它的回答却是“Thriller”。可从另一角度讲,“Beat It”确实是“Thriller”专辑中的一首作品,所以它的回答也并非毫无道理。
这就完美诠释了“幻觉”问题造成的不同风险,特别是在处理各种主观性较强的工作负载时。要想在安全角度上解决这类问题,我们就必须建立并执行相关政策,将所有AI生成的内容都纳入人工监督范畴之内。此外,所有由AI辅助生成的内容都必须进行明确标记。当这些内容穿行在内部及外部各价值链时,也应始终附带标记并接受监督。
当下,生成式AI行业仍处于萌芽阶段,谁能摸索出负责任且安全的应用方式,同时减少数据泄露、信息错误、偏见及其他风险所引发的潜在威胁,谁就能建立起明确的技术优势。企业需要保证自己的AI政策与行业的变化持续保持同步,在维护合规性、缓解幻觉问题的同时逐步建立起用户信任。