为了避免这些风险并负责任地部署人工智能,监管政策和行业都有责任为围绕该技术工作的从业者和用户制定流程和标准。为此,道德 AI 和 ML 研究所的团队汇总了负责任的 AI 原则,以授权从业者确保这些原则通过设计嵌入到围绕生产 AI 和机器学习系统的基础设施和流程中。
本文对八项原则中的四项进行了细分:偏见评估、可解释性、人工增强和可重复性。
偏见评估
在某种意义上,人工智能模型带有固有的偏见,因为它们被设计用来区别对待相关的答案。这是因为智能的核心是识别我们在世界上看到的模式并对其采取行动的能力。在开发人工智能模型时,我们试图复制这种准确的能力,并鼓励人工智能在输入的数据中发现模式,并产生相应的偏见。例如,一个研究蛋白质化学数据的模型会天生地对那些结构可以以某种方式折叠的蛋白质产生相关的偏见,从而发现哪些蛋白质在医学的相关用例中有用。
因此,我们在公开反对人工智能偏见时应该小心谨慎。围绕人工智能偏见的话题,我们通常指的是实际上不受欢迎或不合理的偏见,例如基于受保护特征(如种族、性别或国籍)的偏见。
但为什么人工智能模型会产生不道德的偏见呢?答案取决于它输入的数据。模型最终会反映出它们在部署之前使用的训练数据中存在的偏见,所以如果训练数据不具有代表性或合并了预先存在的偏差,那么生成的模型最终将反映它们。就像他们在计算机科学里说的“无用输入无用输出”。
团队还必须创建一系列流程和程序,以正确识别围绕 AI 训练数据、模型本身的训练和评估以及模型本身运营生命周期的有效性的任何不良偏差。如果您正在部署 AI,则值得关注的一个很好的例子是道德 AI 和机器学习研究所的eXplainable AI 框架,接下来我们将对此进行更详细的介绍。
可解释性
为了确保AI模型符合目的,相关领域专家的参与也很重要。这些人可以帮助团队确保AI模型使用正确的性能指标,而不仅仅是统计数据和准确性驱动的性能指标。值得强调的是,领域专家不仅包括技术专家,还包括与用例相关的社会科学和人文学科专家。
不过,要使其发挥作用,确保模型的预测能够由相关领域专家解释也是很重要的。然而,先进的人工智能模型通常使用最先进的深度学习技术,这可能不能简单地解释为什么会做出特定的预测。
为了克服这一困难,组织倾向于利用多种技术和工具来实现机器学习的可解释性,这些技术和工具可用于破译 AI 模型的预测。
在可解释性之后是人工智能模型的操作化。这是由相关利益相关者进行调查和监控的时候。此类 AI 模型的生命周期只有在正确部署到生产环境后才开始。一旦启动并运行,模型才会因为外部压力而遭受性能下降,无论是概念漂移还是模型运行环境的变化。
人类增强
在部署AI时,首先评估原始非自动化流程的当前需求至关重要,包括概述不良结果的风险。这将允许对过程有更深入的理解,并有助于确定哪些领域可能需要人工干预来降低风险。
例如,向职业运动员推荐膳食计划的人工智能的高影响风险因素远少于为银行自动化后端贷款审批流程的人工智能模型,这表明对前者而言,人工干预的必要性要小于后者。当团队确定AI工作流的潜在风险点时,他们可以考虑实施“ 人机回圈 ”的审查过程(HITL)。
HITL确保在流程自动化之后,仍然存在各种接触点,其中需要人工干预来检查结果,从而更容易在必要时提供纠正或撤销决策。这个过程可以包括技术专家和行业专家团队(例如,银行贷款的承销商,或膳食计划的营养师),以评估人工智能模型做出的决定,并确保它们遵守最佳实践。
可重复性
可重复性是指团队在数据点上重复运行算法并每次都得到相同结果的能力。这是负责任的 AI 的核心组成部分,因为它对于确保模型之前的预测在稍后阶段重新运行时重新发布至关重要。
自然地,再现性很难实现,这主要是由于人工智能系统内在的困难。这是因为 AI 模型的输出可能会因各种背景情况而异,例如:
- 用于计算 AI 干扰的代码
- 从使用的数据中学习到的权重
- 运行代码的环境、基础架构和配置
- 提供给模型的输入和输入结构
这是一个复杂的问题,尤其是当一个 AI 模型被大规模部署并需要考虑无数其他工具和框架时。为此,团队需要开发稳健的实践来帮助控制上述情况,并实施工具来帮助提高可重复性。
关键要点
借助上述高级原则,行业可以确保遵循最佳实践来负责任地使用人工智能。采用此类原则对于确保人工智能充分发挥其经济潜力至关重要,并且不会削弱弱势群体的权力、强化不道德的偏见或削弱问责制。相反,它可以成为我们可以用来推动增长、生产力、效率、创新和为所有人带来更大利益的技术。