审校 | 重楼
人工智能(AI)和机器学习(ML)模型如今变得越来越复杂,这些模型产生的输出是黑盒——无法向利益相关者解释。可解释性人工智能(XAI)旨在通过让利益相关者理解这些模型的工作方式来解决这一问题,确保他们理解这些模型实际上是如何做出决策的,并确保人工智能系统中的透明度、信任度和问责制来解决这个问题。本文探讨了各种可解释性人工智能(XAI)技术,以阐明它们的基本原理。
可解释性人工智能至关重要的几个原因
- 信任度和透明度:为了让人工智能系统被广泛接受和信任,用户需要了解决策是如何做出的。
- 法规遵从性:欧盟的《通用数据保护条例》(GDPR)等法律要求对影响个人的自动化决策做出解释。
- 模型调试和改进:深入了解模型决策可以帮助开发人员识别和纠正偏差或不准确之处。
可解释性人工智能的核心技术
可解释性人工智能技术可分为模型不可知方法和模型特定方法,每种方法都适用于不同类型的人工智能模型和应用。
模型不可知方法
(1)局部可解释模型不可知论解释(LIME)
局部可解释模型不可知论解释(LIME)是一项开创性的技术,旨在使人类可以理解复杂机器学习模型的预测。从本质上讲,LIME的好处在于它的简单性和解释任何分类器或回归器行为的能力,而不管其复杂性如何。
LIME通过使用可解释的模型在局部近似来阐明任何分类器或回归器的预测。关键思想是扰动输入数据并观察预测如何变化,这有助于识别显著影响预测的特征。
在数学上,对于给定的实例\(x\)和模型\(f\), LIME生成一个新的扰动样本数据集,并使用\(f\)对它们进行标记。然后,它学习一个局部忠实于\(f\)的简单模型\(g\)(例如线性模型),最小化以下目标:
\[ \xi(x) = \underset{g \in G}{\text{argmin}} \; L(f, g, \pi_x) + \Omega(g) \]
其中\(L\)是衡量\(g\)在\(x\)周围近似\(f\)时的不忠实程度,\(\pi_x\)是是定义\(x\)周围局部邻域的邻近度度量,并且\(\Omega\)惩罚\(g\)的复杂性。
(2)Shapley可加性解释(SHAP)
Shapley可加性解释(SHAP)通过为特定预测的每个特征分配重要值来帮助人们理解机器学习模型的输出。想象一下,人们正试图根据房子的大小、年限和位置等特征来预测房子的价格。某些特征可能会提高预期价格,而其他特征可能会降低预期价格。相对于基线预测(数据集的平均预测),SHAP值有助于人们准确量化每个特征对最终预测的贡献。
特征\(i\)的SHAP值定义为:
\[ \phi_i = \sum_{S \subseteq F \setminus \{i\}} \frac{|S|!(|F| - |S| - 1)!}{|F|!} [f_x(S \cup \{i\}) - f_x(S)] \]
其中,\F\)是所有特征的集合,\S\)是不包括\(i\)的特征的子集,\(f_x(S)\)是特征集\S\)的预测,总和是所有可能的特征子集。该公式确保每个特征的贡献根据其对预测的影响进行公平分配。
特定于模型的方法
(1)神经网络中的注意机制
神经网络中的注意机制强调输入数据中与做出预测最相关的部分。在序列到序列模型的场景中,目标时间步长\(t\)和源时间步长\(j\)的注意力权重\(\alpha_{tj}\)计算为:
\[ \alpha_{tj} = \frac{\exp(e_{tj})}{\sum_{k=1}^{T_s} \exp(e_{tk})} \]
其中\(e_{tj}\)是一个评分函数,用于评估位置\(j\)的输入和位置\(t\)的输出之间的对齐情况,\(T_s\)是输入序列的长度。这种机制允许模型关注输入数据的相关部分,从而提高可解释性。
(2)决策树的可视化
决策树通过将决策表示为从输入特征派生的一系列规则来提供固有的可解释性。决策树的结构可以实现可视化,节点表示基于特征的决策,叶子表示结果。这种可视化表示可以直接跟踪输入特征是如何导致特定预测的。
(3)实际实施和道德考虑
实现可解释的人工智能需要仔细考虑模型类型、应用程序要求和解释的目标受众。在模型性能和可解释性之间进行权衡也很重要。从道德上来说,确保人工智能系统的公平性、问责制和透明度至关重要。可解释性人工智能的未来方向包括标准化解释框架和继续研究更有效的解释方法。
结论
可解释性人工智能对于解释复杂的AI/ML模型,提供信任和确保其应用程序中的问责制至关重要。它利用了LIME、SHAP、注意力机制和决策树可视化等技术。随着该领域的发展,更复杂和标准化的可解释性人工智能方法的开发对于解决软件开发和法规遵从性的不断发展的需求将是至关重要的。
原文Explainable AI: Interpreting Complex AI/ML Model,作者:Rajiv Avacharmal