智能解释
为了帮助建立用户与系统之间的信任,我们提供相关底层模型和算法结果背后的推理。
“智能解释” 是指在 上下文 和 适当的时间 解释智能系统建议背后的原理。
何时使用
如果满足以下一个或多个条件,可以考虑使用 AI 解释:
关键性
一旦做出错误的操作会带来很高的风险。
相比之下,如果风险很低并且可以轻松回滚操作,则用户就可以不需要对系统相关操作进行解释。
复杂性
用户很难评估 TA 们决策的影响和质量。
这可能是由于缺乏流程洞察力,因为该任务通过机器学习实现了自动化。
相比之下,如果用户可以轻松判断建议何时适合(无需培训),他们就可以不需要额外的输入。
透明度
产品的业务场景需要满足广泛的业务要求。
工作中必须能够追溯记录并查看每个执行步骤的逻辑。审核员可能需要比最终用户了解更多的信息。
相比之下,如果没有审核要求,则可以不需要解释(如果用户也不需要解释的话)。
波动性
为了使您的机器学习模型适应不断变化的条件或要求,您的 AI 应用程序依赖于持续的反馈。
相比之下,如果反馈对算法的输出或用户体验影响很小或没有影响,那么提供额外的解释可能会分散用户注意力而不是帮助用户。
解释级别
用户了解系统建议所需的信息量可能会有所不同。这取决于应用的 AI、使用上下文、用户任务和用户角色。
我们区分三个解释级别:解释指标、简单说明和扩展说明。
级别 1:解释指标
What?
最低解释级别。每当提供 AI(机器学习)输出时,都需要一个指标。该指标也是下一个解释级别的访问点(如果需要)
图一:列表和表格中的全局/本地指示器
图二:卡片的全局/本地指示器
级别 2:简单说明
Why?
相关属性、数量和上下文信息的浓缩视图。摘要可帮助用户更好地理解 AI 提案。它可以包含指向最后和最详细解释级别的链接。
图一:解释弹出框、对话框
图二:模态弹窗
级别 3:扩展说明
How?
专门针对高级用户的扩展报告。它涵盖了智能系统处理的所有方面、AI 性能,以及任何有助于用户监控 AI 操作的进一步上下文和条件。
图一:说明抽屉页面
图二:独立说明页面
渐进式披露
渐进式披露避免了用户一次被太多信息淹没。最初,用户只会看到一个解释指示器,然后可以深入了解两个更深层次的细节。这种方法的好处是解释不会使现有 UI 混乱,用户只需要关心细节。
等级 | 信息类型 |
---|---|
0 级 | 没有额外的解释元素。对于用户不期望或不需要系统解释的情况。 |
1 级 | 简要说明上下文,可选择或不选择获取更多详细信息。 在简短的解释说明问题的简单情况下,1 级解释可能就足够了。 |
2 级 | 呈现浓缩信息,包括表格、图表或任何其他 UI 元素,可让您更深入地了解问题。用户通过单击级别 1 中作为链接提供的说明访问此级别。 |
3 级 | 显示详细信息,包括表格、图表或任何其他 UI 元素,可以更深入地了解问题。用户通过单击级别 2 中作为链接提供的说明访问此级别。 |
解释组件
每个级别使用专用的设计组件。