TensorFlow 负责任的 AI 指南

2018 年,Google 推出了其 AI 原则,这些原则指导着 AI 在研究和产品中的道德开发和使用。根据这些原则,TensorFlow 团队致力于为开发人员提供工具和技术,以遵守负责任的 AI (RAI) 实践。

在本指南中,您将找到有关如何将负责任的 AI 工具包中的工具应用于开发一个连贯的工作流程的指导,该工作流程可以满足您的特定用例和产品需求。本指南中的工具包括可应用于诸如 公平性透明度等领域的工具。这是 Google 的一个活跃的开发领域,您可以预期本指南将包括针对其他相关领域的指导,例如 隐私可解释性稳健性

指南组织

对于每个工具,都提供了有关工具的功能、其在工作流程中的位置以及各种使用注意事项的指导。在适用的情况下,“指南”选项卡中包含每个工具的“安装”页面,以及“API”选项卡中的详细 API 文档。对于某些工具,提供了技术指南,这些指南演示了用户在应用这些工具时可能遇到的概念挑战。

只要有可能,就会提供笔记本教程,展示如何应用 RAI 工具包中的工具。这些通常是玩具示例,旨在突出显示特定工具。如果您对此有任何疑问,或者您想看到其他用例,请与 TensorFlow RAI 团队联系,邮箱地址为 [email protected]

以下教程可以帮助您开始使用模型公平性评估和修复工具。

在 Google Colab 笔记本中运行的公平性指标简介。单击“在 Google Colab 中运行”按钮,亲自尝试一下。
使用 民事评论数据集,应用公平性指标来评估 TF Hub 文本嵌入模型中常用的公平性指标。
应用公平性指标来检查 COMPAS 数据集 中的公平性问题。
尝试 MinDiff,这是一种模型修复技术,可以提高模型在常用公平性指标上的性能。
使用 TFX 与模型卡片工具包一起生成 模型卡片
使用 TF 隐私报告评估模型的隐私。

其他注意事项

设计负责任的 AI 工作流程需要在机器学习生命周期的每个阶段都采取深思熟虑的方法,从问题制定到部署和监控。除了技术实现的细节之外,您还需要做出各种社会技术决策才能应用这些工具。机器学习从业人员需要做出的一些常见的 RAI 考虑因素包括

  • 我需要确保我的模型在哪些人口统计类别中表现良好?
  • 如果我必须存储敏感标签才能进行公平性评估,我应该如何权衡公平性和隐私之间的关系?
  • 我应该使用哪些指标或定义来评估公平性?
  • 我应该在我的模型和数据透明度工件中包含哪些信息?

这些问题的答案以及许多其他问题的答案取决于您的特定用例和产品需求。因此,我们无法告诉您确切的操作步骤,但会提供指导,帮助您做出负责任的决策,并尽可能提供有用的提示和指向相关研究方法的链接。在使用 TensorFlow 开发您的负责任的 AI 工作流程时,请在 [email protected] 上提供反馈。了解您的学习和挑战对于我们构建适合所有人的产品至关重要。