更新时间:2021 年 6 月

TensorFlow 的模型优化工具包 (MOT) 已广泛用于将 TensorFlow 模型转换为 TensorFlow Lite 模型,这些模型具有更小的尺寸、更好的性能和可接受的精度,以便在移动设备和物联网设备上运行。我们现在正在努力将 MOT 技术和工具扩展到 TensorFlow Lite 之外,以支持 TensorFlow SavedModel。

以下是我们路线图的高级概述。请注意,此路线图可能会随时更改,以下顺序不反映任何优先级。我们强烈建议您对我们的路线图发表评论,并在 讨论组 中向我们提供反馈。

量化

TensorFlow Lite

  • 选择性训练后量化,以排除某些层进行量化。
  • 量化调试器,用于检查每层的量化误差损失。
  • 在更多模型覆盖范围(例如 TensorFlow 模型花园)上应用量化感知训练。
  • 训练后动态范围量化的质量和性能改进。

TensorFlow

  • 训练后量化 (bf16 * int8 动态范围)。
  • 量化感知训练 ((bf16 * int8 仅权重,使用伪量化)。
  • 选择性训练后量化,以排除某些层进行量化。
  • 量化调试器,用于检查每层的量化误差损失。

稀疏性

TensorFlow Lite

  • 更多模型的稀疏模型执行支持。
  • 针对稀疏性的目标感知创作。
  • 使用高性能 x86 内核扩展稀疏操作集。

TensorFlow

  • TensorFlow 中的稀疏性支持。

级联压缩技术

  • 量化 + 张量压缩 + 稀疏性:演示所有 3 种技术协同工作。

压缩

  • 张量压缩 API,帮助压缩算法开发人员实现自己的模型压缩算法(例如权重聚类),包括提供一种标准方法进行测试/基准测试。