更新时间:2021 年 6 月
TensorFlow 的模型优化工具包 (MOT) 已广泛用于将 TensorFlow 模型转换为 TensorFlow Lite 模型,这些模型具有更小的尺寸、更好的性能和可接受的精度,以便在移动设备和物联网设备上运行。我们现在正在努力将 MOT 技术和工具扩展到 TensorFlow Lite 之外,以支持 TensorFlow SavedModel。
以下是我们路线图的高级概述。请注意,此路线图可能会随时更改,以下顺序不反映任何优先级。我们强烈建议您对我们的路线图发表评论,并在 讨论组 中向我们提供反馈。
量化
TensorFlow Lite
- 选择性训练后量化,以排除某些层进行量化。
- 量化调试器,用于检查每层的量化误差损失。
- 在更多模型覆盖范围(例如 TensorFlow 模型花园)上应用量化感知训练。
- 训练后动态范围量化的质量和性能改进。
TensorFlow
- 训练后量化 (bf16 * int8 动态范围)。
- 量化感知训练 ((bf16 * int8 仅权重,使用伪量化)。
- 选择性训练后量化,以排除某些层进行量化。
- 量化调试器,用于检查每层的量化误差损失。
稀疏性
TensorFlow Lite
- 更多模型的稀疏模型执行支持。
- 针对稀疏性的目标感知创作。
- 使用高性能 x86 内核扩展稀疏操作集。
TensorFlow
- TensorFlow 中的稀疏性支持。
级联压缩技术
- 量化 + 张量压缩 + 稀疏性:演示所有 3 种技术协同工作。
压缩
- 张量压缩 API,帮助压缩算法开发人员实现自己的模型压缩算法(例如权重聚类),包括提供一种标准方法进行测试/基准测试。