TensorFlow 模型优化

TensorFlow 模型优化工具包 减少了优化机器学习推理的复杂性。

推理效率是部署机器学习模型时的一个关键问题,因为涉及延迟、内存利用率,以及在许多情况下还有功耗。特别是在移动设备和物联网 (IoT) 等边缘设备上,资源更加有限,模型大小和计算效率成为主要问题。

训练 的计算需求随着在不同架构上训练的模型数量而增长,而推理 的计算需求则与用户数量成正比。

用例

模型优化对于以下方面非常有用:

  • 降低云和边缘设备(例如移动设备、IoT)的推理延迟和成本。
  • 在处理、内存和/或功耗有限的边缘设备上部署模型。
  • 减少空中模型更新的有效负载大小。
  • 支持在仅限于或针对定点运算优化的硬件上执行。
  • 针对特殊用途硬件加速器优化模型。

优化技术

模型优化领域可能涉及各种技术

  • 使用剪枝和结构化剪枝减少参数数量。
  • 使用量化降低表示精度。
  • 将原始模型拓扑更新为更有效的拓扑,减少参数或加快执行速度。例如,张量分解方法和蒸馏

我们的工具包支持 训练后量化量化感知训练剪枝聚类。该工具包还提供对 协作优化 的实验性支持,以结合各种技术。

量化

量化模型是指我们将模型表示为较低精度,例如 8 位整数而不是 32 位浮点数。较低的精度是利用某些硬件的必要条件。

稀疏性和剪枝

稀疏模型是指在运算符(即神经网络层)之间的连接已被剪枝的模型,在参数张量中引入了零。

聚类

聚类模型是指将原始模型的参数替换为更少数量的唯一值的模型。

协作优化

该工具包提供对协作优化的实验性支持。这使您能够从结合多种模型压缩技术中获益,并通过量化感知训练同时提高精度。