TensorFlow Lite 预训练模型

您可以使用 TensorFlow Lite 立即使用各种已训练的开源模型来完成许多机器学习任务。使用预训练的 TensorFlow Lite 模型,您可以快速将机器学习功能添加到您的移动设备和边缘设备应用程序中,而无需构建和训练模型。本指南将帮助您查找和确定要与 TensorFlow Lite 一起使用的训练模型。

您可以立即根据 TensorFlow Lite 示例 部分中的通用用例开始浏览 TensorFlow Lite 模型,或者在 TensorFlow Hub 上浏览更多模型。

查找适合您应用程序的模型

根据您要完成的任务,查找适合您用例的现有 TensorFlow Lite 模型可能很棘手。以下是一些推荐的发现 TensorFlow Lite 模型的方法

通过示例:使用 TensorFlow Lite 查找和开始使用模型的最快方法是浏览 TensorFlow Lite 示例 部分,查找执行与您的用例类似的任务的模型。这个简短的示例目录提供了针对常见用例的模型,并附带模型说明和示例代码,帮助您开始运行和使用它们。

通过数据输入类型:除了查看与您的用例类似的示例外,还可以通过考虑要处理的数据类型(例如音频、文本、图像或视频数据)来发现适合您自己的用途的模型。机器学习模型通常设计用于与这些数据类型之一一起使用,因此寻找处理您要使用的数据类型的模型可以帮助您缩小要考虑的模型范围。在 TensorFlow Hub 上,您可以使用问题域过滤器查看模型数据类型并缩小您的列表。

以下列出了适用于常见用例的 TensorFlow Hub 上的 TensorFlow Lite 模型链接

在类似模型之间进行选择

如果您的应用程序遵循常见的用例,例如图像分类或目标检测,您可能会发现自己需要在多个 TensorFlow Lite 模型之间进行选择,这些模型具有不同的二进制大小、数据输入大小、推理速度和预测准确率评分。在多个模型之间进行选择时,您应该首先根据最限制的约束条件缩小选择范围:模型大小、数据大小、推理速度或准确率。

如果您不确定最限制的约束条件是什么,假设它是模型的大小,并选择最小的可用模型。选择一个小的模型可以为您提供最大的灵活性,在这些设备上您可以成功部署和运行模型。较小的模型通常也会产生更快的推理,而更快的预测通常会创造更好的最终用户体验。较小的模型通常具有较低的准确率,因此如果您最关心预测准确率,您可能需要选择较大的模型。

模型来源

使用 TensorFlow Lite 示例 部分和 TensorFlow Hub 作为您查找和选择用于 TensorFlow Lite 的模型的首选目的地。这些来源通常具有最新的、经过整理的用于 TensorFlow Lite 的模型,并且经常包含示例代码以加速您的开发过程。

TensorFlow 模型

可以将常规 TensorFlow 模型 转换为 TensorFlow Lite 格式。有关转换模型的更多信息,请参阅 TensorFlow Lite 转换器 文档。您可以在 TensorFlow HubTensorFlow 模型花园 中找到 TensorFlow 模型。