图像嵌入器允许将图像嵌入到高维特征向量中,该向量表示图像的语义含义,然后可以将其与其他图像的特征向量进行比较,以评估它们的语义相似性。
与 图像搜索 不同,图像嵌入器允许实时计算图像之间的相似性,而不是搜索从图像语料库构建的预定义索引。
使用任务库 ImageEmbedder
API 将您的自定义图像嵌入器部署到您的移动应用程序中。
ImageEmbedder API 的主要功能
输入图像处理,包括旋转、调整大小和颜色空间转换。
输入图像的感兴趣区域。
内置实用程序函数,用于计算特征向量之间的 余弦相似度。
支持的图像嵌入器模型
以下模型保证与 ImageEmbedder
API 兼容。
来自 TensorFlow Hub 上的 Google 图像模块集合 的特征向量模型。
满足 模型兼容性要求 的自定义模型。
在 C++ 中运行推理
// Initialization
ImageEmbedderOptions options:
options.mutable_model_file_with_metadata()->set_file_name(model_path);
options.set_l2_normalize(true);
std::unique_ptr<ImageEmbedder> image_embedder = ImageEmbedder::CreateFromOptions(options).value();
// Create input frame_buffer_1 and frame_buffer_2 from your inputs `image_data1`, `image_data2`, `image_dimension1` and `image_dimension2`.
// See more information here: tensorflow_lite_support/cc/task/vision/utils/frame_buffer_common_utils.h
std::unique_ptr<FrameBuffer> frame_buffer_1 = CreateFromRgbRawBuffer(
image_data1, image_dimension1);
std::unique_ptr<FrameBuffer> frame_buffer_2 = CreateFromRgbRawBuffer(
image_data2, image_dimension2);
// Run inference on two images.
const EmbeddingResult result_1 = image_embedder->Embed(*frame_buffer_1);
const EmbeddingResult result_2 = image_embedder->Embed(*frame_buffer_2);
// Compute cosine similarity.
double similarity = ImageEmbedder::CosineSimilarity(
result_1.embeddings[0].feature_vector(),
result_2.embeddings[0].feature_vector());
有关配置 ImageEmbedder
的更多选项,请参阅 源代码。
在 Python 中运行推理
步骤 1:安装 TensorFlow Lite Support Pypi 包。
您可以使用以下命令安装 TensorFlow Lite Support Pypi 包
pip install tflite-support
步骤 2:使用模型
from tflite_support.task import vision
# Initialization.
image_embedder = vision.ImageEmbedder.create_from_file(model_path)
# Run inference on two images.
image_1 = vision.TensorImage.create_from_file('/path/to/image1.jpg')
result_1 = image_embedder.embed(image_1)
image_2 = vision.TensorImage.create_from_file('/path/to/image2.jpg')
result_2 = image_embedder.embed(image_2)
# Compute cosine similarity.
feature_vector_1 = result_1.embeddings[0].feature_vector
feature_vector_2 = result_2.embeddings[0].feature_vector
similarity = image_embedder.cosine_similarity(
result_1.embeddings[0].feature_vector, result_2.embeddings[0].feature_vector)
有关配置 ImageEmbedder
的更多选项,请参阅 源代码。
示例结果
归一化特征向量之间的余弦相似度返回 -1 到 1 之间的分数。越高越好,即余弦相似度为 1 表示两个向量相同。
Cosine similarity: 0.954312
使用您自己的模型和测试数据试用 ImageEmbedder 的简单 CLI 演示工具。
模型兼容性要求
ImageEmbedder
API 预计 TFLite 模型具有可选的,但强烈建议的 TFLite 模型元数据。
兼容的图像嵌入器模型应满足以下要求
一个输入图像张量 (kTfLiteUInt8/kTfLiteFloat32)
- 大小为
[batch x height x width x channels]
的图像输入。 - 不支持批处理推理 (
batch
必须为 1)。 - 仅支持 RGB 输入 (
channels
必须为 3)。 - 如果类型为 kTfLiteFloat32,则需要将 NormalizationOptions 附加到元数据以进行输入归一化。
- 大小为
至少一个输出张量 (kTfLiteUInt8/kTfLiteFloat32)
- 具有
N
个组件,对应于此输出层返回的特征向量的N
个维度。 - 2 或 4 个维度,即
[1 x N]
或[1 x 1 x 1 x N]
。
- 具有