Deeplab xception for mobile (tensorflow lite)

问题描述 投票:0回答:1

我正在检查使用预训练的deeplab运行图像分割的选项。xception65_coco_voc_trainval . 模型。

冻结的模型大小是~161MB,我把它转换为tflite后,大小是~160MB,在我的PC cpu上运行这个模型需要~25秒。

这是 "预期的 "还是有什么我可以做得更好?

转换为tflite的过程如下。

tflite_convert \
--graph_def_file="deeplabv3_pascal_trainval/frozen_inference_graph.pb" \
--output_file="deeplab_xception_pascal.tflite" \
--output_format=TFLITE \
--input_shape=1,513,513,3 \
--input_arrays="sub_7" \
--output_arrays="ArgMax" \
--inference_type=FLOAT \
--allow_custom_ops

谢谢!

tensorflow image-segmentation tensorflow-lite deeplab
1个回答
1
投票

根据 https:/github.comtensorflowmodelsblobmasterresearchdeeplabg3docmodel_zoo.md。,xception65_coco_voc_trainval有3个评价尺度,需要约223秒。冻结的图只有一个评价尺度,所以我觉得大约25秒就可以了。

为了加快TfLite的推理速度,我建议使用gpu delegate,但由于你是在PC上运行,你将需要找到一个更小的模型。也许可以试试基于移动网络的模型?edgetpu 模型可以在没有 edgetpu 的情况下在 tflite 中运行,而且速度应该相当快,尽管这些模型是在城市景观上训练的。

© www.soinside.com 2019 - 2024. All rights reserved.