模型的运行时可使用,因为不同的计算容量TensorFlow-精简版时在不同的机器人装置极大地变化

问题描述 投票:1回答:1

当使用TFLite在Android设备上运行的神经网络模型,有太多的Android设备,不同的设备有不同的计算性能。因此很难用单一的模式来覆盖所有设备。

一种解决方案是具有用于基于所述设备的computing capacity不同的设备不同FLOPS使用模型。

然而,在TFLite没有API来获取computing capacity。所以我很好奇如何处理这种情况。

android performance tensorflow tensorflow-lite
1个回答
0
投票

目前没有坚实的故事这一点。您可能需要考虑的一件事是运行浮点模型上强大的设备,但量化模型(精确命中)就少高性能的。然而,这是因为像你说的有一个在tflite没有API让现在的计算能力的超级手册。

© www.soinside.com 2019 - 2024. All rights reserved.