当使用TFLite在Android设备上运行的神经网络模型,有太多的Android设备,不同的设备有不同的计算性能。因此很难用单一的模式来覆盖所有设备。
一种解决方案是具有用于基于所述设备的computing capacity
不同的设备不同FLOPS使用模型。
然而,在TFLite没有API来获取computing capacity
。所以我很好奇如何处理这种情况。
目前没有坚实的故事这一点。您可能需要考虑的一件事是运行浮点模型上强大的设备,但量化模型(精确命中)就少高性能的。然而,这是因为像你说的有一个在tflite没有API让现在的计算能力的超级手册。