Tensorflow model.predict 在 Android 模拟器中提供即时结果,但在部署到 Expo 应用程序后卡在 Iphone/Ipad 上

问题描述 投票:0回答:1

我对 Tensorflow 和 React Native 都是新手。我在 Teachable Machine 中训练了一个自定义模型,并在我的 React Native 应用程序中加载该模型后成功做出了正确的预测。

let model = await tf.loadLayersModel(bundleResourceIO());
model.predict();

这个预测在 Android 模拟器上非常快速且准确。但是部署应用程序后,预测部分卡住了,没有错误,也没有给出结果(在 Iphone/Ipad 上)

我尝试使用 tflite 代替,但没有成功加载本地

.tflite
文件。

Tensorflow后端使用

rn-webgl

环境之间如此巨大的性能差异可能是什么?

react-native tensorflow expo tensorflow-lite tensorflow.js
1个回答
0
投票

你能告诉我你是如何加载模态的吗?您正在加载模态表单本地文件吗?提供代码。

© www.soinside.com 2019 - 2024. All rights reserved.