tensorflow-lite 相关问题

TensorFlow Lite是适用于Android和iOS的工具包,可在设备上提供机器学习功能。

如何处理org.tensorflow.lite.Interpreter.runForMultipleInputsOutputs()

我正在使用tflite在android上运行posenet(这是一个CNN)。该模型具有以下尺寸的多个输出数组:1x14x14x17、1x14x14x34、1x14x14x32、1x14x14x32因此,运行...

回答 2 投票 1

问题包括简单C ++ TensorFlow Lite测试程序的Eigen

我使用脚本$ {TENSORFLOW_ROOT} /tensorflow/lite/tools/make/build_rpi_lib.sh按照此官方页面上建议的步骤编译了TensorFlow Lite(r1.97)的C ++ API库(...

回答 1 投票 1

Tensorflow-lite - 从量化模型输出中获取位图

我们正在使用tensorflow-lite在android中进行语义分割应用。使用的'.tflite'deeplabv3模型具有类型(ImageTensor)uint8 [1,300,300,3]的输入和类型的输出(...

回答 2 投票 1

mobilenetv2使用python3预期不会出现输出大小

我的mobilenetV2 SSD模型遇到了问题。我使用这里详述的步骤转换它,除了我使用CLI工具tflite_convert进行相关步骤。这很好......

回答 1 投票 1

Tensorflow对象检测-将.pb文件转换为tflite

我尝试将冻结的SSD mobilenet v2模型转换为TFLITE格式以供Android使用。这是我所有的步骤:我使用...

回答 2 投票 4

解释器中的“量化”是什么意思。get_input_details()?

使用tflite并获取解释器的属性,例如:print(interpreter.get_input_details())[{'name':'input_1_1','index':47,'shape':array([1,128,128,3] ,dtype = int32),'dtype': ] >>

回答 2 投票 4

了解tf.contrib.lite.TFLiteConverter量化参数

我试图在将tensorflow模型转换为tflite模型时使用UINT8量化:如果使用post_training_quantize = True,模型大小比原始fp32模型低x4,所以我假设模型...

回答 1 投票 2

我可以将所有tensorflow slim模型转换为tflite吗?

我正在训练基于张量流的苗条模型,用于自定义数据集上的图像分类。在我投入大量时间训练如此庞大的数据集之前,我想知道我是否可以转换所有...

回答 1 投票 1

Tensorflow精简错误! ValueError:无法设置张量:得到类型0的张量,但输入21的预期类型1

我有一个pb格式权重文件,然后我将其转换为tflite格式,用于移动设备部署。但是,我的模型有两个输入,一个用于图像(dims:1 * 3 * 36 * 60),另一个用于矢量(dims:1 * 2)。 ...

回答 1 投票 0

Tensorflow lite模型请求大于必要的缓冲区

我在tensorflow中使用keras创建了一个自定义模型。我使用的版本是每晚的张量流1.13.1。我使用官方工具来构建tensorflow lite模型(方法tf.lite ....

回答 1 投票 0

无法将模型文件转换为.tflite

我克隆了这个Image Completion存储库,它可以在我的Windows机器上运行python。托管面部完成和一般完成的模型。但是,文件没有.pb ...

回答 1 投票 0

将训练图转换为推理图? (删除TF中的批量标准化)

我一直在尝试找到可用于在推理阶段删除批量规范化节点的工具。我使用了TF提供的图形转换工具,但它们实际上并没有......

回答 1 投票 0

如何在TF Lite中添加预处理步骤

我使用简单的虹膜数据,它有4个功能。我想在进入网络之前做一些预处理步骤。例如,我希望我的NN只收到3个平均为2的功能......

回答 2 投票 1

Tensorflow Lite:无法在TensorFlowLite缓冲区和ByteBuffer之间进行转换

我试图将自定义模型迁移到Android平台。 tensorflow版本是1.12。我使用了如下所示的命令行:tflite_convert \ --output_file = test.tflite \ --...

回答 1 投票 0

对象检测器上的Tensorflow Lite GPU支持

我已经阅读了页面https://www.tensorflow.org/lite/performance/gpu我想知道是否有人可以帮我弄清楚如何塑造我对“MobileNet SSD对象检测”的输入。你只得到......

回答 2 投票 1

如何在java中读取tensorflow模型的输出

我尝试将TensorflowLite与ssdlite_mobilenet_v2_coco模型一起使用,从https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/detection_model_zoo.md转换为tflite文件...

回答 1 投票 0

Swift:处理用于Firebase自定义TFLite模型的UIImage数据

我正在使用Swift,Firebase和Tensorflow来构建图像识别模型。我有一个经过重新训练的MobileNet模型,它将[1,224,224,3]的输入数组复制到我的Xcode包中,当我...

回答 1 投票 2

减少TFLite模型的尺寸?

我正在按照本指南(它使用初始作为基本模型)制作多标签图像分类模型:https://towardsdatascience.com/multi-label-image-classification-with -...

回答 2 投票 3

如何将TensorFlow Lite构建为静态库并从单独的(CMake)项目链接到它?

通过将我的源代码添加到tensorflow / lite / examples,我已经成功构建了一个运行TF Lite模型的简单C ++应用程序,类似于官方C ++ TF指南建议的完整TF。现在我要建立......

回答 1 投票 3

MLKit自定义模型中的预测不准确

尝试使用重新训练的MobileNet模型来预测犬种,但是当通过Firebase MLKit使用该模型时,它无法正确预测犬种。桌面型号和tflite ......

回答 1 投票 0

© www.soinside.com 2019 - 2024. All rights reserved.