我如何将onnx模型转换为tensorflow保存的模型?

问题描述 投票:0回答:1

我正在尝试使用tf-serving部署我的火炬模型。我已将我的火炬模型导出到onnx。如何生成用于tf服务的PB模型?

tensorflow tensorflow-serving onnx
1个回答
0
投票

[将onnx/onnx-tensorflow转换器工具用作ONNX的Tensorflow后端。

  1. 安装onnx-tensorflow:pip install onnx-tf

  2. 使用命令行工具转换:onnx-tf convert -t tf -i /path/to/input.onnx -o /path/to/output.pb

或者,您可以通过python API进行转换。

import onnx

from onnx_tf.backend import prepare

onnx_model = onnx.load("input_path")  # load onnx model
tf_rep = prepare(onnx_model)  # prepare tf representation
tf_rep.export_graph("output_path")  # export the model
© www.soinside.com 2019 - 2024. All rights reserved.