将模型加载到Tensorflow服务容器中,并使用protobufs与其进行通信

问题描述 投票:1回答:1

我知道如何将模型加载到tensorflow服务容器中并通过http请求与它通信但我对如何使用protobufs感到有点困惑。使用protobufs有哪些步骤?我只需将模型加载到容器中并使用如下所示的内容:

from tensorflow_serving.apis import 

request = predict_pb2.PredictRequest()
request.model_spec.name = 'resnet'
request.model_spec.signature_name = 'serving_default' 

或者在加载模型之后/之前我必须做一些额外的步骤?

tensorflow keras tensorflow-serving
1个回答
1
投票

以下是在Python中对gRPC进行推理调用的示例代码:

resnet_client_grpc.py

在上面的同一文件夹中,您将找到调用REST端点的示例。

© www.soinside.com 2019 - 2024. All rights reserved.