我已经导出了一个DNNClassifier模型,并使用docker在tensorflow服务器上运行它。之后我编写了一个python客户端来与该tensorflow进行交互,为新的预测服务。
我编写了以下代码来获取tensorflow服务器的响应。
host, port = FLAGS.server.split(':')
channel = implementations.insecure_channel(host, int(port))
stub = prediction_service_pb2.beta_create_PredictionService_stub(channel)
request = predict_pb2.PredictRequest()
request.model_spec.name = FLAGS.model
request.model_spec.signature_name = 'serving_default'
feature_dict = {'a': _float_feature(value=400),
'b': _float_feature(value=5),
'c': _float_feature(value=200),
'd': _float_feature(value=30),
'e': _float_feature(value=60),
'f': _float_feature(value=5),
'g': _float_feature(value=7500),
'h': _int_feature(value=1),
'i': _int_feature(value=1234),
'j': _int_feature(value=1),
'k': _int_feature(value=4),
'l': _int_feature(value=1),
'm': _int_feature(value=0)}
example= tf.train.Example(features=tf.train.Features(feature=feature_dict))
serialized = example.SerializeToString()
request.inputs['inputs'].CopyFrom(
tf.contrib.util.make_tensor_proto(serialized, shape=[1]))
result_future = stub.Predict.future(request, 5.0)
print(result_future.result())
您可以执行以下操作
result = stub.Predict(request, 5.0)
float_val = result.outputs['outputs'].float_val
请注意,此方法调用stub.Predict
而不是stub.Predict.future
如果您有多个输出,则执行以下操作,基本上创建一个字典,其中的键对应于输出,并且值对应于模型返回的列表。
results = dict()
for output in output_names:
results[output] = response.outputs[output].float_val