我成功地将自定义对象检测模型导出到已保存的模型(saved_model_cli命令输出Signature def)。另外,当我在jupyter笔记本上测试模型时,推理起作用。但是,我正在尝试将此模型用于预测,但是当我在本地测试时使用:
gcloud ml-engine local predict --model-dir=$LOCATION_TO_SAVED_MODEL --json-instances=$JSONFILE_CONTAINING_INPUTS
该命令不输出任何错误,也没有错误调试。不确定我做错了什么。
有一个张量流版本问题(使用tf 1.11而不是tf 1.9)。非常奇怪,我在云上部署模型后能够弄明白。此外,理想情况下,推理应适用于任何版本> = tf 1.9。不确定为什么它没有谷歌的ML引擎。
原因是因为运行时版本应该兼容以支持您正在使用的张量流
运行时版本1.13支持CPU和GPU的TensorFlow 1.13.1。支持GPU进行培训,但不支持此运行时版本中的批量预测或在线预测。
请参阅以下链接以了解有关运行时版本的详细信息
访问https://cloud.google.com/ml-engine/docs/tensorflow/runtime-version-list
在部署模型时,您是否指定了--runtime-version?如果您没有指定它们,AI Platform使用默认版本1.0
https://cloud.google.com/ml-engine/docs/tensorflow/runtime-version-list