事实上,我们正在创建一个平台,以便能够将AI用例投入生产。TFX是首选,但如果我们想使用非基于tensorflow的库,如scikit learn等,并希望包含一个python脚本来创建模型。这样的模型的输出是否会被tensorflow服务器服务。如何保证在一个系统设计中既能运行基于tensorflow的模型,又能运行基于非tensorflow的库和模型。请大家提出建议。
下面提到的是程序 Deploy
和 Serve
a Sci-kit Learn Model
在 Google Cloud Platform
.
第一步是使用下面的代码保存导出SciKit学习模型。
from sklearn.externals import joblib
joblib.dump(clf, 'model.joblib')
下一步是上传 model.joblib
归档 Google Cloud Storage.
之后,我们需要创建我们的模型和版本,指定我们要加载一个 scikit-learn model
,并选择 runtime version
的 Cloud ML engine
的版本,以及 Python
我们用来导出这个模型。
接下来,我们需要将数据呈现给 Cloud ML Engine
作为一个简单的数组,编码为json文件,如下图所示。我们可以使用 JSON Library
以及。
print(list(X_test.iloc[10:11].values))
接下来,我们需要运行下面的命令来进行推理。
gcloud ml-engine predict --model $MODEL_NAME --version $VERSION_NAME --json-instances $INPUT_FILE
更多信息,请参考 这个环节.