我正在阅读有关使用 MLflow 时开箱即用的部署工具的内容。
看来你可以通过执行类似的操作来从注册表中提供模型
mlflow models serve -m runs:/<run_id>/model <some server>:<some port>
.
然后,您发送一些数据并通过执行操作返回预测
curl http:/<some server>:<some port>/invocations -H 'Content-Type: application/json' -d '{
"inputs": {<some data>}
}'.
这很棒,但这是否意味着您只能在一个端口上提供一种模型?这是最佳实践还是技术限制?