tensorflow-serving 相关问题

TensorFlow Serving是一种灵活的高性能服务系统,适用于机器学习模型,专为生产环境而设计。 TensorFlow服务可以轻松部署新算法和实验,同时保持相同的服务器架构和API。 TensorFlow Serving提供与TensorFlow模型的开箱即用集成,但可以轻松扩展以提供其他类型的模型和数据。

如何使用Docker和DigitalOcean Spaces部署TensorFlow服务

您如何配置TensorFlow Serving使用存储在DigitalOcean Spaces中的文件?解决方案很重要:提供对配置文件和模型文件的访问,提供非公共...

回答 1 投票 0

是否有一个model.config文件用于张量流服务以在主机上返回所有模型

我遵循了tensorflow服务的说明,使用docker可以通过指定3个模型的版本来运行它们。但是作为主机的输出,我只能得到该模型的最新版本。是...

回答 1 投票 0

使用张量流服务进行图像分割的示例

有没有人研究过如何将张量流服务用于图像分割任务的模板示例?感谢您是否可以共享代码或共享一些想法。

回答 1 投票 2

如何使用tensorflow抓斗器?

我正在尝试通过应用抓钩器来优化我的tensorflow模型的服务性能,我正在研究C ++ tensorflow-serving服务。 AFAIK,我应该在LoadSavedModel之后执行抓斗器工作。但是我'...

回答 1 投票 0

我如何允许将文本输入到TensorFlow模型?

我正在使用TensorFlow中的自定义文本分类模型,现在想使用TensorFlow进行设置以用于生产部署。该模型基于文本嵌入进行预测...

回答 1 投票 1

为什么可以使用多个值设置环境变量TF_CUDA_COMPUTE_CAPABILITIES?

环境变量TF_CUDA_COMPUTE_CAPABILITIES可以设置为:TF_CUDA_COMPUTE_CAPABILITIES = 3.0,3.5,5.2,7.0,7.5,为什么可以使用多个值设置?

回答 2 投票 0

TensorFlow服务REST API-JSON解析错误

我已经冻结并导出了SavedModel,根据Saved_model_cli,该视频将一批具有以下格式的视频作为输入:给定的SavedModel SignatureDef包含以下内容...

回答 1 投票 0

Tensorflow服务错误“ {”错误”:“格式错误的请求:POST / v1 / models / cloths:predict

我正在尝试使用张量流服务预测图像类别。我已经使用了docker容器并在服务器中部署了模型。现在docker容器正在运行,当尝试将发布请求发送到...

回答 1 投票 0

python中的RESTful API请求[tensorflow服务]

OS:Window 10 Tensorflow:V2,我在此视频中使用了Tensorflow与docker服务https://www.youtube.com/watch?v=uabNEQlpGM8 powershell中的代码:docker pull tensorflow / serving mkdir ...

回答 1 投票 1

tf服务部署两个模型

我有两个不同的张量流模型A和B,模型A的输出将作为输入送入模型B。它们都需要通过tf服务进行部署。我需要打两次grpc或http ...

回答 1 投票 0

Tensorflow 2.0将用于nlp的预处理tonkezier保存到tensorflow服务器中

我已经训练了tensforflow 2.0 keras模型来进行一些自然语言处理。我要做的基本上是获取不同新闻的标题并预测它们属于哪个类别。在...

回答 1 投票 1

如何运行TensorArray操作?

我想通过tf.Session()评估tf.TensorArray创建的TensorArray操作的输出:ta = tf.TensorArray(dtype = tf.float32,size = 2):ta_output = tf.get_default_graph()。 ..

回答 1 投票 0

使用Tensorflow服务和SavedModel估算器获取模型说明

我训练了BoostedTreesClassifier,并希望使用本教程中介绍的“方向性特征贡献”。基本上,它可以让您“解释”模型的预测和度量...

回答 1 投票 7

Sagemaker:指定自定义入口点会导致找不到错误

我正在尝试将使用tensorflow训练的对象检测模型部署到sagemaker。我能够在模型创建过程中部署它而无需指定任何入口点,但事实证明,这样做是......>

回答 1 投票 0

Tensorflow服务错误,服务于Tensorflow 1.5版模型

运行docker容器中的Tensorflow服务时获取以下错误消息2019-12-12 03:25:13.947401:我tensorflow_serving / model_servers / server.cc:85]构建单个TensorFlow模型...

回答 1 投票 0

使用带有ssl配置的tensorflow_model_server

我在配置tensorflow以使用ssl证书时遇到了麻烦。在本地计算机上运行实验。我正在使用的tensorflow环境是在tensorflow / serving中指定的:1 ....

回答 1 投票 1

我如何将onnx模型转换为tensorflow保存的模型?

我正在尝试使用tf-serving部署我的火炬模型。我已将我的火炬模型导出到onnx。如何生成用于tf服务的PB模型?

回答 1 投票 0

Tensorflow-serving找不到元图定义

我正在尝试使用tensorflow-serving(如果有任何区别,请加载到docker上,以服务于经过训练的Tensorflow模型)。

回答 1 投票 0

当副本包含空格时如何使用bazel交叉编译docker build图像上的tensorflow-serving

背景信息我想在不支持标准tensorflow构建中使用的现代cpu指令的某些较旧的机器(目标系统)上运行tensorflow-serving。我用了这些...

回答 1 投票 1


© www.soinside.com 2019 - 2024. All rights reserved.