tensorflow-serving 相关问题

TensorFlow Serving是一种灵活的高性能服务系统,适用于机器学习模型,专为生产环境而设计。 TensorFlow服务可以轻松部署新算法和实验,同时保持相同的服务器架构和API。 TensorFlow Serving提供与TensorFlow模型的开箱即用集成,但可以轻松扩展以提供其他类型的模型和数据。

sagemaker.tensorflow.serving预测失败,出现502错误

我使用以下代码部署了一个tensorflow saved_model:`model_path ='s3://'+ sagemaker_session.default_bucket()+'/model/model.tar.gz'from sagemaker.tensorflow.serving导入模型...

回答 1 投票 1


接受base64图像作为TensorFlow模型的输入

我正在尝试导出我的TensorFlow图像分类模型,以使其接受base64字符串作为输入。我已经尝试实现此问题上提供的解决方案,但是我是...

回答 1 投票 0

TensorFlow模型服务器GPU构建-cudnn路径

我正在尝试从RedHat机器上的源代码构建TensorFlow模型服务器。我没有sudo特权,并且cudnn不在默认目录中。有没有一种方法可以指定cudnn路径...

回答 1 投票 0

TensorFlow服务无法通过预测

按照https://www.tensorflow.org/tutorials/images/hub_with_keras的指南进行操作,得到了一个SavedModel,我想将其用于TF服务。目前,我无法使用TF ...

回答 1 投票 0

如何使用tensorflow saved_model.load

这是加载模型所需要的

回答 1 投票 0

在CPP中运行张量流模型

我使用tf.keras训练了模型。我将此模型转换为'.pb',从tensorflow.keras导入os导入tensorflow作为tf从tensorflow.keras.models导入后端为K K.set_learning_phase(0)...

回答 1 投票 0

如何为TensorFlow服务REST请求准备一个TensorFlow Hub模型(带有base64编码的图像?

我遵循以下建议,在较老的keras ResNet50-ImageNet-Classifier上进行手术以从TensorFlow Serving获得预测方面取得了一些成功:如何准备好模型...

回答 1 投票 1

URL Tensorflow服务Python请求超出了最大重试次数

我已经训练了自己的模型,并使用以下代码运行了docker容器:docker run -t --rm -d -p 8501:8501 -v“%cd%/ serving / tensorflow_serving / servables / tensorflow / testdata / optik_gpu:/ models / ...

回答 1 投票 0

从源构建Tensorflow服务时出错

我正在从适合我的CPU的源构建Tensorflow服务。我正在使用发布分支1.14和Bazel版本0.26.1。我使用以下命令来构建它:tools / run_in_docker.sh bazel ...

回答 1 投票 1

tensorflow对象检测api评估分割错误

无论评估何时开始,无论我使用object_detection / legacy / eval.py脚本还是object_detection / model_main.py,我都存在细分错误。我试图重新安装tensorflow,protobuf-compiler和...

回答 1 投票 1

调试在BERT模型上使用的TensorFlow

我能够按照此示例使用BERT嵌入来部署NLP模型(在CPU和tensorflow-model-server上使用TF 1.14.0):https://mc.ai/how-to-ship-machine-learning-进入生产模型...

回答 1 投票 0

Tensorflow服务变量文件

我将要做张量流服务。 pb文件和变量文件夹已创建。但没有在变量文件夹下创建文件。像这样└──变量├──变量.data-00000-of-00001 ...

回答 1 投票 1

在张量流服务中提高非常大的输入/输出图像的性能

我们在tensorflow中有一个模型,它以uint16格式将非常大的图像(> 40MPx)作为输入。模型输出相同大小的图像,并在定制编译的带GPU的tf服务上运行。最大的问题似乎是...

回答 2 投票 1

试图保存张量流模型,但未能创建目录“无法创建目录:/ tmp / serving_savemodel \ 1565577669”

我正在尝试保存DNN分类器模型,以便生成一个tflite模型,但是在最后一行中,当尝试导出到目录时,出现以下错误:无法创建目录:/ tmp / ...

回答 1 投票 0

grpc请求和响应前面多出的5个字节是什么

我正在将tensorflow-serving用于深度学习模型服务器,这是grpc服务。为了跟踪服务器的请求和响应,在服务器和客户端中间有一个代理。 ...

回答 1 投票 0

编译自定义gpu op的Tensorflow在编译时找不到依赖项

我放弃了为Tensorflow制作自定义gpu op的指南,并且可以共享lib。对于张量流服务,我调整了必需的路径,但是在构建时出现错误:错误:/ home / g360 / Documents / ...

回答 1 投票 0

在TF服务示例中如何理解gRPC从客户端发出的并发请求?

根据服务TensorFlow模型的背景,mnist客户端中的程序是关于与加载mnist模型的tensorflow_model_server进行通信的客户端。客户端下载测试...

回答 1 投票 0

在轮询s3的配置文件时,Tensorflow服务模型服务器不断重新添加相同的模型

我正在使用Tensorflow Serving运行存储在s3存储桶中的模型。我还将模型配置文件保存在单独的s3存储桶中。我的用例是为了动态添加模型...

回答 1 投票 1

无法使用tf.train.import_meta_graph导入元图,名称''表示图中未包含的操作

OS平台和发行版:Ubuntu 18.04 tf.VERSION = 1.13.1 tf.GIT_VERSION = b'v1.13.1-0-g6612da8951'...

回答 1 投票 1

© www.soinside.com 2019 - 2024. All rights reserved.