tensorflow-serving 相关问题

TensorFlow Serving是一种灵活的高性能服务系统,适用于机器学习模型,专为生产环境而设计。 TensorFlow服务可以轻松部署新算法和实验,同时保持相同的服务器架构和API。 TensorFlow Serving提供与TensorFlow模型的开箱即用集成,但可以轻松扩展以提供其他类型的模型和数据。

Tensorflow服务-找不到:操作类型未注册'GatherTree'

我只是一个新手。在这种情况下,我在服务tensorflow模型时遇到问题:I.使用此http://opennmt.net/OpenNMT-tf/quickstart.html训练模型。二。为模型提供以下服务...

回答 1 投票 0

使用张量流服务时的数据处理(Docker / Kubernetes)

我希望托管5个深度学习模型,其中需要进行数据预处理/后处理。使用TF服务(和Kubernetes管理容器)托管每个模型似乎很简单,...

回答 2 投票 1

TensorFlow Serving是否正式支持TF2.0中的所有模型

从tensorflow服务的发布历史来看,最新版本是1.14.0。它使用的是TensorFlow 1.14.0。我找不到使用TensorFlow 2.0的发行版本。我想知道TFServing ...

回答 1 投票 0

[部署keras模型使用tensorflow服务获得了501服务器错误:未针对url实现:http:// localhost:8501 / v1 / models / genre:predict

我使用SavedModelBuilder将keras .h5模型保存为.pb。在使用tensorflow / serving:1.14.0的docker映像部署我的模型后,当我运行预测过程时,我得到了“ requests.exceptions.HTTPError:501 ...

回答 1 投票 0

TF-如何正确设置模型签名以便与Docker一起使用?

我正在尝试了解如何设置用于与docker服务的TF模型。我负责安装docker,我知道如何将训练有素的模型导出为.pb。我不明白的是如何正确定义...

回答 1 投票 0

[对象检测模型-tensorflow服务-部署k8s:需要3-4秒的时间]]

我有一个TensorFlow对象检测模型,与TensorFlow服务一起使用,并已部署到Azure Kubernetes群集中。我使用了具有TensorFlow / serving:1.12.3:gpu版本的Nvidia K80 GPU设备。...

回答 1 投票 0

如何将TensorFlow用作Azure容器实例并传递docker命令

我通常使用以下命令运行TensorFlow Serving Docker镜像:docker run -p 8500:8500 \ --mount type = bind,source = / mnt / docker / models,target = / models \ --mount type = bind,source = / mnt / docker / configs / ...

回答 1 投票 1

在使用TF 2.0的Tensorflow / Keras模型中使用嵌入层问题

我按照TF初学者教程之一的步骤创建了一个简单的分类模型。它们是以下内容:从__future__导入absolute_import,division,print_function,...

回答 2 投票 7


Tensorflow服务类型:对象不是预期的类型:uint8

因此,我正在尝试通过张量流服务为COCO服务,如果我检查模型,则会得到以下信息:signature_def ['serving_default']:给定的SavedModel SignatureDef包含以下输入:...

回答 1 投票 0

tf.estimator服务函数失败

我正在使用tf.estimator训练并服务我的张量流模型。培训已按预期完成,但无法提供服务。我将数据读取为TFRecordDataset。我的解析函数应用了...

回答 1 投票 0

Tensorflow服务-同一模型的更多名称

我想将两个不同的URL重定向到同一模型请求,这样就无需创建另一个base_path或版本。如果我将配置文件写为波纹管,是否将模型缓存两次?模型....

回答 1 投票 0

Docker容器是否未列出我提取的容器?

我拉docker-for-windows Windows Linux容器PS C:\ WINDOWS \ system32中的tensorflow / serving> docker pull tensorflow / serving使用默认标签:最新最新:从tensorflow / serving摘要中提取:...

回答 2 投票 0

Tensorflow服务示例是否应具有10%的错误率?

我遵循了文档,首先构建了一个优化的可服务二进制文件,然后测试了开发环境,然后得出推断错误率:10.4%是否期望重新安装发行版本的...

回答 2 投票 1

使用docker服务多个张量流模型

已经看过这个github问题和这个stackoverflow帖子,我希望这会简单地起作用。似乎传入环境变量MODEL_CONFIG_FILE似乎没有任何影响。我正在运行此...

回答 3 投票 6

如何建立tensorflow models.config服务

我想在tensorflow服务托管多个型号。 Tensorflow送达文件指出:创建一个包含ASCII ModelServerConfig协议缓存文件。但我不能够建立这样...

回答 1 投票 0

如何使用tensorflow服务?

我正在学习使用Tensorflow服务,但我有一个很很难找到的例子包括#2。我正在使用TensorFlow网站花例子。训练部分是成功的,...

回答 1 投票 2

TensorFlow 0.12模型文件

我训练的模型,并使用保存:保护= tf.train.Saver()saver.save(会话,“./my_model_name”)除了检查点文件,它只是包含指向最近的检查站...

回答 2 投票 4

从tensorflow培训谷歌CloudML部署单独创建一个服务图?

我试图部署tf.keras图像分类模型,以谷歌CloudML引擎。我必须包括代码来创建单独的训练服图形得到它为我的模型在Web ...

回答 1 投票 1

使用nginx服务的不同张量流之间的负载平衡

是否可以使用nginx在多个tensorflow服务器之间进行负载平衡。我知道tensorflow服务使用的是使用http / 2的gRPC。我尝试使用开箱即用的nginx,但它没有用。 ...

回答 1 投票 0

© www.soinside.com 2019 - 2024. All rights reserved.