如何在tf.estimator.Estimator中使用tensorboard

问题描述 投票:9回答:4

我正在考虑将我的代码库移动到tf.estimator.Estimator,但我找不到一个如何将它与tensorboard摘要结合使用的示例。

MWE:

import numpy as np
import tensorflow as tf

tf.logging.set_verbosity(tf.logging.INFO)

# Declare list of features, we only have one real-valued feature
def model(features, labels, mode):
    # Build a linear model and predict values
    W = tf.get_variable("W", [1], dtype=tf.float64)
    b = tf.get_variable("b", [1], dtype=tf.float64)
    y = W*features['x'] + b
    loss = tf.reduce_sum(tf.square(y - labels))

    # Summaries to display for TRAINING and TESTING
    tf.summary.scalar("loss", loss)    
    tf.summary.image("X", tf.reshape(tf.random_normal([10, 10]), [-1, 10, 10, 1])) # dummy, my inputs are images

    # Training sub-graph
    global_step = tf.train.get_global_step()
    optimizer = tf.train.GradientDescentOptimizer(0.01)
    train = tf.group(optimizer.minimize(loss), tf.assign_add(global_step, 1))

    return tf.estimator.EstimatorSpec(mode=mode, predictions=y,loss= loss,train_op=train)

estimator = tf.estimator.Estimator(model_fn=model, model_dir='/tmp/tf')
# define our data set
x=np.array([1., 2., 3., 4.])
y=np.array([0., -1., -2., -3.])
input_fn = tf.contrib.learn.io.numpy_input_fn({"x": x}, y, 4, num_epochs=1000)

for epoch in range(10):
    # train
    estimator.train(input_fn=input_fn, steps=100)
    # evaluate our model
    estimator.evaluate(input_fn=input_fn, steps=10)

如何在tensorboard中显示我的两个摘要?我是否必须注册我使用tf.summary.FileWriter或其他东西的钩子?

python-3.x tensorflow tensorboard
4个回答
14
投票

编辑:经过测试(在v1.1.0中,也可能在更高版本中),很明显tf.estimator.Estimator会自动为你编写摘要。我使用OP的代码和张量板证实了这一点。

(有些人在r1.4附近引导我得出结论,这个自动摘要写作是由于tf.train.MonitoredTrainingSession而发生的。)

最终,自动摘要是通过使用钩子完成的,因此如果您想自定义Estimator的默认摘要,您可以使用钩子来完成。以下是原始答案中的(编辑过的)详细信息。


你会想要使用钩子,以前称为monitors。 (链接是一个概念/快速入门指南;缺点是挂钩/监控培训的概念内置于Estimator API中。虽然有点令人困惑,但似乎并不是对挂钩的监视器的弃用是真的记录在实际源代码中的弃用注释除外...)

根据您的使用情况,看起来r1.2的SummarySaverHook适合您的账单。

summary_hook = tf.train.SummarySaverHook(
    SAVE_EVERY_N_STEPS,
    output_dir='/tmp/tf',
    summary_op=tf.summary.merge_all())

您可能希望自定义钩子的初始化参数,例如通过提供明确的SummaryWriter或每N秒写入而不是N步骤。

如果您将其传递到EstimatorSpec,您将获得自定义的摘要行为:

return tf.estimator.EstimatorSpec(mode=mode, predictions=y,loss=loss,
                                  train_op=train,
                                  training_hooks=[summary_hook])

编辑注意:此答案的先前版本建议将summary_hook传递给estimator.train(input_fn=input_fn, steps=5, hooks=[summary_hook])。这不起作用,因为必须在与模型图相同的上下文中调用tf.summary.merge_all()


8
投票

对我来说这没有添加任何钩子或merge_all电话工作。我刚刚在我的tf.summary.image(...)中添加了一些model_fn,当我训练模型时,他们神奇地出现在张量板中。但是,不确定具体机制是什么。我正在使用TensorFlow 1.4。


2
投票

estimator = tf.estimator.Estimator(model_fn=model, model_dir='/tmp/tf')

代码model_dir='/tmp/tf'意味着estimator将所有日志写入/tmp/tf,然后运行tensorboard --log.dir=/tmp/tf,用url打开浏览器:http://localhost“6006,你可以看到图形


1
投票

您可以使用SummarySaverHook创建一个tf.summary.merger_all()作为model_fn本身的summary_op。将此钩子传递给model_fn中training_hooks构造函数的EstimatorSpec参数。

我不认为@jagthebeetle所说的在这里完全适用。由于你转移到estimator.train方法的钩子无法为你在model_fn中定义的摘要运行,因为它们不会被添加到merge_all op中,因为它们仍然受model_fn范围的限制

© www.soinside.com 2019 - 2024. All rights reserved.