如何在TF Lite中添加预处理步骤

问题描述 投票:1回答:2

我使用简单的虹膜数据,它有4个功能。我想在进入网络之前做一些预处理步骤。例如,我希望我的NN只接收3个功能,这两个功能是两个连续原始功能的平均值。

# x shape is 120 data x 4 features
tmp = np.zeros((x.shape[0],x.shape[1]-1))
for i in range(x.shape[1]-1):
    tmp[:,i] = (x[:,i]+x[:,i+1])/2.
x = deepcopy(tmp) # after preprocess its shape 120 x 3 features

我试图在input_function中添加这些步骤并将所有feature_columns形状的定义更改为3:

def input_function(x, y, is_train):

    tmp = np.zeros((x.shape[0],x.shape[1]-1))
    for i in range(x.shape[1]-1):
        tmp[:,i] = (x[:,i]+x[:,i+1])/2.
    x = deepcopy(tmp)

    dict_x = { "thisisinput" : x }

    dataset = tf.data.Dataset.from_tensor_slices((
        dict_x, y
    ))

    if is_train:
        dataset = dataset.shuffle(num_train).repeat(num_epoch).batch(num_train)
    else:   
        dataset = dataset.batch(num_test)

    return dataset

我训练分类器的方式:

feature_columns = [
    tf.feature_column.numeric_column(key="featurename",shape=3),
]

classifier = tf.estimator.DNNClassifier(
    feature_columns=feature_columns,
    hidden_units=[50, 20],
    n_classes=3,
    optimizer=tf.train.GradientDescentOptimizer(0.001),
    activation_fn=tf.nn.relu,
    model_dir = 'modeliris2/'
)

classifier.train(
    input_fn=lambda:input_function(xtrain, ytrain, True)
)

我的服务输入功能:

def my_serving_input_fn2():
    input_data = {
        "featurename" : tf.placeholder(tf.float32, [None, 3], name='inputtensors')
    }
    return tf.estimator.export.ServingInputReceiver(input_data, input_data)

它在我运行它时有效,但是如果我冻结模型然后用它来预测,它就不起作用了。它说:

ValueError:无法为Tensor'import / inputtensors:0'提供shape(1,4)的值,其形状为'(?,3)'

如果我将feature_columns上的my_serving_input_fn更改为[None,4],冻结模型后仍会出现错误:

InvalidArgumentError(参见上面的回溯):重塑的输入是一个有4个值的张量,但请求的形状有3个

我的问题,如果我需要在我的模型中包含任何预处理或特征工程步骤(如信号预处理中的MFCC等),我应该把它放在哪里?我的方法是否正确?为什么会发生错误?还是有更好的解决方案?

还有一个问题,如果在我的预处理步骤中我需要包含外部文件(如文本预处理中的停用词列表等),是否仍然可以使用TF lite包含这些文件进行预处理?

python tensorflow tensorflow-estimator tensorflow-lite
2个回答
1
投票

从技术上讲,您可以将预处理步骤放在两个位置。我将以tflite为例。

  1. 在模型外部进行预处理。这意味着你的驱动程序中有一个mfcc: model = new model(CNN, RNN, ...) while(stream) { energy = mfcc(audio) model.invoke(energy) }
  2. 如果预处理步骤已经是Op(通常不是......),则可以在模型中包含Op: model = new model(MFCC, CNN, RNN, ...) while(stream) { model.invoke(audio) }

话虽这么说,选项1是最平易近人的。希望能帮助到你。


0
投票

在这种情况下,预处理在python中进行。因此,如果要在python中调用TF Lite图形,则可以使用任何python原语。

© www.soinside.com 2019 - 2024. All rights reserved.