其他音频功能提取技巧

问题描述 投票:1回答:1

我正在尝试使用Keras创建一个语音情感识别模型,我已经完成了所有代码并训练了模型。它大约有50%的验证并且过度拟合。

当我使用带有看不见数据的model.predict()时,似乎很难区分“中性”,“平静”,“快乐”和“惊讶”,但似乎能够在大多数情况下正确预测“愤怒”案例 - 我假设因为音高或其他方面存在明显差异。

我认为可能是因为我没有从这些情绪中获得足够的特征,这将有助于模型区分它们。

目前我正在使用Librosa并将音频转换为MFCC。有没有其他方法,即使使用Librosa,我可以做的是为模型提取功能,以帮助它更好地区分“中性”,“平静”,“快乐”,“惊讶”等?

一些特征提取代码:

wav_clip, sample_rate = librosa.load(file_path, duration=3, mono=True, sr=None)     
mfcc = librosa.feature.mfcc(wav_clip, sample_rate)

此外,这是1400个样本。

python machine-learning feature-extraction
1个回答
1
投票

初学者的一些观察:

  • 可能你有太少的样本来有效地使用神经网络。使用简单的入门算法来很好地理解模型如何进行预测。
  • 确保您有足够的(30%或更多)来自不同扬声器的样品放在一边进行最终测试。您只能使用此测试集一次,因此请考虑构建管道以生成训练集,验证集和测试集。确保不要将同一个扬声器放入1套以上。
  • 来自librosa的第一个系数为您提供AFAIK偏移量。我建议绘制你的功能如何与标签相关联以及它们重叠的距离,我猜想有些可能很容易混淆。查找是否有任何功能可以区分您的类。不要通过运行模型来做到这一点,先进行目视检查。

要实际的功能!你认为投球应该起到至关重要的作用是正确的。我建议检查aubio - 它有Python绑定。

Yaafe还提供一系列精选特色。

您最终可能会轻松获得150多项功能。您可能希望减少问题的维度,甚至可能将其压缩为2d并查看是否可以以某种方式分离类。 Here是我自己的Dash示例。

最后但并非最不重要的是,从音频中提取频率的一些基本代码。在这种情况下,我也试图找到三个峰值频率。

import numpy as np

def spectral_statistics(y: np.ndarray, fs: int, lowcut: int = 0) -> dict:
    """
    Compute selected statistical properties of spectrum
    :param y: 1-d signsl
    :param fs: sampling frequency [Hz]
    :param lowcut: lowest frequency [Hz]
    :return: spectral features (dict)
    """
    spec = np.abs(np.fft.rfft(y))
    freq = np.fft.rfftfreq(len(y), d=1 / fs)
    idx = int(lowcut / fs * len(freq) * 2)
    spec = np.abs(spec[idx:])
    freq = freq[idx:]

    amp = spec / spec.sum()
    mean = (freq * amp).sum()
    sd = np.sqrt(np.sum(amp * ((freq - mean) ** 2)))
    amp_cumsum = np.cumsum(amp)
    median = freq[len(amp_cumsum[amp_cumsum <= 0.5]) + 1]
    mode = freq[amp.argmax()]
    Q25 = freq[len(amp_cumsum[amp_cumsum <= 0.25]) + 1]
    Q75 = freq[len(amp_cumsum[amp_cumsum <= 0.75]) + 1]
    IQR = Q75 - Q25
    z = amp - amp.mean()
    w = amp.std()
    skew = ((z ** 3).sum() / (len(spec) - 1)) / w ** 3
    kurt = ((z ** 4).sum() / (len(spec) - 1)) / w ** 4

    top_peaks_ordered_by_power = {'stat_freq_peak_by_power_1': 0, 'stat_freq_peak_by_power_2': 0, 'stat_freq_peak_by_power_3': 0}
    top_peaks_ordered_by_order = {'stat_freq_peak_by_order_1': 0, 'stat_freq_peak_by_order_2': 0, 'stat_freq_peak_by_order_3': 0}
    amp_smooth = signal.medfilt(amp, kernel_size=15)
    peaks, height_d = signal.find_peaks(amp_smooth, distance=100, height=0.002)
    if peaks.size != 0:
        peak_f = freq[peaks]
        for peak, peak_name in zip(peak_f, top_peaks_ordered_by_order.keys()):
            top_peaks_ordered_by_order[peak_name] = peak

        idx_three_top_peaks = height_d['peak_heights'].argsort()[-3:][::-1]
        top_3_freq = peak_f[idx_three_top_peaks]
        for peak, peak_name in zip(top_3_freq, top_peaks_ordered_by_power.keys()):
            top_peaks_ordered_by_power[peak_name] = peak

    specprops = {
        'stat_mean': mean,
        'stat_sd': sd,
        'stat_median': median,
        'stat_mode': mode,
        'stat_Q25': Q25,
        'stat_Q75': Q75,
        'stat_IQR': IQR,
        'stat_skew': skew,
        'stat_kurt': kurt
    }
    specprops.update(top_peaks_ordered_by_power)
    specprops.update(top_peaks_ordered_by_order)
    return specprops
© www.soinside.com 2019 - 2024. All rights reserved.