torchaudio 教程

标题: https://pytorch.org/tutorials/beginner/audio_preprocessing_tutorial.html

注意

单击此处的下载完整的示例代码

PyTorch 是一个开源深度学习平台,提供了从研究原型到具有 GPU 支持的生产部署的无缝路径。

解决机器学习问题的巨大努力在于数据准备。 torchaudio充分利用了 PyTorch 的 GPU 支持,并提供了许多工具来简化数据加载并使其更具可读性。 在本教程中,我们将看到如何从简单的数据集中加载和预处理数据。

对于本教程,请确保已安装matplotlib软件包,以便于查看。

  1. import torch
  2. import torchaudio
  3. import matplotlib.pyplot as plt

开启档案

torchaudio还支持以 wav 和 mp3 格式加载声音文件。 我们将波形称为原始音频信号。

  1. filename = "../_static/img/steam-train-whistle-daniel_simon-converted-from-mp3.wav"
  2. waveform, sample_rate = torchaudio.load(filename)
  3. print("Shape of waveform: {}".format(waveform.size()))
  4. print("Sample rate of waveform: {}".format(sample_rate))
  5. plt.figure()
  6. plt.plot(waveform.t().numpy())

../_images/sphx_glr_audio_preprocessing_tutorial_001.png

出:

  1. Shape of waveform: torch.Size([2, 276858])
  2. Sample rate of waveform: 44100

torchaudio中加载文件时,可以选择指定后端以通过torchaudio.set_audio_backend使用 SoXSoundFile 。 这些后端在需要时会延迟加载。

torchaudio还使 JIT 编译对于功能是可选的,并在可能的情况下使用nn.Module

转变

torchaudio支持不断增长的转换列表。

  • 重采样:将波形重采样为其他采样率。
  • 频谱图:从波形创建频谱图。
  • GriffinLim :使用 Griffin-Lim 转换从线性比例幅度谱图计算波形。
  • ComputeDeltas :计算张量(通常是声谱图)的增量系数。
  • ComplexNorm :计算复数张量的范数。
  • MelScale :使用转换矩阵将正常 STFT 转换为 Mel 频率 STFT。
  • AmplitudeToDB :这将频谱图从功率/振幅标度变为分贝标度。
  • MFCC :根据波形创建梅尔频率倒谱系数。
  • MelSpectrogram :使用 PyTorch 中的 STFT 功能从波形创建 MEL 频谱图。
  • MuLawEncoding :基于 mu-law 压扩对波形进行编码。
  • MuLawDecoding :解码 mu-law 编码波形。
  • TimeStretch :在不更改给定速率的音高的情况下,及时拉伸频谱图。
  • FrequencyMasking :在频域中对频谱图应用屏蔽。
  • TimeMasking :在时域中对频谱图应用屏蔽。

每个变换都支持批处理:您可以对单个原始音频信号或频谱图或许多相同形状的信号执行变换。

由于所有变换都是nn.Modulesjit.ScriptModules,因此它们可以随时用作神经网络的一部分。

首先,我们可以以对数刻度查看频谱图的对数。

  1. specgram = torchaudio.transforms.Spectrogram()(waveform)
  2. print("Shape of spectrogram: {}".format(specgram.size()))
  3. plt.figure()
  4. plt.imshow(specgram.log2()[0,:,:].numpy(), cmap='gray')

../_images/sphx_glr_audio_preprocessing_tutorial_002.png

Out:

  1. Shape of spectrogram: torch.Size([2, 201, 1385])

或者我们可以以对数刻度查看梅尔光谱图。

  1. specgram = torchaudio.transforms.MelSpectrogram()(waveform)
  2. print("Shape of spectrogram: {}".format(specgram.size()))
  3. plt.figure()
  4. p = plt.imshow(specgram.log2()[0,:,:].detach().numpy(), cmap='gray')

../_images/sphx_glr_audio_preprocessing_tutorial_003.png

Out:

  1. Shape of spectrogram: torch.Size([2, 128, 1385])

我们可以一次对一个通道重新采样波形。

  1. new_sample_rate = sample_rate/10
  2. # Since Resample applies to a single channel, we resample first channel here
  3. channel = 0
  4. transformed = torchaudio.transforms.Resample(sample_rate, new_sample_rate)(waveform[channel,:].view(1,-1))
  5. print("Shape of transformed waveform: {}".format(transformed.size()))
  6. plt.figure()
  7. plt.plot(transformed[0,:].numpy())

../_images/sphx_glr_audio_preprocessing_tutorial_004.png

Out:

  1. Shape of transformed waveform: torch.Size([1, 27686])

作为变换的另一个示例,我们可以基于 Mu-Law 编码对信号进行编码。 但是要做到这一点,我们需要信号在-1 和 1 之间。由于张量只是一个常规的 PyTorch 张量,因此我们可以在其上应用标准运算符。

  1. # Let's check if the tensor is in the interval [-1,1]
  2. print("Min of waveform: {}\nMax of waveform: {}\nMean of waveform: {}".format(waveform.min(), waveform.max(), waveform.mean()))

Out:

  1. Min of waveform: -0.572845458984375
  2. Max of waveform: 0.575958251953125
  3. Mean of waveform: 9.293758921558037e-05

由于波形已经在-1 和 1 之间,因此我们不需要对其进行归一化。

  1. def normalize(tensor):
  2. # Subtract the mean, and scale to the interval [-1,1]
  3. tensor_minusmean = tensor - tensor.mean()
  4. return tensor_minusmean/tensor_minusmean.abs().max()
  5. # Let's normalize to the full interval [-1,1]
  6. # waveform = normalize(waveform)

让我们对波形进行编码。

  1. transformed = torchaudio.transforms.MuLawEncoding()(waveform)
  2. print("Shape of transformed waveform: {}".format(transformed.size()))
  3. plt.figure()
  4. plt.plot(transformed[0,:].numpy())

../_images/sphx_glr_audio_preprocessing_tutorial_005.png

Out:

  1. Shape of transformed waveform: torch.Size([2, 276858])

现在解码。

  1. reconstructed = torchaudio.transforms.MuLawDecoding()(transformed)
  2. print("Shape of recovered waveform: {}".format(reconstructed.size()))
  3. plt.figure()
  4. plt.plot(reconstructed[0,:].numpy())

../_images/sphx_glr_audio_preprocessing_tutorial_006.png

Out:

  1. Shape of recovered waveform: torch.Size([2, 276858])

我们最终可以将原始波形与其重建版本进行比较。

  1. # Compute median relative difference
  2. err = ((waveform-reconstructed).abs() / waveform.abs()).median()
  3. print("Median relative difference between original and MuLaw reconstucted signals: {:.2%}".format(err))

Out:

  1. Median relative difference between original and MuLaw reconstucted signals: 1.28%

功能性

上面看到的转换依赖于较低级别的无状态函数进行计算。 这些功能在torchaudio.functional下可用。 完整列表位于,此处为,包括:

  • istft :短时傅立叶逆变换。
  • 增益:对整个波形进行放大或衰减。
  • 抖动:增加以特定位深度存储的音频的动态范围。
  • compute_deltas :计算张量的增量系数。
  • equalizer_biquad :设计双二阶峰均化器滤波器并执行滤波。
  • lowpass_biquad :设计双二阶低通滤波器并执行滤波。
  • highpass_biquad :设计双二阶高通滤波器并执行滤波。

例如,让我们尝试 <cite>mu_law_encoding</cite> 功能:

  1. mu_law_encoding_waveform = torchaudio.functional.mu_law_encoding(waveform, quantization_channels=256)
  2. print("Shape of transformed waveform: {}".format(mu_law_encoding_waveform.size()))
  3. plt.figure()
  4. plt.plot(mu_law_encoding_waveform[0,:].numpy())

../_images/sphx_glr_audio_preprocessing_tutorial_007.png

Out:

  1. Shape of transformed waveform: torch.Size([2, 276858])

您可以看到从torchaudio.functional.mu_law_encoding的输出与从torchaudio.transforms.MuLawEncoding的输出相同。

现在,让我们尝试其他一些功能并将其输出可视化。 通过我们的频谱图,我们可以计算出其增量:

  1. computed = torchaudio.functional.compute_deltas(specgram, win_length=3)
  2. print("Shape of computed deltas: {}".format(computed.shape))
  3. plt.figure()
  4. plt.imshow(computed.log2()[0,:,:].detach().numpy(), cmap='gray')

../_images/sphx_glr_audio_preprocessing_tutorial_008.png

Out:

  1. Shape of computed deltas: torch.Size([2, 128, 1385])

我们可以获取原始波形并对其应用不同的效果。

  1. gain_waveform = torchaudio.functional.gain(waveform, gain_db=5.0)
  2. print("Min of gain_waveform: {}\nMax of gain_waveform: {}\nMean of gain_waveform: {}".format(gain_waveform.min(), gain_waveform.max(), gain_waveform.mean()))
  3. dither_waveform = torchaudio.functional.dither(waveform)
  4. print("Min of dither_waveform: {}\nMax of dither_waveform: {}\nMean of dither_waveform: {}".format(dither_waveform.min(), dither_waveform.max(), dither_waveform.mean()))

Out:

  1. Min of gain_waveform: -1.0186792612075806
  2. Max of gain_waveform: 1.024214744567871
  3. Mean of gain_waveform: 0.00016526904073543847
  4. Min of dither_waveform: -0.572784423828125
  5. Max of dither_waveform: 0.575927734375
  6. Mean of dither_waveform: 0.00010744280007202178

torchaudio.functional中功能的另一个示例是将滤波器应用于我们的波形。 将低通双二阶滤波器应用于我们的波形,将输出修改了频率信号的新波形。

  1. lowpass_waveform = torchaudio.functional.lowpass_biquad(waveform, sample_rate, cutoff_freq=3000)
  2. print("Min of lowpass_waveform: {}\nMax of lowpass_waveform: {}\nMean of lowpass_waveform: {}".format(lowpass_waveform.min(), lowpass_waveform.max(), lowpass_waveform.mean()))
  3. plt.figure()
  4. plt.plot(lowpass_waveform.t().numpy())

../_images/sphx_glr_audio_preprocessing_tutorial_009.png

Out:

  1. Min of lowpass_waveform: -0.5595061182975769
  2. Max of lowpass_waveform: 0.5595013499259949
  3. Mean of lowpass_waveform: 9.293758921558037e-05

我们还可以使用高通双二阶滤波器可视化波形。

  1. highpass_waveform = torchaudio.functional.highpass_biquad(waveform, sample_rate, cutoff_freq=2000)
  2. print("Min of highpass_waveform: {}\nMax of highpass_waveform: {}\nMean of highpass_waveform: {}".format(highpass_waveform.min(), highpass_waveform.max(), highpass_waveform.mean()))
  3. plt.figure()
  4. plt.plot(highpass_waveform.t().numpy())

../_images/sphx_glr_audio_preprocessing_tutorial_010.png

Out:

  1. Min of highpass_waveform: -0.11269105970859528
  2. Max of highpass_waveform: 0.10451901704072952
  3. Mean of highpass_waveform: -4.971002776077427e-12

从 Kaldi 迁移到 Torchaudio

用户可能熟悉 Kaldi (一种用于语音识别的工具包)。 torchaudio提供与torchaudio.kaldi_io中的兼容性。 实际上,它可以通过以下方式从 kaldi scp 或 ark 文件或流中读取:

  • read_vec_int_ark
  • read_vec_flt_scp
  • read_vec_flt_arkfile / stream
  • read_mat_scp
  • read_mat_ark

torchaudiospectrogramfbankmfcc提供 Kaldi 兼容的转换。 resample_waveform 受益于 GPU 支持,有关更多信息,请参见在此处

  1. n_fft = 400.0
  2. frame_length = n_fft / sample_rate * 1000.0
  3. frame_shift = frame_length / 2.0
  4. params = {
  5. "channel": 0,
  6. "dither": 0.0,
  7. "window_type": "hanning",
  8. "frame_length": frame_length,
  9. "frame_shift": frame_shift,
  10. "remove_dc_offset": False,
  11. "round_to_power_of_two": False,
  12. "sample_frequency": sample_rate,
  13. }
  14. specgram = torchaudio.compliance.kaldi.spectrogram(waveform, **params)
  15. print("Shape of spectrogram: {}".format(specgram.size()))
  16. plt.figure()
  17. plt.imshow(specgram.t().numpy(), cmap='gray')

../_images/sphx_glr_audio_preprocessing_tutorial_011.png

Out:

  1. Shape of spectrogram: torch.Size([1383, 201])

我们还支持根据波形计算滤波器组功能,以匹配 Kaldi 的实现。

  1. fbank = torchaudio.compliance.kaldi.fbank(waveform, **params)
  2. print("Shape of fbank: {}".format(fbank.size()))
  3. plt.figure()
  4. plt.imshow(fbank.t().numpy(), cmap='gray')

../_images/sphx_glr_audio_preprocessing_tutorial_012.png

Out:

  1. Shape of fbank: torch.Size([1383, 23])

您可以从原始音频信号创建梅尔频率倒谱系数,这与 Kaldi 的 compute-mfcc-feats 的输入/输出相匹配。

  1. mfcc = torchaudio.compliance.kaldi.mfcc(waveform, **params)
  2. print("Shape of mfcc: {}".format(mfcc.size()))
  3. plt.figure()
  4. plt.imshow(mfcc.t().numpy(), cmap='gray')

../_images/sphx_glr_audio_preprocessing_tutorial_013.png

Out:

  1. Shape of mfcc: torch.Size([1383, 13])

可用数据集

如果您不想创建自己的数据集来训练模型,则torchaudio提供了统一的数据集界面。 该接口支持将文件延迟加载到内存,下载和提取函数以及数据集以构建模型。

当前支持的数据集torchaudio为:

  • VCTK :109 位以英语为母语的母语者发出的语音数据,带有各种重音(在此处详细了解)。
  • 是或否:一个人在希伯来语中说是或否的 60 张录音; 每个记录长 8 个字(此处更多信息)。
  • 通用语音:开源的多语言语音数据集,任何人都可以用来训练启用语音的应用程序(在此处了解更多)。
  • LibriSpeech :阅读英语语音的大型语料库(1000 小时)(在此处详细了解)。
  1. yesno_data = torchaudio.datasets.YESNO('./', download=True)
  2. # A data point in Yesno is a tuple (waveform, sample_rate, labels) where labels is a list of integers with 1 for yes and 0 for no.
  3. # Pick data point number 3 to see an example of the the yesno_data:
  4. n = 3
  5. waveform, sample_rate, labels = yesno_data[n]
  6. print("Waveform: {}\nSample rate: {}\nLabels: {}".format(waveform, sample_rate, labels))
  7. plt.figure()
  8. plt.plot(waveform.t().numpy())

../_images/sphx_glr_audio_preprocessing_tutorial_014.png

Out:

  1. Waveform: tensor([[3.0518e-05, 6.1035e-05, 3.0518e-05, ..., 5.8594e-03, 3.5400e-03,
  2. 3.3569e-04]])
  3. Sample rate: 8000
  4. Labels: [0, 1, 0, 0, 1, 0, 1, 0]

现在,每当您从数据集中请求声音文件时,仅当您请求声音文件时,它才会加载到内存中。 意思是,数据集仅加载您想要和使用的项目并将其保留在内存中,并保存在内存中。

结论

我们使用示例原始音频信号或波形来说明如何使用torchaudio打开音频文件,以及如何对该波形进行预处理,转换和应用功能。 我们还演示了如何使用熟悉的 Kaldi 函数以及如何使用内置数据集来构建模型。 鉴于torchaudio是基于 PyTorch 构建的,因此这些技术可在利用 GPU 的同时,用作更高级音频应用(例如语音识别)的构建块。

脚本的总运行时间:(0 分钟 39.004 秒)

Download Python source code: audio_preprocessing_tutorial.py Download Jupyter notebook: audio_preprocessing_tutorial.ipynb

由狮身人面像画廊生成的画廊