机器学习数据集的不同麦克风



我目前正在跟随张量简单的音频识别教程在这里,想知道我的数据集中有不同麦克风记录的音频是否会对我的培训结果产生负面影响。所有音频是否应该通过相同类型的麦克风记录?

,取决于您将来将如何使用训练有素的模型。如果您期望该模型与不同类型的麦克风合作,并且假设麦克风会影响记录的实际音频,那么您希望使用各种麦克风记录。

或者,您可以表征不同麦克风产生的差异并修改数据集,以使样品包含在麦克风之间发现的方差。这称为数据增强,是一种非常普遍且推荐的实践,但是这可能不一定是一件容易的事。数据增强通常是您使用的数据集和数据类型的特定于数据集和数据类型,因此这可能只是您要使用的数据增强的一个示例。音频的另一个典型示例是添加不同类型的背景噪声,以产生更大的唯一数据集,其中必须在其中挑选所需的信号。

另一方面,您将仅在特定的麦克风上使用模型,然后只用该麦克风训练它是有意义的,因为您不在乎使用其他麦克风的表现效果。

如果这只是学习的一种练习,那么我根本不必担心这个细节。实际上,在我看来,不同的麦克风会产生明显不同的音频曲线。但是,嘿,我可能错了。

我喜欢从明显的人类角度考虑这样的问题。问问自己:如果我要雇用数据输入人员来执行此任务,我将给他们一些例子来教他们如何执行任务,如果这些样本来自多个麦克风,它会受益吗?如果答案是肯定的,那么请将学习算法与人类相同,并给予他们相同的品种。

最新更新