wav2vec2、conformer 和 hubert 等最先进模型的最新发展极大地推动了语音识别领域的发展。这些模型采用无需人工标记数据即可从原始音频中学习的技术,从而使它们能够有效地使用未标记语音的大型数据集。它们还被扩展为使用多达 1,000,000 小时的训练数据,远远超过学术监督数据集中使用的传统 1,000 小时,但是以监督方式跨多个数据集和领域预训练的模型已被发现表现出更好的鲁棒性和对持有数据集的泛化,所以执行语音识别等任务仍然需要微调,这限制了它们的全部潜力 。为了解决这个问题openai 开发了 whisper,一种利用弱监督方法的模型。
本文将解释用于训练的数据集的种类以及模型的训练方法,以及如何使用whisper
whisper 模型介绍使用数据集:whisper模型是在68万小时标记音频数据的数据集上训练的,其中包括11.7万小时96种不同语言的演讲和12.5万小时从”任意语言“到英语的翻译数据。该模型利用了互联网生成的文本,这些文本是由其他自动语音识别系统(asr)生成而不是人类创建的。该数据集还包括一个在voxlingua107上训练的语言检测器,这是从youtube视频中提取的短语音片段的集合,并根据视频标题和描述的语言进行标记,并带有额外的步骤来去除误报。
模型:主要采用的结构是编码器-解码器结构。
重采样:16000 hz
特征提取方法:使用25毫秒的窗口和10毫秒的步幅计算80通道的log mel谱图表示。
特征归一化:输入在全局内缩放到-1到1之间,并且在预训练数据集上具有近似为零的平均值。
编码器/解码器:该模型的编码器和解码器采用transformers。
编码器的过程:编码器首先使用一个包含两个卷积层(滤波器宽度为3)的词干处理输入表示,使用gelu激活函数。
第二个卷积层的步幅为 2。
然后将正弦位置嵌入添加到词干的输出中,然后应用编码器 transformer 块。
transformers使用预激活残差块,编码器的输出使用归一化层进行归一化。
模型框图:
解码的过程:在解码器中,使用了学习位置嵌入和绑定输入输出标记表示。
编码器和解码器具有相同的宽度和数量的transformers块。
训练为了改进模型的缩放属性,它在不同的输入大小上进行了训练。
通过 fp16、动态损失缩放,并采用数据并行来训练模型。
使用adamw和梯度范数裁剪,在对前 2048 次更新进行预热后,线性学习率衰减为零。
使用 256 个批大小,并训练模型进行 220次更新,这相当于对数据集进行两到三次前向传递。
由于模型只训练了几个轮次,过拟合不是一个重要问题,并且没有使用数据增强或正则化技术。这反而可以依靠大型数据集内的多样性来促进泛化和鲁棒性。
whisper 在之前使用过的数据集上展示了良好的准确性,并且已经针对其他最先进的模型进行了测试。
优点:whisper 已经在真实数据以及其他模型上使用的数据以及弱监督下进行了训练。模型的准确性针对人类听众进行了测试并评估其性能。它能够检测清音区域并应用 nlp 技术在转录本中正确进行标点符号的输入。模型是可扩展的,允许从音频信号中提取转录本,而无需将视频分成块或批次,从而降低了漏音的风险。模型在各种数据集上取得了更高的准确率。whisper在不同数据集上的对比结果,相比wav2vec取得了目前最低的词错误率
模型没有在timit数据集上进行测试,所以为了检查它的单词错误率,我们将在这里演示如何使用whisper来自行验证timit数据集,也就是说使用whisper来搭建我们自己的语音识别应用。
使用whisper 模型进行语音识别timit 阅读语音语料库是语音数据的集合,它专门用于声学语音研究以及自动语音识别系统的开发和评估。它包括来自美国英语八种主要方言的 630 位演讲者的录音,每人朗读十个语音丰富的句子。语料库包括时间对齐的拼字、语音和单词转录以及每个语音的 16 位、16khz 语音波形文件。该语料库由麻省理工学院 (mit)、sri international (sri) 和德州仪器 (ti) 共同开发。timit 语料库转录已经过手工验证,并指定了测试和训练子集,以平衡语音和方言覆盖范围。
安装:
!pip install git+https://github.com/openai/whisper.git !pip install jiwer !pip install datasets==1.18.3
第一条命令将安装whisper模型所需的所有依赖项。jiwer是用来下载文字错误率包的datasets是hugface提供的数据集包,可以下载timit数据集。
导入库
import whisper from pytube import youtube from glob import glob import os import pandas as pd from tqdm.notebook import tqdm
加载timit数据集
from datasets import load_dataset, load_metric timit = load_dataset(timit_asr)
计算不同模型尺寸下的word错误率考虑到过滤英语数据和非英语数据的需求,我们这里选择使用多语言模型,而不是专门为英语设计的模型。
但是timit数据集是纯英文的,所以我们要应用相同的语言检测和识别过程。另外就是timit数据集已经分割好训练和验证集,我们可以直接使用。
要使用whisper,我们就要先了解不同模型的的参数,大小和速度。
加载模型
model = whisper.load_model('tiny')
tiny可以替换为上面提到的模型名称。
定义语言检测器的函数
def lan_detector(audio_file): print('reading the audio file') audio = whisper.load_audio(audio_file) audio = whisper.pad_or_trim(audio) mel = whisper.log_mel_spectrogram(audio).to(model.device) _, probs = model.detect_language(mel) if max(probs, key=probs.get) == 'en': return true return false
转换语音到文本的函数
def speech2text(audio_file): text = model.transcribe(audio_file) return text[text]
在不同模型大小下运行上面的函数,timit训练和测试得到的单词错误率如下:
从u2b上转录语音与其他语音识别模型相比,whisper 不仅能识别语音,还能解读一个人语音中的标点语调,并插入适当的标点符号,我们下面使用u2b的视频进行测试。
这里就需要一个包pytube,它可以轻松的帮助我们下载和提取音频
def youtube_audio(link): youtube_1 = youtube(link) videos = youtube_1.streams.filter(only_audio=true) name = str(link.split('=')[-1]) out_file = videos[0].download(name) link = name.split('=')[-1] new_filename = link+.wav print(new_filename) os.rename(out_file, new_filename) print(name) return new_filename,link
获得wav文件后,我们就可以应用上面的函数从中提取文本。
总结本文的代码在这里
https://drive.google.com/file/d/1fejhgsex_s1ig_y5nipn1ochn8dlfgio/view
还有许多操作可以用whisper完成,你可以根据本文的代码自行尝试。
以上就是使用openai的whisper 模型进行语音识别的详细内容。
