毕业论文
您现在的位置: 语言识别 >> 语言识别优势 >> 正文 >> 正文

OpenAI发布新语音系统Whispe

来源:语言识别 时间:2023/10/30
专门治疗白癜风的医院 https://wapjbk.39.net/yiyuanfengcai/yyjs_bjzkbdfyy/

作者

黄楠

编辑

陈彩娴

9月21日,OpenAI发布了一个名为「Whisper」的神经网络,声称其在英语语音识别方面已接近人类水平的鲁棒性和准确性。

「Whisper」式一个自动语音识别(ASR)系统,研究团队通过使用从网络上收集的68万个小时多语音和多任务监督数据,来对其进行训练。

训练过程中研究团队发现,使用如此庞大且多样化的数据集可以提高对口音、背景噪音和技术语言的鲁棒性。

此前有不同研究表明,虽然无监督预训练可以显著提高音频编码器的质量,但由于缺乏同等高质量的预训练解码器,以及特定于数据集中的微调协议,因此在一定程度上限制了模型的有效性和鲁棒性;而在部分有监督的方式预训练语音识别系统中,其表现会比单一源训练的模型呈现出更高的鲁棒性。

对此,在「Whisper」中,OpenAI在新数据集比现有高质量数据集总和大几倍的基础上,将弱监督语音识别的数量级扩展至68万小时;同时,研究团队还演示了在这种规模下,所训练模型在转移现有数据集的零射击表现,可消除任何特定于数据集微调的影响,以实现高质量结果。

图注:方法概述

在许多不同的语音处理任务中训练一个序列到序列的转换器模型,包括多语言语音识别、语音翻译、口头语言识别和语音活动检测;所有任务都表示为要由解码器预测的标记序列,允许单一模型取代传统语音处理管道的不同阶段;多任务训练格式使用一组特殊的标记,作为任务指定者或分类目标

Whisper架构采用一种简单的端到端方法,通过编码器-解码器Transformer来实现:输入音频被分成30秒的块,转换成log-Mel频谱图后传递到编码器。解码器可预测相应的文本标题,并与特殊标记混合,由这些标记指导单个模型执行诸如语言识别、短语级时间戳、多语言语音转录和英语语音翻译等任务。

图注:Whisper架构

值得一提的是,由于「Whisper」是在一个庞大且多样的数据集上进行,没有针对任何特定的数据集进行微调,因此它不会击败专门研究LibriSpeech性能的模型。

此外研究团队还发现,当在许多不同的数据集上测量「Whisper」的零样本性能时,「Whisper」相比其他模型表现更加稳健,错误率降低了50%。

除了足够大的数据集规模外,「Whisper」还支持多种语言的转录,以及将这些语言翻译成英语。

当前在68万小时音频中,共11.7万个小时覆盖了96中其他语言,还包括12.5万个小时的转录和翻译数据,即大约有三分之一是非英语的。

「Whisper」会交替执行以原始语言转录或翻译成英语的任务,对此研究团队发现,这种方法在学习语音到文本的翻译方面特别有效,并且优于CoVoST2到英语翻译零样本的监督SOTA。

目前,「Whisper」已开源,可用于对语音识别方面的进一步研究。

OpenAI创始人IlyaSutskever对此表示,“终于有一个能理解我说话的可靠的语音识别系统。”

前特斯拉人工智能和自动驾驶部门负责人AndrejKarpathy也转发了这一消息称“OpenAI正处于最好的状态中”。

但对使用Whisper上,有不少用户也还存在疑虑。

网友VincentLordier提出,“此前在GTP-3和Dalle-2中出现对相关言论禁止行为,是否在使用Whisper时也会有,是否会出现Whisper编辑/删除用户语音的情况?”

那么大家怎么看?

参考链接:

转载请注明:http://www.0431gb208.com/sjszjzl/6170.html

  • 上一篇文章:
  • 下一篇文章: 没有了