尽管自动语音识别(AutoSpeechRecognition,ASR)已经有很多的解决方案,但是能够媲美人类水平的ASR模型屈指可数。与大语言模型不同的是,ASR领域可用的预训练模型很少,基于预训练模型在特定数据集上微调更是困难。而德国的一位博士生开源了一个使用LoRA(LowRankAdaptation)技术和PEFT(ParameterEfficientFineTuning)方法对Whisper模型进行高效微调的项目。可以让大家在消费级显卡(显存8GB)上对OpenAI开源的WhisperV2模型进行微调!本文来自DataLearner博客:在消费级显卡上微调OpenAI开源的自动语言识别模型Whisper:8GB显存即可针对你自己的数据建立ASR模型
数据学习者官方网站(Datalearner)语音识别预训练模型Whisper简介
OpenAI在年9月21日开源的Whisper模型声称在英语的语音识别方面接近人类(Whisper模型卡信息:
转载请注明:http://www.0431gb208.com/sjszjzl/7216.html