让机器“听懂”人类语言,是“语音识别”技术自诞生起,就一直致力的目标。
自20世纪中叶以来,经过近70年的发展,特别是随着深度学习技术的引入,自动语音识别已取得突破性进展——在标准口音、常见词汇、安静环境的应用场景下,机器已然具备接近人类的“听觉”能力。
然而,一旦面临口音、方言等情境,AI便显得有些“力不从心”,哪怕你一字一句尽力向智能设备发出清晰的指令,得到的回答仍可能是:“对不起,我好像不明白你在说什么……”
语音识别技术发展的终极目标,是实现自然、顺畅的“人机交互”,正如同人与人的交互。如何解决横亘在当下的这道难题,抵达人类畅想的智能未来,已成为全球智能语音技术公司共同面对的挑战。
全世界的AI,都栽在了“口音”上?
口音、方言等问题,困扰着几乎全世界所有的智能语音助手。
年,《华盛顿邮报》曾与Globalme、PulseLabs两家语言研究公司合作,研究智能音箱的口音识别问题,结果显示,谷歌智能音箱GoogleHome更容易“听懂”美国西岸口音,对南部口音的识别准确率则要低3%;而亚马逊Echo搭载的语音助手Alexa,识别东岸口音的准确率要比中西部口音高2%。
更大的问题还在于对非本土口音的识别。研究显示,对于非英语母语者,比如以西班牙语或汉语作为第一语言的人所说的英文,不论是GoogleHome还是AmazonEcho,其识别准确率都要比美国本土口音低30%,而拉丁裔和华裔是美国的两大移民族群。
这项研究结果引起了人们对智能语音助手“地域歧视”问题的广泛
转载请注明:http://www.0431gb208.com/sjsbszl/1573.html