雷锋网按:据年3月份世界卫生组织公布的最新数据,超过全世界人口的5%(约4.66亿人)患有残疾性听力障碍。据估计,到年这一数据将达到9亿。与此同时,手语作为听障者使用较多的语言,能正确理解手语的健全人士却寥寥无几。5月16日,腾讯优图实验室联合深圳市信息无障碍研究会发布“优图AI手语翻译机”。据官方资料显示,用户通过面对翻译机摄像头进行手语表达,翻译机屏幕界面便能快速把手语转换为文字。据公开资料显示,腾讯优图实验室创立于年,是腾讯三大人工智能实验室之一。去年,腾讯优图实验室已升级为腾讯计算机视觉研发中心。此外,更与国际期刊《科学》达成战略合作,共享在计算机视觉领域的资源和信息。手语识别技术,潜行多年任何技术的发展都不是一蹴而就的,尤其是近些年来,优图AI手语翻译机也并不是第一款针对手语应用的的产品,在此之前,手语识别技术已经发展多年,包括国内IT企业级科研院校都曾针对这一技术进行研究,并有此类成果和产品推出:年7月,微软团队和中国科学院计算技术研究所进行合作,通过KinectForWindows创建手语识别软件,可根据手语动作的追踪识别转换成正常人能够读懂的内容;年2月,中科大发布了一篇手语识别的论文被人工智能顶级学术会议AAAI收录;该论文提出一种新型连续手语识别框架LS-HAN,无需时间分割;年3月,MagicLeap的头戴式设备识别手语和文本“感官眼镜”,据3月新专利申请,相关信息概述了使用头戴式设备检测和翻译手语的方法,并介绍了如何识别标牌和店面上的文字;年7月,软件开发者AbhishekSingh演示了一款能够理解手语手势的MOD,通过摄像头的捕捉和深度学习,让亚马逊Alexa对手语手势作出反馈;年12月,爱奇艺研发的AI手语主播在中国网络视听大会上首次亮相,可识别用户语音并转换为文字,还能对健听人自然语言进行理解,并智能翻译为手语表达。手语识别技术的困境与突破传统的手语识别方法通常会针对特定的数据集设计合理的特征,再利用这些特征进行动作和手势的分类。受限于人工的特征设计和数据量大小,这些方法在适应性、泛化性和鲁棒性上都非常有限。近年来,得益于大数据和深度学习技术不断的进步,人工智能算法的发展也水涨船高,尤其在计算机视觉、音频处理和自然语言处理等方面,这助推了AI算法在许多应用和场景中实现落地,研究人员开始尝试应用深度学习和数据驱动的算法来解决手语识别中的难题。然而,不同于大部分的计算机问题,手语特有的地域性、复杂性和多样性给AI算法带来了难度。不仅增加了数据采集和清洗的成本,也使得这门技术的落地存在很大的挑战,难以被实际应用。目前,针对解决听障人群沟通问题的研究,其研究方向多集中在将文字转化成手语;反过来,将听障人群的手语转化成文字就比较难了。据公开资料显示,雷锋网了解到腾讯优图实验室手语识别数据集覆盖了近千句日常表达,个常用词汇。此外,优图AI手语翻译机能够实现整句的识别和翻译,用户表达的时候可以将整个句子连贯表达完毕,不需要设定特定的结束或起始动作,也无需在句中故意停顿或放慢速度。优图AI手语识别技术的实现方法据官方资料显示,优图AI手语翻译机核心技术是与听障者手语表达高度符合的数据集与手语识别算法。针对AI手语翻译机的手语识别数据集、特征提取器等关键技术能力,雷锋网(
转载请注明:http://www.0431gb208.com/sjszlff/8042.html