毕业论文
您现在的位置: 语言识别 >> 语言识别市场 >> 正文 >> 正文

谷歌开放资源伯特,一种最先进的自然语言处

来源:语言识别 时间:2023/10/10
北京最正规治疗白癜风医院 https://wapjbk.39.net/yiyuanfengcai/yyjs_bjzkbdfyy/
自然语言处理(NLP)是人工智能(AI)的一个子类别,涵盖语言翻译、情感分析、语义搜索和许多其他语言任务,说起来容易做起来难。获取足够大的不同数据集来训练文本分析人工智能系统是研究人员正在进行的挑战;现代深度学习模型,模拟人脑中神经元的行为,在接受数以百万计甚至数以十亿计的注释性示例训练时得到改善。一个流行的解决方案是预培训,它改进了针对未标记文本的通用语言模型,以执行特定任务。本周,Google公开发布了它的尖端技术——Transformers的双向编码器表示,或者Bert——它声称这项技术使开发者能够在30分钟内在单个云TPU(Tensor处理单元,Google的云托管加速器硬件)或数小时内在S上训练“最先进的”NLP模型。单个图形处理单元。该版本可在Github上获得,包括预培训的语言表示模型(英语)和基于MountainView公司的TensorFlow机器学习框架构建的源代码。此外,在谷歌为人工智能开发者提供的免费云服务colab上还有一个相应的笔记本电脑,正如googleai的研究科学家雅各布·德夫林(JacobDevlin)和明·魏昌(MingWeiChang)所解释的,伯特的独特之处在于,它既双向,又允许它从过去和未来的方向访问上下文,而且不受监督,这意味着它可以接收既不分类也不标记的数据。这与传统的NLP模型(如Word2vec和Glove)不同,后者为词汇表中的每个单词生成一个独立的、上下文无关的单词嵌入(单词的数学表示)。Devlin和Chang写道,伯特通过对一个可以从任何语料库生成的任务进行预培训,学习模拟句子之间的关系。它建立在谷歌Transformer的基础上,这是一种基于自我

转载请注明:http://www.0431gb208.com/sjszlff/5944.html