(报告出品方/作者:方正证券,方闻千)
1自然语言处理的发展历史回顾自然语言处理(NaturalLanguageProcessing,NLP)作为人工智能的重要研究方向,旨在帮助计算机理解、解释和运用人类语言。回顾NLP的主要发展历程,可大致分为三个阶段:1)上世纪80年代之前,人工智能开始萌芽,基于规则的语言系统占据主导;2)80年代之后,从机器学习的兴起到神经网络的引入,带动了NLP的快速发展和商业化;3)年至今,基于Attention注意力机制构建的Transformer模型开启了大语言模型时代。
第一阶段:基于规则的语言系统。早在上世纪50年代前后,人工智能就已经诞生,召开了达特茅斯会议,首次正式提出了“人工智能”。年,自然语言处理的分为了两大阵营,分别为基于语言规则的符号派和基于概率统计的随机派,而当时基于规则方法的势头明显强于基于概率统计的势头,因此当时大多数NLP系统都使用复杂的逻辑规则,能够处理包括字符匹配、词频统计等一些简单的任务。同时在这一时期,也产生了一些机器翻译以及语言对话的初级产品,比较著名的是年MIT发布的世界上第一台聊天机器人Eliza,Eliza能够遵循简单的语法规则来实现交流。但总体来看,这一时期NLP领域形成的成果还无法商业化,包括机器翻译的成本还是远高于人工翻译,而且还无法与人真正实现基本的对话。
第二阶段:从机器学习到神经网络。年美国的卡内基梅隆大学召开了第一届机器学习国际研讨会,标志着机器学习在全世界兴起,而自然语言处理也逐渐走向纯粹的统计学。90年代以后,神经网络模型被引入到NLP领域,其中最著名的两个神经网络模型为循环神经网络(RecurrentNeuralNetwork,RNN)和卷积神经网络(ConvolutionalNeuralNetworks,CNN),特别是RNN因其处理序列数据的特性,成为了大部分NLP模型的主流选择。年后,一方面Multi-tasklearning,WordEmbedding,Seq2seq等层出不穷的新技术推动了NLP技术的快速进步,另一方面NLP逐步实现了商业化,包括机器翻译、文本处理等商业化产品开始大量出现。
第三阶段:基于Attention注意力机制构建的Transformer模型奠定了大语言模型的基础。年Google机器翻译团队发布了著名论文《AttentionisAllYouNeed》,提出了基于Attention注意力机制构建的Transformer模型,这也成为了NLP历史上的一个标志性的事件。相较于传统的神经网络,基于Attention注意力机制构建的Transformer模型在提升了语言模型运行的效率(效率更高),同时能够更好的捕捉语言长距离依赖的信息(效果更好)。年OpenAI公司的GPT以及Google公司的BERT均是基于Attention注意力机制与Transformer而构建,而NLP也正式进入到了大语言模型的全新阶段。
2Attention注意力机制的基本原理注意力(Attention)机制与Transformer模型构建了大语言模型的基石。注意力(Attention)机制最早由Bengio团队在年提出,随后开始广泛应用在深度学习中的各个领域。Attention的思想很简单,它的最初灵感来源于人类的视觉,即当人用眼睛观察东西的时候,会首先快速扫描全局图像,然后再捕捉需要重点
转载请注明:http://www.0431gb208.com/sjszlfa/7931.html