毕业论文
您现在的位置: 语言识别 >> 语言识别介绍 >> 正文 >> 正文

伯克利amp清华从GPT等预训练语言

来源:语言识别 时间:2023/3/8

作者

王晨光、刘潇

采编

陈大鑫

近日,图灵奖得主、深度学习教父YannLeCun在社交媒体发出警告,称“人们对GPT-3这样的大规模语言模型能做什么有着完全不切实际的期待。”

他还强调:

作为一个问答系统,GPT-3不是很好。用“神经”联想记忆大量知识的方法在这方面做得更好。作为一个对话系统,它也不是很好。其他被明确训练过与人类互动的方法在这方面做得更好。

事实或许如LeCun所说一样,GPT-3对知识没有一个主动的掌握。其实,一说到知识就肯定离不开知识图谱。

那么预训练语言模型和知识图谱之间到底有什么关系?这两者是完全分离的吗?

近日,AI科技评论发现了一篇伯克利和清华的团队的研究“从预训练语言模型生成知识图谱”的论文。

论文链接:

转载请注明:http://www.0431gb208.com/sjszlfa/3635.html

  • 上一篇文章:
  • 下一篇文章: 没有了