作者
王晨光、刘潇
采编
陈大鑫
近日,图灵奖得主、深度学习教父YannLeCun在社交媒体发出警告,称“人们对GPT-3这样的大规模语言模型能做什么有着完全不切实际的期待。”
他还强调:
作为一个问答系统,GPT-3不是很好。用“神经”联想记忆大量知识的方法在这方面做得更好。作为一个对话系统,它也不是很好。其他被明确训练过与人类互动的方法在这方面做得更好。
事实或许如LeCun所说一样,GPT-3对知识没有一个主动的掌握。其实,一说到知识就肯定离不开知识图谱。
那么预训练语言模型和知识图谱之间到底有什么关系?这两者是完全分离的吗?
近日,AI科技评论发现了一篇伯克利和清华的团队的研究“从预训练语言模型生成知识图谱”的论文。
论文链接:
转载请注明:http://www.0431gb208.com/sjszlfa/3635.html