毕业论文
您现在的位置: 语言识别 >> 语言识别发展 >> 正文 >> 正文

预训练语言模型如何学习事实性知识兼论一种

来源:语言识别 时间:2022/5/19

导语

近年来,对预训练语言模型(Pre-trainedLanguageModel,PLM)捕获的事实性知识进行研究成为一种趋势。许多研究显示,PLM能够在完形填空形式的事实相关问题,如“但丁出生在[MASK]”中,填补缺失的事实词。然而,PLM如何正确地生成结果仍然是一个谜:依靠有效的线索还是捷径模式?华为诺亚方舟实验室语音语义团队与推荐搜索团队的一项最新研究成果,试图通过一种因果启发的预训练语言模型分析方法来回答这个问题。

研究领域:因果推断,自然语言处理

李少博、李小光、董振华

作者

邓一雪

编辑

论文题目:

HowPre-trainedLanguageModelsCaptureFactualKnowledge?ACausal-InspiredAnalysis

论文链接:

转载请注明:http://www.0431gb208.com/sjszyzl/343.html