一个黑色笑话是,为了抵消人工智能带来的负面影响,在人类训练出ChatGPT这样的模型来模拟对话以后,又马不停蹄地训练出另一个模型来识别ChatGPT生成的对话。
像ChatGPT这样的大规模语言模型几乎会触及我们生活的每个角落,这些新工具引发了全社会对人工智能在强化社会偏见、实施欺诈和身份盗窃、制造假新闻、传播错误信息等方面的担忧。
宾夕法尼亚大学工程与应用科学学院的一组研究人员正在寻求增强技术用户的能力,以减轻这些风险。在年2月举行的人工智能促进协会会议上发表的一篇论文中,作者们证明,人们可以学会识别机器生成的文本和人类书写的文本之间的差异。
在你选择食谱、分享文章或提供信用卡详细信息之前,重要的是要知道你可以采取哪些步骤来辨别来源的可靠性。
这项由计算机与信息科学系(CIS)副教授克里斯·卡利森·伯奇(ChrisCallisonBurch)以及CIS博士生利亚姆·杜根(LiamDugan)和达芙妮·伊波利托(DaphneIppolito)领导的研究提供了证据,证明人工智能生成的文本是可检测的。
CallisonBurch说:“我们已经证明,人们可以训练自己识别机器生成的文本。人们从一组关于机器会犯什么样的错误的假设开始,但这些假设并不一定正确。随着时间的推移,只要给出足够的例子和明确的指令,我们就能学会识别机器当前犯的错误类型。”
杜根补充道:“今天的人工智能在生成非常流畅、非常语法的文本方面表现得惊人。但它确实会出错。我们证明,机器会产生不同类型的错误,例如常识错误、相关性错误、推理错误和逻辑错误,我们可以学习如何识别这些错误。”
这个训练游戏以将检测研究的标准实验方法转变为人们如何使用人工智能生成文本的更准确再现而闻名。
在标准方法中,参与者被要求以“是”或“否”的方式指示机器是否产生了给定的文本。这项任务包括简单地将文本分为真实或虚假,并将答案分为正确或错误。
Penn模型通过展示所有从人类书写开始的示例,将标准检测研究显著细化为有效的训练任务。然后,每个示例转换为生成的文本,要求参与者标记他们认为转换开始的位置。学员识别并描述文本中指出错误的特征,并获得分数。
研究结果表明,参与者的得分明显高于随机机会,这提供了证据,表明人工智能创建的文本在某种程度上是可检测的。
杜根说:“我们的方法不仅使任务游戏化,使其更具吸引力,还为培训提供了更现实的环境。生成的文本,像ChatGPT生成的文本一样,以人工提供的提示开始。”
这项研究不仅谈到了当今的人工智能,还为我们与这项技术的关系勾勒出了一个令人安心、甚至令人兴奋的未来。
杜根说:“五年前,模型不能停留在主题上,也不能产生流畅的句子。现在,他们很少犯语法错误。我们的研究确定了AI聊天机器人的特点,但重要的是要记住,这些错误已经演变,并将继续演变。需要
转载请注明:http://www.0431gb208.com/sjslczl/5996.html