沃卡惠移动端logo

沃卡惠  行业资讯

资讯详情

新研究表明人们可以学会识别机器生成的文本

2023-03-10 09:20:304636

人工智能(AI)的日益复杂和可访问性引发了人们对其对社会影响的长期担忧。最新一代的聊天机器人加剧了这些担忧,人们担心就业市场的完整性以及假新闻和错误信息的传播。鉴于这些担忧,宾夕法尼亚大学工程与应用科学学院的一组研究人员试图帮助技术用户减轻这些风险。

新研究表明人们可以学会识别机器生成的文本

训练自己识别AI文本

他们在2023年2月举行的人工智能促进协会会议上发表的同行评审论文提供了证据,证明人们可以学会辨别机器生成的文本和人工编写的文本之间的差异。

该研究由计算机与信息科学系(CIS)副教授Chris Callison-Burch和博士领导。Liam Dugan 和 Daphne Ippolito 的学生证明了人工智能生成的文本是可检测的。

“我们已经表明,人们可以训练自己识别机器生成的文本,”Callison-Burch 说。“人们从一组关于机器会犯什么样的错误的假设开始,但这些假设不一定正确。随着时间的推移,只要有足够多的例子和明确的指导,我们就能学会识别机器目前正在犯的错误类型。”

该研究使用的数据是通过“真文本还是假文本?”(一种基于网络的原创训练游戏)收集的。该训练游戏将检测研究的标准实验方法转变为更准确地再现人们如何使用 AI 生成文本的方法。

在标准方法中,参与者被要求以是或否的方式表明机器是否已经产生了给定的文本。Penn 模型通过显示所有以人类编写的示例开始,将标准检测研究改进为有效的训练任务。然后每个示例都会转换为生成的文本,要求参与者标记他们认为此转换开始的位置。受训者识别并描述指示错误的文本特征并获得分数。

研究结果

研究结果表明,参与者的得分明显高于随机得分,这提供了人工智能创建的文本在某种程度上是可检测的证据。该研究不仅为我们与AI的关系描绘了一个令人安心甚至令人兴奋的未来,而且还提供了证据表明人们可以训练自己来检测机器生成的文本。

“人们出于正当理由对AI感到焦虑,”Callison-Burch说。“我们的研究提供了减轻这些焦虑的证据。一旦我们能够利用我们对AI文本生成器的乐观态度,我们将能够专注于这些工具的能力,以帮助我们编写更具想象力、更有趣的文本。”

Dugan补充说:“你可以将这项技术推向令人兴奋的积极方向。人们关注的是令人担忧的例子,比如剽窃和假新闻,但我们现在知道,我们可以训练自己成为更好的读者和作家。”

该研究为减轻与机器生成文本相关的风险迈出了关键的第一步。随着人工智能的不断发展,我们检测和驾驭其影响的能力也必须如此。通过训练自己识别人类编写的文本和机器生成的文本之间的区别,我们可以利用人工智能的力量来支持我们的创作过程,同时降低其风险。