新研究表明人工智能如何充当调解者
康奈尔大学的新研究表明人工智能 (AI) 如何在调解对话中发挥作用。这是在大流行导致社会疏远和远程对话期间发生的。
根据这项新研究,在进行艰难的对话时,人类对人工智能系统的信任程度高于与他们交谈的实际人。人工智能系统是文本中的“智能”回复建议。
这项新研究的标题是“人工智能作为道德崩溃区:介导的人工智能交流对归因和信任的影响”。它在线发表在《人类行为计算机》杂志上。
Jess Hohenstein 是信息科学领域的博士生。他是该论文的第一作者。
“我们发现,当出现问题时,人们会承担原本应该由他们的人类伙伴承担的责任,并将部分责任指定给人工智能系统,”霍恩斯坦说。“这引入了利用人工智能并将其用作我们对话中的调解人的潜力。”
检测何时出现问题
在对话期间,该算法可以分析语言以检测事情变得糟糕的时刻。根据海恩斯坦的说法,它可以提出某些解决冲突的策略。
该研究的主要目标是研究人工智能系统(如智能回复)可以改变人类互动方式的不同微妙而重要的方式。根据研究人员的说法,选择一个不完全准确的回复这样小的事情可以极大地改变对话的不同方面。通常选择该语言是为了节省打字时间,并且它可以对人际关系产生直接影响。
Malte Jung 是该研究的合著者和信息科学助理教授。他还是小组机器人实验室的主任,该实验室研究机器人如何改变群体动态。
“沟通对于我们如何形成彼此的看法、我们如何建立和维持关系、或者我们如何能够一起完成任何事情都至关重要,”Jung 说。
“这项研究属于更广泛的议程,即了解这些新的人工智能系统如何影响我们的互动能力,”荣格继续说道。“我们经常考虑系统的设计如何影响我们与它们的交互方式,但很少有研究关注我们开发的技术如何影响人们相互交互的问题。”
更好地理解人类互动
该研究可以帮助了解人们感知计算机并与之交互的方式。它还可以通过使用微妙的指导和人工智能提醒来帮助改善人类交流。
海恩斯坦和荣格想知道人工智能系统是否可以吸收对话的“崩溃”。
“汽车前部有一个物理机制,旨在吸收冲击力并负责将碰撞的影响降至最低,”Hohenstein 说。“在这里,我们看到人工智能系统承担了一些道德责任。”
该研究得到了美国国家科学基金会的部分支持。