互联网比以往任何时候都更容易遇到和传播阴谋论。尽管有些阴谋论是无害的,但有一些则可能带来严重损害,造成不和谐,甚至导致不必要的死亡。
现在,研究人员认为,他们已经发现了一种打击虚假阴谋论的新工具:AI聊天机器人。麻省理工学院斯隆管理学院和康奈尔大学的研究人员发现,用大型语言模型(Large Language Model,简称LLM)谈论阴谋论会使人们对阴谋论的信仰降低约20%,即使是那些声称自己的信仰对其自己的身份很重要的参与者也是如此。9月12日,该研究发表在《科学》杂志上。
研究人工智能对社会影响的技术心理研究所博士后Yunhao (Jerry) Zhang说,这些发现可能代表着我们在如何接触和教育那些信奉这种毫无根据的理论之人这一方面向前迈出了重要一步。
他说:“这些发现表明,在大型语言模型的帮助下,不说解决这个问题,但至少可以减少这个问题。它指出了改善社会的方法。”
麻省理工学院斯隆管理学院、该研究的主要作者Thomas Costello说,很少有干预措施被证明能改变阴谋论者的想法。之所以如此困难,部分原因在于不同的人倾向于掌握理论的不同部分。这意味着,尽管提供某些事实证据可能对某个信徒有效,但不能保证这会对另一个信徒也有效。
他说,这就是人工智能模型的用武之地。“AI模型可以获得有关不同主题的大量信息,并且这些模型已经在互联网上接受了训练。因此,它们有能力根据人们所相信的特定阴谋论量身定制事实来进行反驳。”
该团队测试了其方法,要求2190名众包工作人员参与使用OpenAI最新的LLM GPT-4 Turbo进行文本对话。
参与者被要求详细分享他们认为可信的阴谋论、他们认为它令人信服的原因以及他们认为支持该阴谋论的所有证据。这些答案被用来定制聊天机器人的回应,研究人员提示聊天机器人回答的尽可能具有说服力。
参与者还被要求以0(绝对错误)到100(绝对正确)的等级来表明他们对阴谋论确信程度,然后对该理论对他们理解世界的重要性进行评分。之后,他们与人工智能机器人进行了三轮对话。研究人员选择三轮对话,以确保他们能够收集到足够的实质性对话。
每次对话后,参与者都会被问到相同的评分问题。实验结束10天后,研究人员对所有参与者进行了跟踪调查,并在两个月后对他们与人工智能机器人对话后的观点是否有所改变进行了评估。参与者报告说,他们对他们选择的阴谋论的信仰平均降低了20%,这表明与机器人交谈从根本上改变了某些人的想法。
Zhang说:“即使在实验室环境中,20%对改变人们的信念也有很大的影响。在现实世界中这一数字可能更小,但即使是10%或5%仍然非常可观。”
该研究的作者们试图聘请专业的事实核查人员来评估人工智能提出的128项指控的准确性,以防人工智能模型编造信息(称为幻觉)的倾向。其中,99.2%被发现是真实的,而0.8%被认为是误导性的。没有发现完全错误。
同时参与该项目的麻省理工学院斯隆管理学院教授David G. Rand说,这种高准确性的一个解释是,互联网上已经写了很多关于阴谋论的文章,这使得它们在模型的训练数据中得到了很好的体现。他补充说,GPT-4 Turbo的适应性质意味着它可以轻松连接到不同的平台,供用户将来进行交互。
他说:“你可以想象去阴谋论坛,与聊天机器人辩论,邀请人们进行自己的研究。同样,可以将社交媒体与LLMs联系起来,对分享阴谋论的人发布纠正性回应,或者我们可以针对‘Deep State’等与阴谋相关的搜索词购买谷歌搜索广告。”
同时参与该项目的康奈尔大学副教授Gordon Pennycook说,这项研究颠覆了作者们关于人们对确凿证据的接受程度如何这一先入为主的观念,这些证据不仅揭穿了阴谋论,还揭穿了其他不基于高质量信息的信念。
“人们对证据的反应非常敏感,这真的很重要,” 他说。“证据确实很重要。”
(机器翻译,轻度译后编辑,仅供参考。)
编辑:李旭媛
审校:章坚