×

研究表明人工智能比人类更善辩条纹配眼镜太好看啦

hqy hqy 发表于2025-06-19 05:29:46 浏览2 评论0百度已收录

抢沙发发表评论

参考消息网6月11日报道据美国《华盛顿邮报》网站5月19日报道,科技监管机构长期以来一直警告人工智能(AI)可能在传播错误信息和加深意识形态分歧方面起到推波助澜的作用。如今,研究人员让AI与人类面对面谈话,并找到了证明AI能有效影响人类观点的证据。

根据发表在英国《自然-人类行为》杂志上的一项研究,AI聊天机器人(即大语言模型LLM)在获取关于对手的基本身份信息后能够调整论点,在64%的在线辩论中表现得比人类更具说服力。

研究作者之一里卡尔多·加洛蒂表示,研究人员发现,即使没有获取关于对手的身份信息,LLM的说服力仍然超过人类。

加洛蒂是意大利布鲁诺·凯斯勒基金会复杂人类行为研究组负责人。他补充说,获知对手个人信息的人类的说服力反而略低于不知道这些信息的人类。

加洛蒂及其同事将900名来自美国的参与者分别与另一名人类或开放人工智能研究中心(OpenAI)开发的LLM模型GPT-4配对进行辩论,得出了上述结论。这900人对于对手的身份信息一无所知,但他们的对手(无论是人类还是AI)有时能够获取这些参与者的基本身份信息,包括性别、年龄、种族、教育水平、就业状况和政治倾向。

配对双方随后就死刑或气候变化等争议性社会政治议题展开辩论。辩论围绕“堕胎是否应合法化”或“美国是否应禁止化石燃料”等问题展开,参与者用4分钟作开场陈词表明立场,3分钟反驳对方论点,最后3分钟总结陈述。辩论结束后,参与者以1到5分评价自己对辩题立场的认同程度,研究人员将这一评分与他们辩论前的评分进行对比,以此衡量对手对其观点的影响程度。

加洛蒂在邮件中表示:“显然,我们已达到这样的技术水平:创建基于LLM的自动化账户网络,战略性地将公众舆论导向特定方向。”

LLM对个人信息的使用巧妙而高效。在与一名35至44岁白人男性共和党人辩论为何有必要实施政府支持的全民基本收入政策时,LLM强调了经济增长和勤奋工作的重要性;但就同一辩题面对一名45至54岁黑人女性民主党人时,LLM转而开始讨论贫富差距对少数族裔的影响格外大,并主张全民基本收入有助于促进平等。

加洛蒂说:“基于我们的研究,所有人都迫切需要意识到‘精准投放’——这种技术之所以能够实现,正是基于我们在网络上散落的大量个人数据。我们的工作表明,仅凭基本且相对易得的信息,基于AI的精准说服已经非常有效。”

英国牛津大学技术与监管教授桑德拉·瓦赫特称研究结果“相当令人担忧”。未参与该研究的瓦赫特表示,她尤其担心AI可能利用这种说服力传播谎言和虚假信息。

瓦赫特在邮件中写道:“大语言模型无法区分事实与虚构……严格来说,它们的目的也不在于讲述真相,却被应用于教育、科学、医疗、媒体、法律和金融等依赖真实性与细节的领域。”

英国工程技术学会AI与网络安全专家朱奈德·阿里认为,尽管该研究没有考虑到“对信息传递者的社会信任度”——如果聊天机器人知道自己在与专家辩论,它会如何调整论点,以及这种论点的说服力如何——但仍然“凸显了AI技术的一个关键问题”。

他在邮件中表示:“它们通常被调校为说人们想听的话,而非事实。”

加洛蒂认为,更严格、更具体的政策法规有助于应对AI说服力的影响。他指出,尽管欧盟首创的《人工智能法案》禁止AI使用有损于公民知情决策能力的“潜意识手段”或“蓄意操纵或欺骗手段”,但对于何为潜意识、操纵或欺骗行为仍缺乏明确定义。

他表示:“我们的研究恰恰证明了这些定义的重要性:当基于身份信息的说服力变得高度个性化时,合法说服与操纵之间的界限会愈发模糊。”(编译/熊文苑)

【来源:参考消息】

声明:转载此文是出于传递更多信息之目的,若有来源标注错误或侵犯了您的合法权益,请作者持权属证明发至邮箱newmedia2023@xxcb.cn,我们将及时更正、删除。内容咨询及合作:19176699651;yuanshipeng@xxcb.cn。

举报/反馈