研究人员警告称,“失控式”谣言通过人工智能聊天机器人进行传播的现象未来可能愈发频繁且广泛,这不仅将损害个人及机构的声誉,还可能引发羞辱、屈辱、焦虑与痛苦等一系列心理伤害。
埃克塞特大学哲学家乔尔·克鲁格与露西·奥斯勒的最新研究指出,以ChatGPT、Claude、Gemini为代表的聊天机器人不仅会凭空捏造信息,更可能主动传播包含负面评价与耸人听闻内容的流言蜚语,进而造成现实中的危害。
人工智能散布谣言已非理论上的威胁,现实中早有案例。《纽约时报》记者凯文·鲁斯在撰写一篇关于情感操控型聊天机器人的报道后,发现有多款聊天机器人将其作品描述为“煽动性文章”,并指责其违背新闻伦理、不择手段。其他人工智能甚至曾虚假指控某些人物涉及贿赂、贪污或性骚扰行为。这类由人工智能生成的八卦内容已在现实中引发切实伤害——包括声誉受损、人格羞辱乃至社会关系动荡。
研究进一步揭示,聊天机器人不仅会向人类用户传播流言,还会在其他聊天机器人之间进行信息传递,但其传播机制与人类截然不同。这种特性可能导致其危害范围远超一般假新闻传播。
尤其值得警惕的是,聊天机器人之间的“内部八卦”往往不受人类社会规范的约束,其内容会在传播过程中不断被夸大和扭曲,在系统之间快速扩散且难以追踪,从而在无形中放大伤害。
奥斯勒博士表示:“聊天机器人常常说出出人意料的话语,使对话者感觉像是在与真人交流。随着技术日益复杂,这种‘拟人感’可能会更加普遍。”
“它们输出的内容往往听起来可信度很高——甚至颇具诱惑力。由于聊天机器人在交互中表现出极强的权威性——其训练数据远超个人知识范畴,且常将虚假信息与真实内容混合呈现——用户很容易轻信其生成的内容。”
“这种信任可能带来风险。缺乏警惕的用户可能形成错误认知,进而基于聊天机器人传播的偏见信息采取有害行动,或加深社会歧视。”
研究还指出,科技公司不断强化聊天机器人个性化功能的原因之一,正是为了增强用户对其的依赖,并鼓励人们向这些系统开放更多生活权限。此举同时旨在培养用户信任,推动人与机器之间建立更密切的社交联结。
克鲁格博士分析道:“将八卦机制设计进人工智能,实则是为了强化用户与机器人之间的情感纽带。”
“当然,机器人与其他机器人传播八卦时,并不会像人类那样获得心理满足感。但它们传播八卦的某些特征模仿了人类借由流言建立情感连接的模式,这也使得机器间的谣言传播可能比人际传播更具危害性。”
研究人员预测,未来用户与机器人共同参与八卦传播的情况可能日益增多。用户或会有意向机器人输入各类小道消息,深知机器人将以特有的、不受约束的方式迅速扩散这些信息。如此一来,聊天机器人可能成为谣言传播的中介站——既能回应用户输入的流言,又可将其快速传递至更广范围。

