第12版:时事 上一版   
上一篇 下一篇

AI时代,眼见还为实吗

视频电话那头,出差在外的“伴侣”焦急地索要转账;班级群里,“班主任”用熟悉的声音发布紧急缴费通知……如今,在人工智能(AI)的加持下,普通人也能在几分钟内生成足以以假乱真的内容。AI学会了模仿人的笔迹、复刻人的声音、合成人的面容,这类技术一旦被恶意利用,会令人“眼睁睁”地被骗。这不禁让人怀疑,AI时代,眼见还为实吗?

AI造假侵入公共记忆

2月,德国电视二台紧急召回并解职了该机构一名驻纽约记者,因为其发回的一则关于美国移民与海关执法局执法行动的报道中,混入了一段由视频生成模型Sora生成的虚假视频,画面角落清晰可见Sora水印。事件发生后,德国电视二台宣布为员工开设强制性培训课程,规范AI工具在新闻报道中的使用。“漠视新闻准则造成的损害是巨大的。这关乎报道的公信力。”德国电视二台总编辑贝蒂娜·绍斯滕说。

AI造假甚至侵入历史记忆。今年年初,达豪、布痕瓦尔德等约30家德国集中营纪念机构和博物馆联合签署一封公开信,敦促社交媒体平台严厉打击利用AI生成大屠杀相关内容的行为。德国历史学家伊丽丝·格罗舍克说,利用AI生成的图像和视频看起来像极了历史照片——黑白底色,骨瘦如柴的人,铁丝网后呼号的孩子……但仔细看就会发现异常,这类图像和视频中的人长相相似,身高相仿,而且都非常漂亮。

“AI让纳粹受害者变得更年轻漂亮,这种美化扭曲了历史,却利用公众同情心获得广泛传播。”格罗舍克说,这类伪造的帖子会削弱纪念馆、档案馆、博物馆和研究机构工作的权威性,损害它们的公信力。

操纵制造“社会共识”

比伪造内容更危险的,是AI可以伪造“多数人的意见”。一个国际团队近期在美国《科学》杂志“政策论坛”栏目发表文章说,数字操控正进入新阶段。散布虚假信息的不再只是单个账号,而是伪装成真实用户的AI集群。这类集群能够彼此互动、回应真人、适应情绪变化,并在不断相互附和和强化中制造出一种并不存在的“社会共识”。

德国康斯坦茨大学研究人员达维德·加西亚解释说,这类AI集群由一组可被个人或组织控制的AI智能体构成。它们拥有相对稳定的身份和记忆,能够模拟人类行为,既可以围绕特定目标协同行动,也能够根据实时事件和用户反馈调整表达方式。这类AI集群与早期的僵尸网络有着显著区别,后者通常行为机械,较容易识别;而前者可以跨平台运行,并通过彼此呼应不断放大影响。

加西亚认为,真正的风险将不再局限于个别虚假信息,而是“操纵者”可能借助大模型虚拟出“另一种社会”。他说:“AI集群可以通过缓慢而持续的过程,制造某种立场已获广泛支持的假象,进而影响人们的观点甚至改变社会规范。当许多看似彼此独立的声音不断表达相同立场时,多数派的错觉就会形成,即使这种多数原本并不存在。”

从被动辟谣到主动识别

面对这种可以伪造“社会共识”的新威胁,研究人员和机构已经开始行动,利用技术手段予以识别,并通过健全监督机制,及时鉴别和揭露虚假信息和内容。

加西亚认为,应利用模式识别等技术手段,检测内容传播中是否存在异常同步、相互呼应和跨平台联动,以更快发现由AI驱动的群体性操纵。

除了技术识别,研究人员还主张建立独立监督机制,持续观察AI智能体如何在不同平台上影响公共讨论,及时揭露虚假内容。加西亚说,这类网络越早被揭露出来,就越难侵蚀公众信任,也越难把原本多样的社会意见伪装成单一共识。

莱茵兰-普法尔茨州政治教育中心主任伯恩哈德·库卡茨基说,虚假信息已成为当前信息传播中的突出问题,公民每天都可能接触到被操纵的内容,因此辨别和核验信息的能力尤为重要。

(据新华社柏林3月19日电)

版权所有 ©2023 福建日报 fjdaily.com 闽ICP备15008128号
中国互联网举报中心