10月初,OpenAI宣布正式发布其最先进的视频生成模型“Sora 2.0”,并同步推出一款全新的手机社交应用“Sora”,该应用可以将文字提示和图像转化为带声音的拟真视频。
如今,AI生成视频、AI生成语音、AI换脸等AI深度伪造技术已经覆盖了娱乐、传媒等多个领域,凭借一段文字描述、一段原始语音、一张原始图片,就可以编造出一段真假难辨的音视频,社交媒体成为滋生虚假信息的温床,也带来了网络诈骗、法律侵权及信任危机等多重风险。
此前,全红婵等多位奥运冠军的声音被AI克隆,用以在短视频平台冒充本人带货农产品,不少消费者因此误信下单。也有许多不法分子用AI伪造视频来实施虚假营销、网络诈骗、敲诈勒索等违法犯罪活动。进言之,深度伪造技术在金融等敏感领域的滥用,会让公众陷于“眼见未必为实”的认知困境,悄然侵蚀社会的信任基石。
技术突飞猛进,还需法律法规来划定底线。近年来,我国先后出台《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法规,亦有多家视频平台提出了发布人工智能生成内容时,需添加“内容由AI生成”标识的要求,但整体仍处于初步探索阶段。这种标识是技术中立的记录手段,不能成为传播虚假内容、侵犯隐私等违法违规行为的免责理由,创作者仍需对内容的合法性负责。亟须加快制定关于人工智能等新兴技术的法规政策,进一步明确技术滥用的法律责任,规范技术的开发与应用,加大对违规行为的处罚力度。并通过行业规范、倡议共识等形式避免深度伪造技术生成虚假和不良的信息,探索出一种兼具安全性和包容性的灵活治理模式。
技术发展的问题,要靠发展技术来解决。回望人类的科技进步史,新技术的诞生往往都伴随着一系列新的问题和不确定性。正是这些问题和不确定性,推动了技术的不断迭代和升级。当前,深度伪造内容主要依赖数字水印、内容特征分析等传统技术加以规制,显式标注容易被人篡改、裁剪,生成式人工智能也可以通过对抗样本训练、模型蒸馏等手段,快速突破监测防线。破解困局需推动技术升级,如开发基于区块链的不可篡改标识系统、加强对隐式标识的管理、建立跨平台原数据联防联控机制等,形成从生成到传播的全过程治理,以技术创新反哺治理创新。
鼓励科技向善,严守技术伦理。AI造假的本质不是AI本身的问题,而是人的问题。人工智能本是工具,其作用的后果取决于人类赋予的价值导向。在我国人工智能技术向快向强发展的同时,应将科技向善的价值取向贯穿于技术研发和应用的全过程。一方面,人工智能的研发者和服务提供者需确保技术设计本身就嵌入善的伦理准则,发展安全、普惠、公平、人本的人工智能技术;另一方面,人工智能的使用者坚持以人为本、智能向善的核心理念,使人工智能的应用合乎向善的伦理规范和良好的价值取向。

