近日,国家互联网信息办公室等四部门联合发布《人工智能生成合成内容标识办法》。该办法以标识管理为主要手段,重点解决“哪些内容是生成的”“谁生成的”“从哪里生成的”等问题,以提醒用户辨别虚假信息,推进人工智能领域安全治理,促进产业健康规范发展。简而言之,“AI制造”,要让“我”知道。
一段时间以来,随着以ChatGPT、DeepSeek为代表的生成式人工智能技术普及,内容创作领域迎来一场深刻变革。无论是媒体机构、自媒体,还是普通用户,大模型几乎是有求必应,文本、图片、音频、视频等产品一键生成。科技普惠共享,不断降低创作门槛,为人们带来前所未有的便利性。
不过,技术是中性的,在应用中可能向善,也可能从恶。生成式人工智能技术,在重塑内容生产流程的同时,也可能滋生乱象。在今年全国两会上,被称为“中老年妇女偶像”的演员靳东,就坦言“一些喜欢我影视剧的观众被AI换脸视频骗得很惨”,并呼吁立法整治;同样饱受AI换脸骗局困扰的白岩松,在节目中回应称从未为治疗失眠与白发产品带货……人工智能生成的内容真假难辨,容易引发虚假信息传播、身份信息冒充、恶意内容生成等新型安全风险。
新机遇与新挑战,是新技术的一体两面。这提醒我们,不仅要关注人工智能技术的创新与应用,同样不能忽视与之相伴生的安全治理难题。
完善的规则与有效的监管,是避免人工智能技术误入歧途的重要手段。面对日新月异的人工智能技术,我国相继出台《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等规定。此次,四部门联合出台的办法,则进一步细化标识管理的具体实施规范,明确服务提供者、互联网应用程序分发平台、用户等主体的责任义务,以期实现从生成到传播各环节的全流程安全管理。
可以想见,良法善治将重构人工智能技术应用生态,减轻人工智能生成合成技术滥用危害,防范传播虚假信息、实施电信诈骗等风险行为,催生更值得信赖的人工智能技术与服务。当然,良好生态的形成,还有赖于人的成长,关键在于强化用户教育,不断提升公众人工智能素养。不仅要会用,还要对内容的真实性、来源可靠性具有一定的分辨与评估能力,这是新技术普惠共享的应有之义。
科技向上,应用下沉,技术向善。只有不断推动技术的突破,让更多的群体低成本使用并从中受益,同时培育健康的土壤,引导技术向善发展,才能真正完成科技创新的闭环。