近日,多名配音演员相继公开发声,反对未经演员知情同意,擅自采集其声音素材用于AI训练、音色合成及商业变现的行为。
声音,曾是个体最难以伪造的身份标识,也是自然人格的重要组成部分。然而,随着生成式人工智能技术的迭代升级,声音克隆的门槛大幅降低,只需短短几秒的音频样本,黑产链便能批量生产出以假乱真的“数字分身”。
与传统侵权不同,AI仿声侵权具有极强的隐蔽性和技术性。侵权者往往利用分布式服务器、匿名支付等手段规避监管,被侵权的声音数据一旦进入模型训练,便如水滴入海,难以溯源取证,现有的鉴定技术往往滞后于造假手段,导致受害者在维权时面临“举证难、认定难、赔偿难”的三重困境。
技术无罪,但使用技术必须有界。治理AI仿声乱象,需构建全链条的防护堤坝。首先要确立“合规授权”的铁律,任何机构在采集、使用声音数据前,必须获得权利人的明确知情同意。同时,平台方应建立严格的准入审核机制,对上传的音频内容进行源头把关,切断非法数据的输入路径。此外,要用技术对抗技术,加快研发数字水印、指纹追踪等溯源技术,让每一段合成声音都留有“数字身份证”,实现侵权行为的精准定位与快速打击,让侵权者付出沉重代价。

