林舟一开始还以为自己听错了。打电话的女人,一身古装,踢开木门,进了房间,将躲在被子下的男人拉了出来。 “陛下,该练武了!”林舟愣了一下。为什么这部人工智能真人短片里红衣女子的声音和你的声音如此相似?将进度条拖到开头,继续询问“你愿意负责这个项目吗?可以吗?”经过反复对比台词的声调和发音,林舟初步判断,AI可能盗用了他的声音。近几个月来,越来越多的配音演员发现自己的声音出现在未经授权的草图中,与未知角色融合,甚至与同事的声音混合在一起。他们试图捍卫自己的权利,但结果却是一场几乎不可能获胜的战争。 2026年3月,729音厂、边江工作室等各大配音公司起诉公开抵制人工智能违规行为的声明。行业领袖的声音给行业配音演员带来了一线希望。该公司还试图保存涉嫌侵权视频的屏幕录像并咨询律师,希望行业环境能够改变。杨轶工作的录音室。受访者供图 “我一听到,就知道这是我的声音。”齐达内意识到他的声音被“偷走了”。今年过完年,朋友告诉我,在一个工作群里,有同事指出他的音频被AI窃取了。当朋友点开音频时,他注意到人工智能生成的识别声音中,有一个女声听起来与子棠的声音特别相似。起初,小增并没有太认真地对待这件事,认为这只是一个例外。但他很快就听到自己的声音出现在其他视频中。另一位朋友告诉她,某平台发布了一部真人AI剧,角色的声音听起来和她很相似。在AI真人剧第二集一开始,他几乎立刻就确认了那是他的声音,“尤其是明显的部分”。当晚,子棠创作了一部关于人工智能的真人短片。我开始深入寻找戏剧。虽然他看的不多,但“我基本上看了十个,其中可能有五个是我的声音。”他注意到自己的声音并不是不断出现。 “但总有那么一两句话听起来像我。或许是我。”他分析说,这可能与他之前录制了大量竖屏小品中的女主角有关。配音演员路胜也在工作中发现自己的声音被盗了。“我在给一部AI剧配音,发现底层的声音是AI生成的。”我在录角色的时候,当我听到主角的台词时,那正是我的声音。”他很有说服力。发现不仅台词和他很像,就连他疲倦时发出的喉音都有点抄袭。他还听到了剧中几个同伴的声音。陆雄从技术角度对此进行了分析,发现每个人的发音方法、发音习惯、舌位以及每个人单词的开头、中间、结尾的刻画方式都不同。 “南方人在前面说话时,声音很高,而北方人在后面说话时,声音是喉音洪亮的。”卢胜说。在“学习”过程中,人工智能不仅学习了音色,还学习了发声技巧和习惯。作为健康的工人,他们几乎用一只耳朵就能区分自己的音调和同事的音调。配音演员林丑表示,在一些短篇AI真人剧中,人物说话非常语无伦次,他说:“前面几句话就像是同伴,但到了中间,我就变成了”有些词组似乎是从以前录制的作品中剪下来的。有些发音是“混合的,与我的声音混合的,与别人的声音混合的。”杨一吉在录音室“抓住”了罪犯。当我听说要使用我的声音作为我的原声时,我立即咨询了接手工作的主管(负责配音的高级人员)。电话那头的人告诉我,A有可能创造了一个“如果你激活你的声音,你输入文字就会看到我的声音。”对方很生气地问他:“你想要钱吗?” “我说了,这不是钱的问题。”杨义先生要求对方立即停止使用。对方多次表示不以营利为目的,但在他的理解中,“非营利”不能成为理由。此外,根据杨毅的说法,用它作为基础套装是我本身就是一种商业用途。据杨毅介绍,所谓的基调,是指剧集制作完成后,会先配一些新的声优来定节奏。随后他找到当事人并承诺不再使用她,但杨毅先生表示:“我无意寻求经济损失。我禁止未经授权使用我的声音。”杨先生曾经与一位发布了有关人工智能的真人短片的博主洽谈,但他得到的唯一回应是没有使用特定个人的声音:“我如何证明我是谁?”他首先在某短剧平台上发现了侵权作品,剪下版本号,加框,注明民法相关规定,并指出其声音未经许可被用于商业用途。同时,他留下了自己的联系方式,“但没有成功,作品没有被删除,也没有人联系我。”或者人们会问:“你如何证明它是你的?ou?”一位人工智能科技公司负责人告诉新京报记者,目前全球领先的声音模型厂商都掌握了“小样技术”。所谓“小样本技术”,是指“只需要10秒左右的声音样本,就可以再现几乎90%的原始音效”。他表示,技术不再由大公司主导。 “如今,有大量开源软件可供任何人使用。”使用关于配音演员最关心的情绪表达,所有喜怒哀乐的场景都可以使用AI来制作。”“如果模型不收集特定情绪的语音样本,“70%到80%的推断是可能的。”导演尼卡尔坦言。如果发生这种情况,“复制将更加困难”。 “同时,该负责人也表示,确实出现了一些异常情况。据他们了解,一些大型——正在进行比例模型训练。”为了练习逻辑,需要收集和训练所有网上发布的短剧、电视剧和电影的教材。所以,当用户生成一个长相老的男主角时,“生成的人看起来和很多演员很相似,声音也很相似。”在这个过程中,“大部分大模型都没有通过。”他解释说,这背后有两个原因。第一个层面是技术层面。即使主要模型厂家收集了第二个层面是法律总是落后于技术,所以在“法律不禁止”的灰色地带,“先用所有可用的数据进行训练”是行业的普遍做法。示例中,“但如果创作者想避免侵权,可以在制作过程中通过一些技术手段进行细微的调整”,例如提高或降低音调或改变音色。他指出了一个更具体的场景:当一个配音演员听到人工智能生成的内容被怀疑是他自己的声音时,另一个人可能会声称“这只是一种相似”。这是因为从技术上讲,有无数种方法可以从同一语音模型生成“相似但不同”的结果。一位AI工程师还从技术角度解释了从配音演员那里获取证据的难度。 “在以前的科技时代,用户需要的东西会记录在数据库中,然后分类,当用户需要的时候,机器会去获取并提供,没有自我学习或者融合的步骤。但是这个时代的人工智能,在接收到一个大的模型后,进行学习和融合。在这个过程中,声音被融合和调整,然后他表示,识别一个人是否处于同一位置的结果往往是“百分比问题”,而不是“是或否”的结论。即使声优花费数万美元识别声纹,也可能永远得不到明确的答案。言艺在与甲方签订的合同中明确表示,未经许可,不会向第三方提供AI样本。受访者供图 结构性困境 这并不是第一次配音演员曾面临“克隆”声音的问题。在人工智能广泛应用之前,业界已经有了一种叫TTS(Text To Speech)的技术,需要人工录制一些素材,“他们是经过专门挑选、付费和认可的。”音频制作公司TTS的负责人告诉新京报记者。项目已获得配音演员的批准。他回忆说,TTS行业刚开始时有一些“叛逆”的做法。“一开始,合同有点苛刻。我告诉你,我有分许可。你想签就签,不想签就别管。”但随着行业的发展,“现在每个人都变得更加自律了。”许多配音演员都遵守这一标准,但当今无处不在的技术给配音演员带来了额外的挑战。北京中勤律师事务所律师任翔宇表示,这种困境是结构性的。此前,该案代表了该国首例涉及人工智能生成音频的侵犯人身权案件。 2023年,配音演员尹发现自己的声音被人工智能软件合成并用于商业目的,最终向法院提起诉讼。本案中,任翔宇取证面临很大困难。 “你必须追踪声音到它最初发出的地方在殷案中,任翔、安度花了很多时间来确定侵权对象,包括声音最初来自哪个平台、该平台与哪家公司合作、该公司从哪里获得声音样本。我解释说我花了。最终殷胜诉。法院裁定,AI生成的声音如果“可识别”,则受到声音权利的保护。目前,配音演员在维权时遇到的最常见的答案是“不”。“他的话很一致。”子棠说:“他们会说我的声音是人工智能生成的,与你无关。如果有相似之处,那么它是由人工智能使用其他人的材料生成的。相比2023年全国首例人工智能语音侵犯人身权案件,配音演员目前面临着更大的维权困境。我什至不知道哪个环节出了问题。齐达内夫人描述了这一情况。他看到的边缘作品是这样的:“一个角色是由几个配音演员的声音组成的,第一个配音演员说几句话后,由第二个配音演员代替,然后由第三个、第四个配音演员,然后再由第一个配音演员代替,形成角色的声音。”子棠和严毅表示,现在签署的任何合同都会包含禁止人工智能许可的条款。对于条款内容,Yani 解释道:“只要使用仅限于本作品,就禁止以任何方式使用该作品的音频,例如收集、训练或生成 AI。”但问题是,即使你的合同中有这个条款,也不会阻止声音被收集。 “没有办法追踪一个人选择的声音的来源,”齐达内说。 “我不知道是A工作室老板卖了我的声音,还是B工作室老板卖了我的声音,还是平台通过其公开声音直接收集了我的声音。”任翔宇也参与其中在许多配音演员的案件查询中。他承认,现在的侵权行为比应女士的案件“更加普遍”。在尹女士的案件中,侵权路径是明确的。声音来自特定公司、在特定平台使用、链条可追溯。但现在配音演员不知道他们在哪里。此外,在AI短剧中,还将使用多个配音演员的十个声音。每个声音可以来自不同的实用程序,由不同的人工智能模型收集,并进行多重组合训练。任翔宇给他咨询的配音演员的建议是,自己把侵权片段剪下来,用自己的声音录下相同的台词,制作对比样本。如果等级够高,可以考虑下一步进行声纹识别。然而,声纹识别的成本极其昂贵。 “这可能要花费数万美元,”紫檀说。更令人困惑的是,配音演员有多种肤色。如果每个音都是 vi稍后,将进行单独评估。 “我们拥有的声音越多,我们就要花的钱就越多。最终,我们花了很多钱来展示我们是谁。”任翔宇也坦言,对于大多数侵权案件来说,“诉讼并不划算,一是时间成本,二是经济成本”。北京航空航天大学法学教授、数字司法研究中心执行主任裴伟表示:“在现行法律框架下,即使胜诉,赔偿也可能不足以弥补成本。”他指出,输入端侵权是学术界争论的热点话题。裴伟解释说,有学者认为未经当事人同意使用大型模型、使用教材进行AI训练也属于违法行为,也有学者认为仅使用音频。 AI训练是否违法,需要争论,但裴伟对配音演员权益保护并不乐观,称可识别性指的是一般人能否通过声音联想到特定的物理人物,但“普通人”的标准是是否足以让所有人都认出,或者是配音演员的臀部和臀部是否可以立即认出。虽然在业内颇有名气,但公众无人知晓他们是谁,但来自 Biengien Studios、729 Studios 等各大配音公司的配音演员纷纷发表声明,反对人工智能侵权。 “市场认可了我们,但‘刚到北京的时候,我的收入完全是负数’,但尽管配音工作和我想象的不一样,但能通过它赚钱,我还是很高兴。去年,他的收入基本稳定在每月18000元左右,而在农历新年前的10天里,他说:“我做的工作和上个月几乎一样,基本上从上午10点就在工作室里。至下午 3 点到晚上 10 点。”然而,当他晚上 10 点回来时新的一年,苏源发现自己的工作量“少了很多,一个月只能做三分之一的工作”。我的声音是我自己的,我不想让我不知道的东西使用它。 28岁的林周与苏源有着相似的人生经历。他在大学期间就对配音产生了兴趣。在近几年正式开始自己的配音生涯之前,他断断续续地从事配音工作近十年。虽然他现在做的大部分工作都是垂直短剧,但从那一年起,他的收入下降了30%。几乎所有配音演员都回应称,工作减少了,工资也减少了。去年,他的许多同事“日程排得很满”,“有的一天要完成三四个项目”。 “也许我们不得不说不,”他说。但今年“并不总是能够在三四天内完成一个项目,而且差异巨大。”这并不是由人工智能漏洞造成的,而是人工智能加快了这一过程。之后AI短剧的出现,真人AI剧被取代。成本也降低了,可以直接用AI来配音。杨毅对强奸案非常愤怒。你的工作量有压力。我一个月能接到10部短剧的稳定配音工作,但现在我“不累,AI可以快速生成,AI很稳定,AI可以做出很多改变,但我做不到。我累了。我生病了。”杨轶说道。我们同事之间有一个笑话。根据AI中使用谁的声音,我们就能看到谁得到市场的认可。但市场认可了我们,却没有给我们一分钱。”上述音频制作公司TTS的负责人也承认,近年来,越来越多的配音演员接受TTS的工作,因为“配音工作不多,钱也少。”很多公开表示不做TTS的演员,如果真想谋生,就会偷偷做。“至于收入,他做了一个比较。这配音演员的工资一部短剧几千元,周转时间在一周左右。录制 TTS 时,可能需要更少的时间才能赚到同样的钱。配音演员不仅工作机会更少。他说他不知道他的声音将用于什么类型的内容。她特别担心自己的声音被用在有问题的视频中。 “杨毅想站在维权的最前线,至少让侵权者付出“一些代价”。但现实是,大多数当事人没有精力、财力去打官司,结果未知。我们只能说,我们会尽力而为,但说实话,“现在我们只能拭目以待,看看最好的老师能否取得进步。”如果你连轰动都做不到,那么无论你如何努力,也无济于事。” 2026年3月,729 Sound Factory、Bienjean Studio等各大配音机构发表声明,反对AI违规行为。从配音演员的角度来看,这是一个标志着业内“终于有人说话了”。从全行业角度来看,杨毅认为,人工智能违规不仅破坏了现有的创作环境,而且“关上了行业的大门”。 “AI可以快速达到新玩家的水平”至少需要两到三年的时间。它消除了人类发展的第一阶段。难道不会发生吗?杨毅说:“人才储备越来越小,成为一流配音演员的可能性越来越小。他认为人工智能可以模仿,最终实现一流的配音。”但艺术的天花板仍然需要人们达到更高的高度。我们不希望人工智能来定义配音艺术的界限。”新京报记者编辑:李秉杰校对:陈晓舒杨莉