花十元就能让照片开口“说话” 专家提醒
警惕AI悄悄“偷”走你的声音
AI换脸实施诈骗、AI翻唱明星歌曲、AI“复活”逝者……随着AI技术的不断发展,在网上“克隆”他人的容貌、声音已非难事,相关纠纷也屡见不鲜。
前不久,北京互联网法院一审开庭宣判全国首例AI生成声音人格权侵权案,明确认定在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。AI生成声音可识别性的认定应综合考虑行为人使用情况,并以相关领域普通听众能否识别作为判断标准。
接受《法治日报》记者采访的专家认为,对于AI技术的研发和应用,需在保护个人权益的基础上进行。应提高AI技术的安全性和可靠性,防止声音被非法获取和使用;还要加强行业自律,建立完善的监管机制,规范AI技术的使用行为,确保AI技术循着以人为本和技术向善的理念发展。
语音合成以假乱真
冒充熟人实施诈骗
记者在多款AI软件中搜索发现,有不少模仿知名艺人声音的情况。去年,“AI孙燕姿”翻唱《发如雪》等歌曲,迅速走红网络,多平台播放量破百万,热度居高不下。之后又出现一批其他“AI歌手”,其中不乏已故歌手的AI。随后,大批AI翻译作品涌现,如郭德纲用英语说相声等。
据了解,“AI孙燕姿”使用的核心技术来源于Sovits4.0模型。它是基于AI技术的免费学唱软件,用户只需输入歌词和曲调,就可以精准模拟人声,自动生成一首翻唱歌曲。
记者在某短视频平台搜索发现,关于此类技术的学习教程不在少数。有业内专家指出,目前,通过AI技术,可以实现对图像、声音、视频的篡改、伪造和自动生成,产生以假乱真的效果,一些不法分子很可能利用这类技术实施违法犯罪行为,危害社会公共利益。
其中,最为常见的手法是冒充熟人实施电信诈骗。不久前,江苏句容的杨女士在收到自己“女儿”多条要求缴纳报名费的语音后,向骗子账户转账3.5万元。对此,办案民警反复提醒:“遇到转账一定要慎之又慎,眼见不一定为实。”
“自然人的声音也是人格权的一种,受民法典保护。任何人不得丑化、污损或者伪造他人声音,更不可以未经本人许可,模仿他人声音获利。”北京市京师律师事务所律师许浩说。
许浩介绍,和著作权不同,自然人的声音有独特性,在音色、语调以及发音风格等多维度,可识别性较强,使用人工智能工具对其加工,并进行传播获利,则构成对人格权的侵权。
“特定人的声音可以产生一定经济价值的属性,被侵犯不仅会造成人格损失,更可能造成经济损失。”北京京本律师事务所主任连大有说,但实践中这类案件通常面临维权难的困境,存在取证难、举证难、认定难等问题。
未获得权利人同意
擅自使用构成侵权
AI“复活”逝者也是颇受争议的话题之一。
记者在某电商平台上看到,不少网店专门从事AI“复活”逝者的生意,称可以“让动态照片开口说话,修复合成微笑定制怀念视频”,一般标价为10元。但产品详情页中写道,拍前请与客服沟通需求,具体价格根据难易程度决定。
客服介绍,简单地让照片动起来只需几十元钱,稍微复杂点有表情的要上百元。如果需要采用AI换脸技术,根据相似度不同,价格在几百元至上万元不等,其声音、相貌的相似度可达95%以上。
据了解,AI“复活”逝者是基于大数据分析、语音合成、机器学习等先进技术,通过对逝者生前的文字、音频、视频资料进行深度学习,创造出与其音容笑貌极为相似的虚拟形象。
在中国政法大学传播法研究中心副主任朱巍看来,是否获得权利人的合法授权,是判定是否构成声音权益侵权的关键。近年来,AI语音合成技术的应用日益普遍,但编辑、使用某一自然人的声音,需要当事人单独同意。如果当事人已经去世,应当获得相关权利人的授权,但此举也有可能引发伦理问题。
朱巍认为,所谓的“复活”,本质上是利用深度合成技术生成所谓的虚拟人或者数字人,需要使用逝者的人脸、声音等各种数据,配合自己的目的制作相应的内容。如果行为人为了悼念目的,“复活”自己的亲人,原则上不构成侵权,但若是出于营利、博眼球、诈骗等违法目的,则可能构成侵权,甚至是刑事犯罪。
“如歌迷、粉丝出于对已故偶像的喜爱,用AI技术复活偶像,这种行为涉嫌违法。”连大有说,根据民法典第九百九十四条,死者的姓名、肖像、名誉、荣誉、隐私、遗体等受到侵害的,其配偶、子女、父母有权依法请求行为人承担民事责任;死者没有配偶、子女且父母已经死亡的,其他近亲属有权依法请求行为人承担民事责任。
连大有说,利用技术“复活”死者的行为还可能涉及知识产权问题,如“复活”已故偶像,往往会使用相关的歌曲、影视、著作等知识产权。相关的知识产权可能属于其他公司、企业等,也需要获得其授权才能使用。
明确侵权赔偿责任
制定技术标准规范
对于AI语音合成技术背后的侵权风险,相关部门和网络平台已着手监管和规范,尝试在技术发展和法律保障之间达到平衡。
2022年11月,国家网信办等部门发布《互联网信息服务深度合成管理规定》,要求任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息;可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识。
2023年7月,国家网信办等部门发布《生成式人工智能服务管理暂行办法》,此举标志着生成式AI有了专门性行政法规。
该办法第七条规定,生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,要求必须使用具有合法来源的数据和基础模型;涉及知识产权的,不得侵害他人依法享有的知识产权;涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。
2023年9月,科技部等10部门印发的《科技伦理审查办法(试行)》,列出了需要开展伦理审查复核的科技活动清单,其中就包括具有社会动员能力和社会意识引导能力的算法模型、应用程序及系统研发等。
与此同时,相关平台也在尝试加强治理。2023年5月,抖音发布关于人工智能生成内容的平台规范暨行业倡议。对于创作者、主播、用户、商家、广告主等平台生态参与者在抖音应用生成式人工智能技术提出要求,对于违规使用AI技术的行为,一经发现,平台将严格处罚。
连大有认为,AI领域的法治化仍有进一步细化的空间。可加快人工智能方面的法律供给,推动国家层面生成式人工智能规范的确立。对已有案例出现的疑难法律问题,要通过学术讨论和司法实践,逐步形成共识,总结确立法律适用规则。
“在AI技术不断发展的背景下,要更加注重保护个人隐私和声音权益,同时也要规范AI语音合成技术的应用范围和使用方式。”许浩认为,对于相关的公司和个人来说,应当加强对于AI技术的了解和应用,遵循法律法规和行业标准,避免侵犯他人权益。
朱巍呼吁,技术供应方应当重视技术伦理问题,制定统一的技术标准和规范,确保技术应用有底线。在法律监管方面,提升防控措施的精准性、透明性和稳定性。
连大有建议,在司法实践中,要进一步细化相关法律规定,明确声音权的范围、侵权行为的认定标准以及赔偿责任、承担方式等。同时,还要加强宣传教育,提高公众对声音权的认识和重视,营造全社会共同维护声音权的良好氛围。