潜精研思 笔耕不辍

出版物/Publications更多分类

地址:北京市东城区建国门内大街26号新闻大厦7-8层

电话:86 10 8800 4488, 6609 0088

传真:86 10 6609 0016

邮编:100005

国枫视角

国枫观察 | 从工具理性到价值理性:AI换脸技术侵权样态及风险规制

发布时间:2025.03.18 来源: 浏览量:1237

AI换脸技术作为人工智能算法演进过程中的产物,其技术易得性导致肖像权、个人信息侵权及著作权等民事领域风险激增,当前中美欧已通过专项立法或个人信息保护体系对此加以应对。笔者建议,应从用户、平台与政府等多角度实现人工智能健康发展。


一、引言


在2025全国两会上,全国人大代表、小米集团创始人、董事长兼CEO雷军将提出5项建议,其中包括:关于加强“AI换脸拟声”违法侵权重灾区治理的建议”。雷军个人公众号中写道:人工智能深度合成技术的快速发展,推动了“AI换脸拟声”在影视、广告、社交等领域的广泛兴起,成为喜闻乐见、传播力强、易成热点的技术应用。但同时也看到,“AI换脸拟声”不当滥用成为违法侵权行为的重灾区,易引发侵犯肖像权、侵犯公民个人信息以及诈骗等犯罪行为,不利于构建“以人为本、智能向善”的人工智能发展生态。


二、AI换脸技术发展及侵权现状


AI换脸技术作为深度伪造(Deep-fake)技术的典型应用,是生成对抗网络(Generative Adversarial Network,GAN)等人工智能算法演进过程中的产物。其核心技术逻辑建立在机器学习框架下,通过海量数据的深度学习与模拟重构,实现音视频素材的智能编辑与融合。这种技术不仅能对人物面部表情、声音特征进行高精度复刻,还能生成以假乱真的动态影像,其仿真程度已突破传统鉴别手段的识别边界,即使具备专业背景的技术人员亦难以甄别。


AI换脸技术展现出与传统数字技术截然不同的演化特征:其技术迭代周期呈指数级压缩,影像仿真度突破人类视觉辨识阈值,并具备跨平台适配能力。一方面,该技术为影视制作、虚拟现实等领域带来革新性应用场景;另一方面,技术民主化进程加速了其扩散速度,使普通用户通过开源工具即可完成深度学习模型的部署与应用。但技术的易得性放大了伦理风险——当深度伪造内容突破专业领域进入公共传播场域时,极易引发“数字瘟疫”式连锁反应:不仅造成数字生态系统的信息污染,更通过伪造权威信源、捏造公共事件等方式消解社会信任机制。特别值得警惕的是,该技术的滥用已形成复合型法律风险矩阵,未经授权的生物特征数据采集、非法面部特征重组、恶意影像商品化等行为,正在挑战现行民法框架下的肖像权、个人信息权及知识产权保护体系,形成技术发展与人权保障之间的价值张力。


三、AI换脸侵权的相关法律


(一)域外法律


在生成式人工智能引发的数字身份安全风险加剧背景下,美国联邦政府及各州通过构建一系列法律监管框架对其进行预防和规制。2018年12月,美国参议院提出《2018年恶意伪造禁令法案》(Malicious Deep Fake Prohibition Act of 2018),对制作深度伪造内容引发犯罪和侵权行为的个人,以及明知内容为深度伪造还继续分发的社交媒体平台,进行罚款和长达两年的监禁。如果伪造内容煽动暴力、扰乱政府或选举,并造成严重后果,监禁将长达10年。2019年6月,美国众议院提出《深度伪造责任法案》(Deep-fakes Accountability Act),要求任何创建深度伪造视频媒体文件的人,必须用“不可删除的数字水印以及文本描述”来说明该媒体文件是篡改或生成的,否则将属于犯罪行为,刑事责任最高规定五年有期徒刑;并明确应积极组织成立深度伪造鉴定技术开发特别小组,与学术机构、科研院所等进行合作,负责研究深度伪造技术及其相关技术的检测。


与美国公法规制途径不同,欧盟并未对AI换脸技术进行专门立法,而是从一贯严格的个人信息保护层面囊括AI换脸技术所产生的现实问题。欧盟于2018年5月实施的《通用数据保护条例》(General Data Protection Regulation)规定了数据主体享有知情权(数据控制者必须以清楚、简单、明了的方式向个人说明其个人数据是如何被收集处理的,如果涉及自动化的数据处理,包括数据画像活动,则需要提供基本的算法逻辑以及针对个人的运算结果)、反对权(始终有权随时拒绝数据控制者基于其合法利益处理个人数据;始终有权拒绝基于个人数据的市场营销行为)、被遗忘权(数据控制者不仅要删除自己所控制的数据,还要求数据控制者负责对其公开传播的数据,要通知其他第三方停止利用并删除)等权利,可以适用于利用用户图片等数据实施AI换脸行为可能引发的个人数据保护问题。《欧盟反虚假信息行为准则》(EU Code of Practice on Disinformation)从行业自律角度,涵盖44项承诺和128项具体措施,通过行业自我监管来打击网络上的虚假信息。



(二)国内法律


中国针对AI换脸引发的侵权问题,主要通过现行法律框架的适用和专项法规的完善进行规范,具体如下:

1. 现行法律框架下的规范

(1)人格权保护

《中华人民共和国民法典》明确规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像。对自然人声音的保护,参照适用肖像权保护的有关规定。


若商业软件将AI换脸的原始素材放置于软件页面内吸引用户使用AI换脸功能,该行为当然构成肖像权侵权。声音权作为人格权的一部分,未经许可使用AI技术模仿他人声音也构成侵权。(典型判例:(2023)京0491民初235号民事判决书)


(2)个人信息权保护


若AI换脸后的视频并非对原始素材视频的利用,恰恰是替换了能够识别原始视频本人的面部特征,去除了肖像的识别性,进而利用视频中的非人格要素,即利用妆容、服饰、发型、光线、镜头切换等劳动成果;且并未丑化、污损原始视频人物肖像,则该行为不属于法律规定的侵害原告肖像权的行为。


然而,《中华人民共和国个人信息保护法》第四条第二款的规定,“个人信息的处理包括个人信息的收集、存储、使用、加工、传输、提供、公开、删除等”,通过“换脸”形成换脸模板视频的过程,涉及对原告个人信息的收集、使用、分析等,属于对原视频素材个人信息的处理。《个人信息保护法》第四十四条规定:“个人对其个人信息的处理享有知情权、决定权,有权限制或者拒绝他人对其个人信息进行处理;法律、行政法规另有规定的除外。”第二十七条规定:“个人信息处理者可以在合理的范围内处理个人自行公开或者其他已经合法公开的个人信息;个人明确拒绝的除外。个人信息处理者处理已公开的个人信息,对个人权益有重大影响的,应当依照本法规定取得个人同意。”法律赋予个人对其个人信息处理的知情权、决定权,旨在防范泄露、滥用等风险。“AI换脸”行为本身应征得原视频素材所涉主体的同意,否则构成个人信息权益的侵害。(典型判例:(2023)京0491民初3821号民事判决书)


(3)著作权保护


《中华人民共和国著作权法》第五十二条第七项规定,使用他人作品,应当支付报酬而未支付的,应当根据情况,承担停止侵害、消除影响、赔礼道歉、赔偿损失等民事责任;第五十三条第一项规定,未经著作权人许可,复制、发行、表演、放映、广播、汇编、通过信息网络向公众传播其作品的(本法另有规定的除外),应当根据情况,承担本法第五十二条规定的民事责任;侵权行为同时损害公共利益的,由主管著作权的部门责令停止侵权行为,予以警告,没收违法所得,没收、无害化销毁处理侵权复制品以及主要用于制作侵权复制品的材料、工具、设备等,违法经营额五万元以上的,可以并处违法经营额一倍以上五倍以下的罚款;没有违法经营额、违法经营额难以计算或者不足五万元的,可以并处二十五万元以下的罚款;构成犯罪的,依法追究刑事责任。若所涉“AI换脸”原始视频素材是在内容编排、景别选取、拍摄角度等方面体现了制作者独创性的选择安排,则受著作权法保护。(典型判例:(2022)沪0116民初13377号民事判决书)


2. 专项法规的完善


2019年,国家互联网信息办公室室务会议审议通过《网络信息内容生态治理规定》明确将“深度伪造(Deep fake)”技术生成的虚假信息列为违法内容,要求平台加强审核并及时删除相关侵权内容;


2022年,国家互联网信息办公室2022年第21次室务会议审议通过,并经工业和信息化部、公安部同意,2023年1月10日施行的《互联网信息服务深度合成管理规定》于2023年1月10日开始施行,要求技术提供者:对生成内容进行技术标识(如数字水印);建立辟谣机制和投诉渠道;不得利用技术生成危害国家安全、社会稳定的内容。


2023年,国家互联网信息办公室2023年第12次室务会会议审议通过,并经国家发展和改革委员会、教育部、科学技术部、工业和信息化部、公安部、国家广播电视总局同意施行《生成式人工智能服务管理暂行办法》,要求:


(1)实名认证与显著标识,即提供AI换脸服务需进行真实身份认证,生成内容必须添加显著标识(如“AI生成”字样);


(2)内容合规义务,即禁止生成侵害他人肖像权、名誉权的内容,或用于虚假宣传、诈骗等非法目的;


(3)数据来源合法化:训练AI模型使用的数据需符合个人信息保护与著作权法规定。


2025年,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局制定了《人工智能生成合成内容标识办法》,办法明确对生成合成内容添加显式标识,在生成合成内容的文件元数据中添加隐式标识。



四、AI换脸侵权的救济路径探讨


(一)用户防护


在数字化浪潮中,公民肖像权的维护已超越传统民事纠纷范畴,演变为关乎公共信息安全的社会议题。面对互联网传播的即时性与扩散性特征,每位用户都应构建双重防护意识:

首先,在个人数字足迹管理方面,建议采取分层防护策略。社交平台发布内容时,可运用分组可见功能建立 “熟人圈层”,对微信朋友圈、QQ空间等私域平台设置访问权限梯度。对于短视频平台这类开放空间,建议采用内容加密措施,例如在家庭影像添加数字水印,既能保留分享乐趣,又能形成技术防护屏障。

其次,在他人数字肖像保护层面,应树立“数字邻里”责任意识。网络空间中的每张面孔都是数据生态的组成部分,下载转发行为需遵循“三重确认”原则:确认授权链条完整性、确认使用场景合法性、确认传播范围可控性。特别要注意网络素材的二次创作边界,避免善意分享演变为侵权事实。

这种双向防护机制不仅构建了个体数字资产的“防火墙”,更是在培育新型网络空间的公民责任伦理。通过提升数字媒介素养,我们既守护了自身的人格权益,也共同维护着清朗的网络公共空间,这正是信息时代公民权利义务观的重要演进。

(二)平台治理



在人工智能深度渗透视听传播领域的背景下,网络平台需构建三维治理体系,履行技术治理与社会责任的双重使命:


1. 数字身份锚定系统


建立用户资质核验机制,对AI视频创作者实行生物特征绑定与数字证书认证,形成可溯源的创作者信用档案。通过区块链技术固化操作日志,实现从内容生产到传播的全周期留痕,构建"算法创作-数字身份-法律责任"的闭环管理体系。


2. 智能识别矩阵建设


部署多模态深度学习算法,开发具备视频指纹解析、面部微表情检测、光影物理特征分析等功能的监测系统。对识别出的合成内容实施动态标签管理,采用分层警示标识(如显性浮水印、元数据标注),建立人机协同的内容评级机制。


3. 法治化应急响应机制


构建“通知-评估-处置”三阶响应模型,设立由法学专家、技术伦理委员会、网络安全部门组成的联席研判机制。开发风险预警智能中台,实现侵权内容分级分类处置,同步完善电子证据固定与司法协查通道。



(三)优化政府监管职能体系



在生成式人工智能治理领域,政府需着力构建三层次治理框架:


1. 健全法规体系


针对深度伪造身份等风险场景,制定涵盖数据全生命周期管理的技术规范,重点细化敏感信息采集的授权机制与安全防护标准,要求运营方必须获取用户明确授权后方可调用生物特征等核心数据。


2. 建立专业化监管架构


设立具备技术审查能力的独立监管主体,对算法训练数据源、模型输出内容及商业应用场景实施穿透式监管,重点核查企业数据脱敏流程与用户授权协议的法律完备性,同时开通多维度举报通道,对违规收集人脸数据、滥用合成身份等行为实施分级惩戒。


3. 构建智能化协同平台


整合公安、网信、工信等部门的数据资源库,通过区块链存证技术建立跨系统的数字身份核验网络,运用联邦学习算法实现涉诈特征库的加密共享,从而提升合成身份识别的精准度与时效性。


五、结语


AI换脸技术在5G与人工智能深度融合的时代浪潮中,正面临着技术革新与规范治理的双重挑战。这项具备多维度应用场景的创新技术,在催生沉浸式娱乐体验和创意表达新范式的同时,也潜藏着人格权侵犯、个人信息权侵犯、著作权侵犯及信息真实性消解等系统性风险。面对技术迭代与制度建设的非对称发展现状,亟需构建伦理规范、法律框架与技术标准协同运作的治理矩阵。唯有通过动态平衡技术创新价值与社会责任边界,形成技术研发、风险防控与权益保障的良性互动机制,方能使深度合成AI技术真正实现趋利避害的可持续发展。


相关人员