潜精研思 笔耕不辍

出版物/Publications更多分类

地址:北京市东城区建国门内大街26号新闻大厦7-8层

电话:86 10 8800 4488, 6609 0088

传真:86 10 6609 0016

邮编:100005

国枫视角

初探AIGC监管现状及合规风险——以ChatGPT为切入点

发布时间:2023.04.07 来源: 浏览量:8001

作者:张紫薇


引言


2022年底,一款聊天机器人一经推出立即成为现象级流量密码,由OpenAI公司发布的ChatGPT上线仅五天就收获100万用户。全球权威IT研究与咨询机构Gartner将生成性AI列为2022年5大影响性技术之一。虽然ChatGPT目前仅为一款聊天机器人,但其背后代表的大型语言模型(Large Language Model, “LLM”)、生成式AI技术进步却可能带来颠覆性的革命。

ChatGPT一夜爆火,国内外互联网厂商也纷纷跟进,微软发布基于ChatGPT的新版Bing,谷歌发布Bard对标ChatGPT,百度宣布推出类ChatGPT应用“文心一言”,京东推出智能人机对话平台ChatJD,阿里宣布公司正在研发“阿里版”ChatGPT,网易有道和360也表示推出类ChatGPT应用。在如此背景下,结合现有法律法规监管框架,如何让相关服务/产品合规落地成为值得思考的问题。本文以ChatGPT为切入点,通过介绍ChatGPT相关内容并初步探析以ChatGPT为代表的生成式AI应用场景,以及在现行监管框架下,AIGC产业相关主体可能面对的合规义务及相关风险。

一、何为ChatGPT?



(一)底层逻辑



从本质来看,ChatGPT(Generative Pre-trained Transformer)是Transformer和GPT等自然语言处理技术的集成,本质上是一个基于神经网络的语言模型。ChatGPT在GPT3.5大型语言模型(LLM)的基础上,加入“基于人类反馈的强化学习(RLHF,Reinforcement Learning from Human Feedback)”来不断微调(Fine-tune)预训练语言模型,使得LLM模型学会理解不同类型的命令指令,并通过多重标准合理判断基于给定的prompt输入指令,输出的是否为优质信息。得益于这种训练方法,ChatGPT能够在对话过程中记忆先前使用者的对话讯息,即上下文理解,以回答某些假设性的问题。ChatGPT可实现连续对话的功能,相较于其他聊天机器人“一问一答”“答非所问”的“人工智障”模式,极大的提升了对话交互模式下的用户体验。

根据Open AI官网介绍,ChatGPT训练方式分为三步:首先收集测试用户提交的prompt(指令或问题),靠专业的标注人员给出指定prompt的高质量答案,通过海量标注好的数据训练监督其学习并进行监督指令微调GPT3.5模型,其次通过训练反馈(奖励)模型,通过人工标注对不同模型回复进行排序来训练反馈模型,引导ChatGPT模型给出高分答案;最后采用强化学习进一步优化预训练模型,提高其准确性。



230406-1.png

该图片来自Open AI官网


(二)发展历程


1. ChatGPT演变历程



(1)初代GPT阶段:2018年6月,在NLP刚兴起时,OpenAI就推出了初代GPT,首次提出生成式预训练的概念,[1]其运行逻辑是先通过无标签数据学习生成语言模型,再根据特定的下游任务进行有监督的微调,模型参数量约为1.17亿。

(2)GPT-2阶段:2019年2月,Open AI推出第二代GPT模型。[2]相较于GPT-1,以增加模型通用性为目标的GPT-2将有监督微调变成无监督的模型,并采用更大语言模型和训练数据(15亿)来提高模型在面对未知任务时的表现性能。

(3)GPT-3阶段:2020年5月,OpenAI推出的GPT-3模型在模型参数量上提升到1750亿。[3]2022年3月,OpenAI将基于人类反馈的强化学习(RLHF)技术引入GPT-3,通过奖励(reward)机制进一步训练模型,提高模型性能和准确度,InstructGPT诞生。InstructGPT训练参数量仅13亿,但因为存在RLHF机制,其输出结果更符合人类思维。

(4)ChatGPT阶段:2022年11月,OpenAI正式推出了对话交互式的ChatGPT3.5。在InstructGPT的基础上增加了聊天功能,同时向公众开放使用,以产生更多有效标注数据。目前,ChatGPT3.5已经进化到ChatGPT4。

如上所述,ChatGPT从诞生到现在,经历了三个大致版本阶段的演进,从GPT-1到 InstructGPT,数据量与参数量不断增加,且在基于RLHF技术的引进后,用户产生的标注数据反向进一步优化模型,使其更靠近人类的思维模式。

2. AIGC(AI Generated Content)由来

AIGC并非新兴概念,只是过往受限于优质训练数据不足、高额的算力成本或是模型算法难题,AIGC发展较慢。生成式AI(Generative AI)起源于分析式AI(Analytical AI),分析式偏向于分析数据并总结规律,同时将规律运用到其他用途,比如运用AI技术进行垃圾邮件检测、另如应用最为广泛的个性化算法推荐等。不同于分析式AI学习的知识局限于数据本身,“举一反一”,生成式AI可以在总结归纳数据知识的基础上生成数据中不存在的样本,具备“举一反三”的能力。

(三)应用场景


目前,以ChatGPT为代表的AIGC行业所覆盖的领域大类属于AI软件与服务,包括AI文本生成、AI绘画、AI音视频/游戏、AI代码开发等。根据腾讯研究院发布的《AIGC发展趋势研究报告——迎接人工智能的下一个时代》,AIGC 产业链可大致分为上中下三层架构。第一层为基础层,以预训练模型为基础搭建的 AIGC 技术基础设施层,包括芯片、服务器等硬件提供商以及大模型技术提供商,目前主要包括头部科技企业及科研机构。第二层为中间层,即通过基础层的模型,进行特定训练,形成垂直化、场景化、定制化的应用工具。第三层为应用层,即面向C端用户提供图像、语音、文字生成等各种 AIGC的应用。



230406-2.png该图片来自腾讯研究院


二、监管现状


(一)国内监管框架


通过上文对AIGC应用代表ChatGPT底层逻辑的大致介绍,AIGC可以简单理解为数据——算法——内容的模型,即通过数据优化算法,算法根据指令生成内容,内容反向继续优化算法。故针对以ChatGPT为代表的AIGC的监管也可大致分为数据、算法和内容三个方面,以下仅列示规则名称及主要内容,后文将进一步阐述规则对应监管要求及合规义务。


230406-5-p.png


(二)域外监管示例


美国暂没有专门规范人工智能应用的联邦法律,而是依靠现有的地方法律法规、行业规则及判例诉讼等规范人工智能的发展及应用。2022年10月,美国白宫科技政策办公室发布《人工智能权利法案蓝图:让自动化系统为美国人民服务》(The Blueprint for an AI Bill of Rights: Making Automated Systems Work for The American People),《人工智能权利法案蓝图》详细阐述了人工智能对公民权利的危害和案例,列出了五个对于自动化系统来说至关重要的原则,包括安全且有效的系统;算法歧视保护原则;数据隐私原则;通知和解释原则;人工选择、考虑和退出原则,并指出这些底线原则都是未来针对生成式AI应用法律原则的参考。



2021年4月,欧盟发布《人工智能法案(草案)》(The Artificial Intelligence Act)首次从微观角度将AI应用分为三个风险等级,即不可接受的风险、高风险和其他,其中被列入不可接受风险类别的AI应用将被完全禁止,而被列入高风险类别的AI应用需受到法律约束,其它类别的通常由于较低的风险而不被AI法案监管。2022年12月,欧盟理事会通过了关于《人工智能法案》的共同立场,提议成员国必须任命或建立至少一个监督机构,负责确保 “必要的程序得到遵循”。

三、合规义务及相关风险初探


(一)数据之合规风险


  1. 数据收集时的合规风险


在数据层面的监管根据生成式AI在训练、测试、生成等不同阶段存在不同的监管要求,主要包括《个人信息保护法》《数据安全法》《民法典》《反不正当竞争法》等,根据对数据开展的不同行为而明确不同合规义务及相关风险。


生成式AI涉及大量的数据进行训练,如前所述,GPT-3的模型训练参数从GPT-2的15亿提升到1750亿,可见其数据量之庞大。以ChatGPT回答为例,其声称训练数据来源于公开信息,包括网络文本、语言学知识库、对话数据集、科学论文等多种渠道,但仍可能存在如下合规风险。


230406-3.png

第一,ChatGPT前期抓取的海量数据是否仅用于模型训练存在不确定性。OpenAI公布的隐私政策只提到了用户访问相关网站或使用其相关产品和服务时对个人信息的收集、处理、提供和必要原则等,[5]并未提及其收集训练数据环节数据收集、处理等是否符合个人信息保护的相关原则。

230406-4.png


第二,虽然数据爬虫成为当下企业收集公开数据的常用手段,但抓取的数据仍可能侵犯个人信息甚至是敏感个人信息。《个人信息保护法》规定生物识别信息属于敏感个人信息,处理敏感个人信息需要取得个人的单独同意或具备其他合法性。Facebook曾因未经个人同意使用公开图片集进行算法训练,违反了Biometric Information Privacy Act(BIPA),最终赔偿6.5亿美元,微软、亚马逊、谷歌同样曾因此陷入BIPA诉讼中。[6]


第三,即使不涉及个人信息,亦有可能侵犯他人享有的数据权益。根据《民法典》第127条,“法律对数据、网络虚拟财产的保护有规定的,依照其规定。”2022年11月22日发布的《反不正当竞争法(修订草案征求意见稿)》第十八条明确禁止“以违反诚实信用和商业道德的其他方式不正当获取和使用他人商业数据,严重损害其他经营者和消费者的合法权益,扰乱市场公平竞争秩序”等行为。我国司法实践中也曾涉及多起数据抓取的不正当竞争案件,如“(2018)浙01民终7312号”淘宝公司诉美景公司获取“生意参谋”大数据信息案,杭州中院认为“生意参谋”数据产品,产品研发者投入大量成本尤其是智力投入,能为其带来可观的商业利益与市场竞争优势,这一数据产品已经成为淘宝公司一项重要财产性权益。“(2020)浙01民终5889号”微信诉群控软件案中,杭州中院认为“就平台数据资源整体而言,系平台投入了大量人力、物力,经过长期经营积累聚集而成的,该数据资源能够给平台带来商业利益与竞争优势,平台对于整体数据资源应当享有竞争权益。”

第四,即便爬取数据未侵犯他人数据权益,但数据集成商仍可能就爬取到不真实准确的数据而承担一定损害赔偿责任。参照“(2019)浙8601行保1号”蚂蚁金服诉企查查案,2019年5月5日至6日,企查查平台向其付费VIP用户多次推送蚂蚁微贷公司虚假或误导性清算变动信息通知和监控日报,造成“蚂蚁微贷进入清算程序”等不实信息被媒体广泛报道,法院认为被告的行为违反了征信业法定义务和大数据行业规则。根据相关行业自律性文件的规定,数据准确性是大数据行业发展的商业道德,数据采集过程应严格控制数据质量,确保数据符合质量要求,数据提供者在过程中应注意对数据来源进行甄别和验证,保证数据的合法性、真实性和有效性等相关要求。但另一方面由于受到数据共享范围、获取成本的限制及数据有效抓取技术的局限,亦不宜为数据提供者赋予过高的注意义务。对于普通的信息偏差,应当允许其通过事后救济的方式进行修正。故生成式AI在收集大量数据,尤其向用户传播相关数据时,应对爬取数据的准确性、时效性肩负一定注意义务。

2. 数据处理的合规风险

首先,生成式AI在处理相关数据及信息时,存在使用、泄漏商业秘密之风险。如公司员工在使用ChatGPT生成相关内容时,可能输入公司商业秘密数据,而基于ChatGPT特殊的训练方法,用户使用过程中的输入信息和交互消息可能被用于持续的迭代训练,如此商业秘密存在被再次使用、泄漏的风险。其次,根据《个人信息保护法》第十四条“个人信息的处理目的、处理方式和处理的个人信息种类发生变更的,应当重新取得个人同意。”基于前述ChatGPT或类ChatGPT的训练模型,开发者可能将其在提供服务时收集到的个人信息再次利用用于模型迭代训练,则该等使用已超出完成用户作为一方当事人履行合同所必须的用途范围,则需要获得用户的额外同意。[7]除此之外,开发者是否会将生成的数据用于其他场景并不明确,如此可能存在其他数据处理的风险。

3. 数据跨境风险

用户在使用ChatGPT时,在输入端口提出问题后,用户与其对话的数据将会被存储在开发者OpenAI或使用的云服务提供商的数据中心。在人机交互问答的过程中,中国境内用户分享的个人信息、商业秘密等数据则存在跨境流出的风险。根据《网络安全法》第三十七条规定,关键信息基础设施的运营者在中华人民共和国境内运营中收集和产生的个人信息和重要数据应当在境内存储。因业务需要,确需向境外提供的,应当按照国家网信部门会同国务院有关部门制定的办法进行安全评估;法律、行政法规另有规定的,依照其规定。目前OpenAI并未直接向境内用户提供有关服务,但已有不少境内企业拟计划将ChatGPT服务引入到自己的应用软件或程序中,如相关企业日后在运营过程中使用ChatGPT服务,则需要严格遵守《网络安全法》《数据安全法》《个人信息出境标准合同办法》(2023年2月22日发布,2023年6月1日实施)等相关规定,以免承担行政责任甚至刑事责任。

(二)算法之合规要求


针对AIGC类算法监管,国家网信办与工信部、公安部于2022年11月25日发布了《合成管理规定》(2023年1月10日实施),就深度合成技术作出了针对性合规指引。另根据《推荐管理规定》第二条规定,应用算法推荐技术,是指利用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息。故AIGC类算法同样应满足《推荐管理规定》的规定。根据前述规定,在我国对生成类算法监管背景下,相关主体需注意的合规义务主要包括如下:

1. 算法备案要求

根据《推荐管理规定》第二十四条:“具有舆论属性或者社会动员能力的算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息,履行备案手续。”另根据《合成管理规定》第十九条:“具有舆论属性或者社会动员能力的深度合成服务提供者,应当按照《推荐管理规定》履行备案和变更、注销备案手续。”[8]故针对生成式AI的服务提供者,应按照上述规定完成算法备案手续。

2. 算法评估要求

根据《合成管理规定》第十五条:深度合成服务提供者和技术支持者提供具有以下功能的模型、模板等工具的,应当依法自行或者委托专业机构开展安全评估:(1)生成或者编辑人脸、人声等生物识别信息的;(2)生成或者编辑可能涉及国家安全、国家形象、国家利益和社会公共利益的特殊物体、场景等非生物识别信息的。另根据《推荐管理规定》第二十七条:“具有舆论属性或者社会动员能力的算法推荐服务提供者应当按照国家有关规定开展安全评估。”故针对使用前述算法提供产品/服务的企业,需要进行算法评估。

3. 算法相对透明要求

根据《推荐管理规定》第十六条:“算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。”《国家发展改革委等部门关于推动平台经济规范健康持续发展的若干意见》也要求“在严格保护算法等商业秘密的前提下,支持第三方机构开展算法评估,引导平台企业提升算法透明度与可解释性。”故在保护商业秘密的前提下,如何符合前述算法透明、可解释性的要求,成为AIGC类企业需重点关注的问题。

4. 其他合规要求

根据《合成管理规定》《推荐管理规定》及相关规定要求,除上述算法备案及算法评估要求之外,还需注意符合信息服务规范、保护用户权益及建立健全相关机制(如算法机制机理审核、科技伦理审查,反电信网络诈骗、日志信息留存、应急处置管理制度及辟谣机制等)。

(三)内容之理论探究


1. 知识产权归属及侵权问题

除了在AIGC前端数据收集、使用阶段可能存在侵权风险,AIGC存在的一个值得重点研究并待更多实践检验的理论问题,即其生成物能否被认定为作品受版权保护以及相关权利究竟归属于何方主体。

从理论层面,目前我国著作权法对作品的判定标准仍从其本质出发,即需要满足文学、艺术和科学领域内;具有独创性;能以一定形式表现;属于智力成果四个要件。但根据《中华人民共和国著作权法(2020修订)》第2条,“中国公民、法人或者非法人组织的作品,不论是否发表,依照本法享有著作权。”在现行制度下,只有自然人、法人或非法人组织的作品才能受著作权法保护,[9]故针对AIGC所产生的内容,能否构成著作权法上的作品,主要需要判断AIGC生成物是否体现了研发该等AI的开发者或者使用该等AI的用户在研发/使用过程中是否产生独创性的内容。

在司法实践层面,我国对AIGC生成物能否构成作品以及如果构成作品,其权利归属存在不同司法实践观点。如在经典案例“(2018)京0491民初239号”北京某律师事务所诉北京某科技有限公司著作权侵权纠纷一案中,原告在威科先行库数据库中检索关键词,使用数据库“可视化”功能,自动生成包含图表和文字的分析报告并在其微信公众号上发表。后被告未经许可在其经营的自媒体平台上发布被诉侵权分析报告。法院首先根据现行法律规定,认为文字作品应由自然人创作完成,由此,否定了该人工智能生成报告的作品属性。其次针对软件开发者及软件使用者,法院均不认为其能被视作该分析报告的作者。最终法院站在利于文化使用、传播的角度,倾向将分析报告的相关权益赋予了软件使用者。但根据“(2019)粤0305民初14010号”案例,首先法院认为原告开发的自动写作软件撰写的文章具有特定表现形式且该表现形式主要源于创作者个性化的选择与安排,进而肯定了AI生成物构成著作权法意义上的作品。其次法院在判定著作权归属时,认为原告主创团队在数据输入、触发条件设定、模板和语料风格取舍上的安排与选择属于与涉案文章的特定表现形式之间具有直接联系的智力活动。从整个生成过程来看,如果仅将该自动写作软件自动生成涉案文章的这两分钟时间视为创作过程,确实没有人的参与,仅仅是计算机软件运行既定的规则、算法和模板的结果,但该软件的自动运行并非无缘无故或具有自我意识,其自动运行的方式体现了原告的选择,也是由自动写作软件这一技术本身的特性所决定,故认为软件开发者拥有著作权。

除前述关于AI生成物是否构成作品及权利归属的争议,其另一现实的问题在于对现有知识产权的侵权问题。尤其是生成式AI的精神食粮即为各种训练数据,该等数据本身可能已经构成作品,其爬取行为本质是一种复制,则可能侵犯他人作品的复制权,其次在基于用户指令生成新的内容时,也可能构成对他人作品改编权的侵害。由此引发的另一问题是,如果真的构成侵权,如何确定侵权行为人及侵权责任的承担主体。目前法律对此并无明确规定,但可参考《合成管理规定》,任何组织和个人不得利用深度合成服务(包括图像生成、修复、编辑)侵犯他人合法权益等法律、行政法规禁止的活动。故笔者理解如构成侵权,则相关法律责任的承担主体应为服务提供者。

2. 深度合成技术引发的对生成内容的注意义务

就AI生成的网络内容,需要符合《网络信息内容生态治理规定》《网络音视频信息服务管理规定》等对网络信息内容生产者及网络信息内容服务平台所规定的该等主体对网络内容管理应承担的义务,如不得制作、复制、发布危害国家安全、泄露国家秘密、损害国家荣誉和利益的、煽动民族仇恨、民族歧视,破坏民族团结的、散布谣言、扰乱经济秩序和社会秩序的、散布淫秽、色情、赌博、暴力、凶杀、恐怖或者教唆犯罪等违法信息。[10]

四、IPO视角下数据合规及算法合规


随着规范数据合规和算法安全的文件不断出台,在相关企业冲击IPO时,势必会涉及企业数据合规和算法合规方面的披露要求和核查深度。

如AI四小龙之一旷视科技的科创板IPO于2021年3月12日获上交所受理,监管机构在首轮问询中就重点关注发行人的算法合规及科技伦理。发行人的AI核心技术中包括系统层及算法层,涉及数据的处理、清洗和管理能力,算力的共享、调度和分布式能力,以及算法的训练、推理及部署能力。监管机构要求请发行人说明:(1)发行人技术、业务及产品(或服务)中涉及到数据采集、清洗、管理、运用的具体环节;不同环节涉及的数据的具体类型,文字、图像、视频等具体情况;(2)发行人自身核心技术(如算法的训练、系统的搭建等)是否涉及大量的数据的应用,如是,相关数据的来源及其合规性;(3)发行人对外提供的产品(或服务)是否涉及数据的采集运用,如是,说明数据的来源及其合法合规性;(4)发行人保证数据采集、清洗、管理、运用等各方面的合规措施。

以萨技术(科创板,2023.02.21终止审核)公司底层核心技术主要包括人工智能视觉算法和大数据分析技术,终端客户在应用发行人的产品时会涉及大量数据,监管机构在首轮问询中要求请发行人说明:(1)公司在保证人工智能技术可控、符合伦理规范方面的措施和规划;(2)公司产品业务中涉及数据获取、存储、使用的情况,有关数据的来源、获取、存储方式及其合规性,是否存在超出授权许可限制获取、存储、使用数据的情况,是否存在境外存储、使用数据的情况,是否存在侵犯个人隐私或其他合法权益的情形,是否存在纠纷或潜在纠纷;(3)说明公司经营是否符合《个人信息保护法》《数据安全法》《网络安全法》等法律法规的规定。

通过上述案例,可以看出监管机构对数据合规及算法科技伦理问题的关注,但上述案例主要系针对传统分析式AI类公司,主要涉及到算法训练搭建和数据收集、处理和运用。如未来AI生成领域企业IPO,除上述领域的合规性,亦可能因业务性质引发其他合规要求及监管审核重点。

五、小    结


ChatGPT的爆火仿佛发生在一夜之间,但其所要面对的合规监管要求及伦理道德风险却是人工智能,包括生成式AI自诞生以来一直面对的难题。本文仅在现有监管背景下,针对之后可能广泛应用的生成式AI简单罗列了相关合规义务及内含的一些法律风险。按照目前发展趋势,ChatGPT的浪潮极大可能加速推进AIGC产业的商业化进程,从而进一步激化已有法律问题,也会产生新的法律问题。随着技术和产业的发展,相信我国对AIGC领域的监管也将更加体系化、精细化,也意味着该产业链条上的相关主体合规之路漫漫。如何平衡合规要求及技术发展需要,尽可能规避相关风险,需要包括立法机关、司法机关、监管机关、技术开发者、服务/产品运营者及广大网络用户在内的共同努力。


[1] <Improving Language Understanding by Generative Pre-Training>, URL: https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf

[2] <Language Models are Unsupervised Multitask Learners>, URL: https://d4mucfpksywv.cloudfront.net/better-language-models/language-models.pdf

[3]  <GPT-3:Language Models are Few-Shot Learners >  , URL: https://arxiv.org/abs/2005.14165

[4] 2022年11月22日,市场监管总局发布关于公开征求《中华人民共和国反不正当竞争法(修订草案征求意见稿)》意见的公告,根据该征求意见稿第十八条:“经营者不得实施下列行为,不正当获取或者使用其他经营者的商业数据,损害其他经营者和消费者的合法权益,扰乱市场公平竞争秩序:(一)以盗窃、胁迫、欺诈、电子侵入等方式,破坏技术管理措施,不正当获取其他经营者的商业数据,不合理地增加其他经营者的运营成本、影响其他经营者的正常经营;(二)违反约定或者合理、正当的数据抓取协议,获取和使用他人商业数据,并足以实质性替代其他经营者提供的相关产品或者服务;(三)披露、转让或者使用以不正当手段获取的其他经营者的商业数据,并足以实质性替代其他经营者提供的相关产品或者服务;(四)以违反诚实信用和商业道德的其他方式不正当获取和使用他人商业数据,严重损害其他经营者和消费者的合法权益,扰乱市场公平竞争秩序。”

[5] https://openai.com/policies/privacy-policy

[6] https://techcrunch.com/2021/03/01/facebook-illinois-class-action-bipa/

[7] 目前OpenAI已在使用协议中约定用户同意OpenAI利用用户的输入及ChatGPT的输出结果进行以改善模型性能。

[8] 针对何谓“具有舆论属性或者社会动员能力”,目前并无细化的标准,暂时可参考《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》。

[9] 对此种观点,亦有人认为我国《著作权法》制定之初,法人也不是作者,但随着社会的发展,最终赋予法人著作权法意义上的主体资格。可见,《著作权法》中的作者包含了承认自然人以外的主体。因此,可以对人工智能赋予拟制的法律人格,使得人工智能生成物的著作权属于人工智能本身。

[10] 根据OpenAI的说明,尽管OpenAI已在努力让ChatGPT拒绝用户不合理的请求,但是ChatGPT还是可能会存在算法歧视和生成不当内容的风险,例如带有脏话、仇恨、歧视等言论,也可能生成暴力、血腥、色情等违反法律以及公序良俗的内容。