潜精研思 笔耕不辍

出版物/Publications更多分类

地址:北京市东城区建国门内大街26号新闻大厦7-8层

电话:86 10 8800 4488, 6609 0088

传真:86 10 6609 0016

邮编:100005

国枫视角

“算”无遗“策”——算法合规简记与解构

发布时间:2024.02.28 来源: 浏览量:2080

前言


在2024甲辰龙年春节期间,位于美国旧金山的人工智能研究公司OPENAI宣布推出全新模型Sora。这款模型具备将文本提示转化为长达一分钟高清视频的能力,标志着人工智能在视频生成领域迈出了重要的一步。[1]在引领新一波技术发展和应用的同时,这个曾由“ChatGPT”而引发的生成式人工智能算法合规话题,又再次被引入热议之中。



一、 大众视野下的“算法”



算法,在“百度百科”的广义定义是这样的:是指解题方案的准确而完整的描述,是一系列解决问题的清晰指令,算法代表着用系统的方法描述解决问题的策略机制。也就是说,能够对一定规范的输入,在有限时间内获得所要求的输出[2]。在计算机技术领域里,数据结构和算法是计算机程序设计的两大基础结构,可以说数据是程序的汽油,算法是程序的发动机。


但对于一名非计算机专业的“普通网络用户”,这种定义和比喻可能还是有些抽象了。由过往为人们所熟知的一些标志性新闻案例,可能更容易让我们理解到“算法”的涵义。


2015年6月,南京中院作出二审判决,认定“百度网讯公司的个性化推荐行为不构成侵犯朱烨的隐私权”。案件中,当事人朱烨通过百度搜索引擎检索“减肥”、“人工流产”、“隆胸”等关键词后,再进入其他网站浏览时,就会分别出现有关于前述关键词相关的减肥、隆胸等广告。这一“中国cookie隐私权纠纷第一案”的公之于众,让“个性化推荐”这一“算法”,渐渐被大众所知悉。从此,大家的饭桌谈资中就逐渐开始出现了“算法”这一有些轻奢的概念名词。


2018年,某OTA平台被曝“酒店同房不同价”,引爆了“大数据杀熟”的热点话题。2021年11月,北京市消费者协会发起的互联网消费大数据“杀熟”问题调查活动调查结果显示,86.91%的受访者认为自己有过被大数据“杀熟”的经历,92.33%的受访者认为大数据杀熟的原因是利用大数据技术开展差异化营销[3]。这种利用大数据和算法进行的“个性化服务”中,是否存在“欺诈”、“歧视”、“黑箱”等诸多问题,一度成为多年来“算法合规”界的焦点之一。


此后,通过诸如“搜索排序”、“评价排序”、“自动化决策处罚”、“监听推荐”、“AI换脸”、“声音合成”等等一桩桩一件件为人们熟知的热点案例、新闻,让大众逐渐清晰了解到了“算法”在国家、社会和人们日常工作生活中所扮演的重要角色,同时也让监管部门意识到了“算法”在互联网服务行业中茁壮发展过程中亟待规制的问题,并相继适时出台了相关合规文件。



二、 算法的合规制度演化“简史”


 


(一)概括式法律规范文件


 

《中华人民共和国电子签名法》首次在2004年颁布,虽然彼时将“算法”定义为一种电子签名验证数据,但这也是“算法”的概念首次在正式法律文件中被提及。


2020年8月《最高人民法院关于审理侵犯商业秘密民事案件适用法律若干问题的规定》第1条,将“算法”作为一种“技术信息”,纳入到了商业秘密的保护范围。


但其上的两部法律和司法解释,仅是对算法进行了概括式的归类保护,并未予以明确的具化分类。


直至2021年9月,国家互联网信息办公室(以下简称“网信办”)发布《关于加强互联网信息服务算法综合治理的指导意见》(以下简称“《指导意见》”),完整提出了健全算法安全治理机制、构建算法安全监管体系、促进算法生态规范发展的原则、目标和具体要求,为后续针对“算法”的专门性规范制定和出台,夯实了法治基础。



(二)个人信息保护体系下具化的算法合规


 

大众在初期所了解的算法类型,比较常见的就是“自动化决策”,也包含了通过自动化决策方式进行的“个性化推荐”。根据《个人信息保护法》(以下简称“《个保法》”)第73条对“自动化决策”的定义,是指通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策的活动。例如,我们现在在浏览网页、短视频时所看到的“因人制宜”的推荐广告,就是基于“自动化决策”算法进行的一种营销手段。


1. 自“35273”到“个保法”的算法合规演进


有关于对自动化决策和个性化推荐的规制,早在出台前就可散见于各类法律法规和合规文件中。在2017年版本的GB/T 35273-2017《信息安全技术 个人信息安全规范》中,就已初现有关“用户画像”和“自动决策”的合规要求。


2018年出台的《电子商务法》第18条,首次对电子商务经营者的“个性化推荐”服务提出了“双向选择”的合规要求,以尊重和平等保护消费者合法权益。


其后自2020年沿用至今的GB/T 35273-2020《信息安全技术 个人信息安全规范》版本中,进一步细化了“个性化展示”和“信息系统自动决策”合规要求的章节和条款,为其后《个保法》第24条的确定奠定了基础。


2. 三项基本原则的确立


2021年8月《个保法》正式颁布,其在第24条中,特别针对“自动化决策”算法提出了三项具体明确的合规要求:


一是公平公正原则,即要求保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇;


二是保障个人选择和拒绝权,针对自动化决策方式提供的个性化推荐,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式;


三是对重大影响决策的解释说明义务,即对于以自动化决策方式作出的对个人权益有重大影响的决定,个人享有解释说明权和拒绝权。


这三项合规要求虽然是基于“自动化决策”算法规制而确立的,但其实也成为了后续“大算法”合规制度建立的重要底线。


3. 良好实践标准的深入演化


2023年3月,全国信息安全标准化技术委员会发布《信息安全技术 基于个人信息的自动化决策安全要求(征求意见稿)》,特别针对基于个人信息的自动化决策算法,提出了深化的合规要求,包括基于算法的评估、人工介入、数据、技术文档和运行等要求,基于特征生成的个人信息处理、计算安全等要求,基于决策的安全、告知和个人权益保障要求,以及基于对个人权益有重大影响的典型场景和特殊群体的特别要求等等。同样的,虽然该项推标仍是基于个保自动化决策算法治理而作出,但其提供的完整、具体、可行的治理方案,对“大算法”的合规治理具有较为理想的参照价值。



(三)专属于“算法”的法律规范文件


 

1. 首部“大算法”法律规范——《互联网信息服务算法推荐管理规定》


虽《个保法》及其衍生规范针具有个人信息保护属性的自动化决策场景,作出了较为全面的规制,但随着技术的迅猛发展,算法模型已经千人千面,演化出了各式各样的形态、服务或功能,而不仅仅限于“自动化决策”,彼时的规范并不能全面涵盖对于“算法”的规制策略。故而,就在《个保法》正式施行后1个月,网信办即发布了正式版本的《互联网信息服务算法推荐管理规定》(以下简称“《算法推荐规定》”),这也是我国首个“算法”领域完整、全面的法规,为从业者提供了可靠的合规依据。该规定主要规制的范围是应用算法推荐技术提供互联网信息服务(以下简称“算法推荐服务”),其服务所依托的技术主要包括以向用户提供信息为目的的生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术。


2. 针对合成类算法技术的特别法律规范——《互联网信息服务深度合成管理规定》


伴随着数字化技术的日益发展,以“元宇宙”为首的数字化概念和实体产业不断推陈出新,而支撑元宇宙发展的人工智能(AI)、数字孪生、以及AR/VR/XR等交互式虚拟现实技术等,其所依托的核心技术离不开“算法”,“深度合成技术(算法)”就是其中的代表之一。


所谓“深度合成技术”,是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术,具体包括篇章生成、文本风格转换、问答对话等生成或者编辑文本内容的技术,文本转语音、语音转换、语音属性编辑等生成或者编辑语音内容的技术,音乐生成、场景声编辑等生成或者编辑非语音内容的技术,人脸生成、人脸替换、人物属性编辑、人脸操控、姿态操控等生成或者编辑图像、视频内容中生物特征的技术,图像生成、图像增强、图像修复等生成或者编辑图像、视频内容中非生物特征的技术,三维重建、数字仿真等生成或者编辑数字人物、虚拟场景的技术等[4]。


近年来,随着深度合成技术快速发展,在服务用户需求、改进用户体验的同时,也被一些不法人员用于制作、复制、发布、传播违法和不良信息,诋毁、贬损他人名誉、荣誉,仿冒他人身份实施诈骗等,影响传播秩序和社会秩序,损害人民群众合法权益,危害国家安全和社会稳定。为深入贯彻落实党中央决策部署,维护网络空间良好生态,促进深度合成服务规范发展,网信办、工业和信息化部和公安部于2022年11月,系统性、专门性针对应用深度合成技术提供互联网信息服务联合颁布了《互联网信息服务深度合成管理规定》(以下简称“《深度生成规定》”),明确各类主体的信息安全义务,为促进深度合成服务规范发展提供有力法治保障[5]。


3. 生成式人工智能算法的特别规制——《生成式人工智能服务管理暂行办法》


2022年11月30日, OPENAI发布了划时代的人工智能产品“ChatGPT”,它能够基于在预训练阶段所见的模式和统计规律,来生成回答,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文等任务[6]。在ChatGPT光辉岁月的背后,是“生成式人工智能”技术(算法)——这一由“深度合成”技术和“人工智能”技术发展、结合、演化而来的新兴技术产物。在ChatGPT的推动下,我国的“生成式人工智能”模型或产品,也如雨后春笋般应运而生,如百度的“文心一言”、讯飞的“星火”、抖音的“豆包(基于云雀大模型)”、以及华为的“盘古Chat”等等,百花斗艳,万鼓争鸣。


与此同时,由生成式人工智能技术而带来的法律风险,如知识产权问题、算法歧视问题、输出结果准确度问题、信息茧房(偏食)等诸多侵害用户法律权益的风险已经引起了广泛关注,传播虚假信息、侵害个人信息权益、数据安全及不正当竞争等问题亦层出不穷。正因这一领域算法技术的迅猛发展所带来的风险亟待规制,网信办深入贯彻落实习近平总书记在主持召开中共中央政治局会议时指出的“要重视通用人工智能发展,营造创新生态,重视防范风险”的重要指示精神,以及党中央决策部署的重要举措,“急速”于2023年7月正式颁布《生成式人工智能服务管理暂行办法》(以下简称“《暂行办法》”),以坚持发展和安全并重、促进创新和依法治理相结合为原则,采取有效措施鼓励生成式人工智能创新发展,对利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务(即“生成式人工智能服务”)实行包容审慎和分类分级监管,并针对“具有舆论属性或者社会动员能力的生成式人工智能服务”提出了“安全评估”等合规要求,为“算法”的合规发展再次注入了一针强而有效的“抗菌素”。


4. 算法合规评估实践标准——GB/T 42888-2023《信息安全技术 机器学习算法安全评估规范》


随着《算法推荐规定》《深度合成规定》等法律规范文件的出台,针对算法的审核、评估等合规要求被正式确立。为此,国家标准化管理委员会于2023年8月正式发布 GB/T 42888-2023《信息安全技术 机器学习算法安全评估规范》(以下简称“《评估规范》”),并将于2024年3月1日实施。《评估规范》将机器学习算法安全要求区分“基本级”和“增强级”,并分别对机器学习算法的技术和服务(包括算法推荐服务)场景提出了安全要求,并进一步规范了评估办法和具体评估流程。


随着人工智能视频生成产品“Sora”的诞生和普及应用,在引领新一波热潮的同时,也必将给“算法”合规课题制造新一轮的重大挑战。



三、算法合规要素解构


 

徜徉完“算法合规”的流光,让我们一起进入它的内部,自内向外,一览其无限风光下的步履方圆。本文尝试将散见于法律规范中的算法合规要求进行拆解和重构,从数据信息合规、算法模型合规、服务对象合规以及竞争合规四个维度,繁简相依地厘清合规要点,以供诸君参阅。



(一)“弹药”治理——数据信息合规


 

常言道,巧妇难为无米之炊。再好的算法,没有高质量数据和信息的支撑,也难以发挥其本有的作用,诚如精良的武器缺了弹药,而无法提供有效输出。


1. 输入端数据的合规


(1)个人信息


如笔者前述的“简史”所析,目前我国法律下所规制的算法,一般以应用于“互联网信息服务”领域、且服务于“境内公众”为形态要素,如《暂行办法》第2条第3款即明确,“未向境内公众提供生成式人工智能服务的,不适用本办法的规定”;亦如《算法推荐规定》中的“算法推荐技术”,亦是以“向用户提供信息”为目的,同时结合其“用户权益保护”章节的规定来看,这里所称的“用户”,主要是指“自然人用户”。因此,与“公众”、“自然人用户”这一服务对象紧密相关的个人信息,就成为了算法输入端数据的核心“弹药”之一,在经算法模型处理个人信息之各种安全、权益保护、管理等“老生常谈”的合规话题,则顺理成章地成为算法合规的核心关注点之一。


考虑到本文的论题和篇幅,有关通用性的个人信息保护要求,笔者不再予以具述,但就算法语境下,确也有两个问题值得一提:


1) 设置特征标签的合规要求


在算法推荐技术中,为用户添加针对其个人特征或兴趣点的用户标签(以下称“特征标签”),并按照算法进行自动化推荐,是常用的技术手段之一。《算法推荐规定》明确要求,服务提供者设置特征标签应当遵循以下必要规范:


一是,不得将违法和不良信息关键词用作特征标签并据以推送信息;


二是,向用户提供“特征标签”的选择或者删除功能。


2) 人脸编辑服务的合规要求


对于提供人脸、人声等生物识别信息编辑功能的深度合成服务提供者和技术支持者,《深度合成规定》明确要求其对深度合成服务使用者应向被编辑的个人进行告知并取得其单独同意,履行提示义务。


(2)其他数据


对于其他用以生成、融合、演算、训练等算法场景的其他非个人信息数据,亦应当遵循《数据安全法》、《网络安全法》等法律法规的要求,履行必要的安全处理和管理义务。


针对采集方式和数据来源进行必要的审查、甄别和管理,特别在以爬虫等类似技术采集数据时,企业应充分审慎处理和评估其风险,避免因侵犯他方的合法权益而引至不必要的民事甚至刑事责任。


另外,依据《数据安全法》的要求,我国对数据实施分类分级保护制度,对于“重要数据”实施强化保护。由于算法应用所需的数据量往往十分巨大,类型繁多,算法服务提供方需充分关注“重要数据”的及时甄别,并积极落实如专门保护机构、定期安全评估、数据出境评估等特定的安全保护义务。


2. 信息内容管理


现有服务于“公众”的算法场景,仍然以“互联网信息服务”应用最为常见和广泛。因此,除了数据安全管理要求外,法律规范对于信息内容的合规管理亦提出了特定的要求。


(1)建立识别特征库


依据《算法推荐规定》、《深度合成规定》等合规要求,服务提供者需建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序,记录并留存相关网络日志。


(2)审核义务


《深度合成规定》要求服务提供者采取技术或者人工方式,对深度合成服务使用者的输入数据和合成结果进行审核。


(3)内容标识义务


对使用合成类算法服务生成或者编辑的信息内容,法律规范要求服务提供者采取技术措施添加不影响用户使用、且不得删除、篡改、隐匿的显著标识,否则不得传输。


对于以下几类深度合成服务,可能导致公众混淆或者误认的,《深度合成规定》进一步特定要求服务提供者需在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况:


(一)智能对话、智能写作等模拟自然人进行文本的生成或者编辑服务;


(二)合成人声、仿声等语音生成或者显著改变个人身份特征的编辑服务;


(三)人脸生成、人脸替换、人脸操控、姿态操控等人物图像、视频生成或者显著改变个人身份特征的编辑服务;


(四)沉浸式拟真场景等生成或者编辑服务;


(五)其他具有生成或者显著改变信息内容功能的服务。


(4)处置和辟谣机制


服务提供者发现违法和不良信息的,应当采取处置措施,包括但不限于保存记录、防止扩散、警示、停止服务、模型优化训练以及向管理部门报告等。


特别对于发现利用深度合成服务制作、复制、发布、传播虚假信息的,《深度合成规定》还要求服务提供者建立健全辟谣机制,及时采取辟谣措施。



(二)“工具设备”治理——算法模型合规


 

如果说数据是算法技术的“弹药”,算法模型就是算法的核心“软武器”或“软设备”,计算机硬件则属于算法运行的“硬设备”。我们这里主要探讨的是有关算法模型的合规问题。


1. 机制机理审核、评估制度


算法的机制机理,是决定经其输出的服务结果是否合规公允的核心要素。因此,我国对于算法领域的法律规范,均着重要求服务提供者建立对算法机制机理的定期审核、评估、验证等制度。


(1)强制安全评估


在《深度合成规定》的合规要求中,对于提供具有“生成或者编辑人脸、人声等生物识别信息”、以及“生成或者编辑可能涉及国家安全、国家形象、国家利益和社会公共利益的特殊物体、场景等非生物识别信息”两类功能的合成算法模型,其服务提供者应当自行或者委托专业机构开展安全评估等。


(2)通用评估方法参考


2023年8月正式发布的《评估规范》,对从算法的设计开发、验证确认、部署运行、维护升级、退役下线等全生命周期进行安全评估的合规对照要求、评估方法和评估流程,提出了有益的实践参考规范标准。企业可以参照该文件,并结合自身的合规现状和需求制定合理健全的审查评估制度。


(3)“大模型双新评估”


《暂行办法》第17条规定,提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并按照《算法推荐规定》履行算法备案和变更、注销备案手续。监管实务中一般称之为“大模型双新评估”。


“大模型双新评估”在实践中一般要求企业参照2018年11月颁布的《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》(以下简称“《舆论评估规定》”)以及《互联网新闻信息服务新技术新应用安全评估管理规定》等的相关要求,自行或委托第三方对信息服务和新技术新应用的合法性,落实法律、行政法规、部门规章和标准规定的安全措施的有效性,防控安全风险的有效性等情况开展全面评估。


2. 科技伦理审查制度


2023年9月,中央军委科技委发布《科技伦理审查办法(试行)》(以下简称“《办法》”),明确对涉及以人为研究参与者、实验动物以及可能在生命健康、生态环境、公共秩序、可持续发展等方面带来伦理风险挑战等科技活动,应依据《办法》规定的程序开展科技伦理的评估和审查工作。对于利用算法实施的上述科技活动,除通用的伦理审查内容外,《办法》还针对性做出了特别的合规要求,包括:


(1)重点审查标准


《办法》特别针对涉及数据和算法的科技活动,提出了审查的重点内容和标准:


一是,要求数据的收集、存储、加工、使用等处理活动以及研究开发数据新技术等符合国家数据安全和个人信息保护等有关规定,数据安全风险监测及应急处理方案得当;


二是,算法、模型和系统的设计、实现、应用等遵守公平、公正、透明、可靠、可控等原则,符合国家有关要求,伦理风险评估审核和应急处置方案合理,用户权益保护措施全面得当。


(2)专家复核


对于具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发等活动,在通过科技伦理(审查)委员会的初步审查后,应由本单位报请所在地方或相关行业主管部门组织开展专家复核。多个单位参与的,由牵头单位汇总并向所在地方或相关行业主管部门申请专家复核。


3. 算法规则制定和公示要求


《算法推荐规定》第7条,明确要求算法推荐服务提供者应当制定并公开算法推荐服务相关规则,同时,需配备与算法推荐服务规模相适应的专业人员和技术支撑。


第16条,则要求算法推荐服务提供者以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。


4. 算法备案制度


“算法备案”,是我国算法合规管理的一项重要制度。《指导意见》在构建算法安全监管体系中明确了“建立算法备案制度”的体系建设要求,这也是将来我国进一步建立和实施算法分类分级管理制度的重要一环。


秉承《指导意见》的要求,2021年12月颁布的《算法推荐规定》,正式将“算法备案”制度的实践落地。根据《算法推荐规定》第24条的明确要求:“具有舆论属性或者社会动员能力的算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息,履行备案手续。”该规定的后续条款进一步给出了备案具体流程和期限,为相关主体履行备案义务提供了较为明确的实操指引。


在后续出台的《深度合成规定》中,亦明确要求深度合成服务提供者依据《算法推荐规定》的要求完成备案,并在网站、应用程序等的显著位置标明其备案编号并提供公示信息链接。


有关算法备案的实践,有三个值得提示的问题:


(1)备案主体限制


备案主体仅限于“具有舆论属性或者社会动员能力的算法推荐服务提供者”。也就是说,如果企业提供的算法推荐服务并不具有“具有舆论属性或者社会动员能力”,则并不强制履行算法备案义务。


(2)“具有舆论属性或者社会动员能力”的理解


那么,由上述“备案主体限制”引发的问题就是,什么是“具有舆论属性或者社会动员能力”呢?网信办于2018年11月15日发布的《舆论评估规定》第2条,提供了判断此类信息服务场景的示例标准:


第一类是具体示例,即开办论坛、博客、微博客、聊天室、通讯群组、公众账号、短视频、网络直播、信息分享、小程序等信息服务或者附设相应功能;


第二类是概括性示例,即开办提供公众舆论表达渠道或者具有发动社会公众从事特定活动能力的其他互联网信息服务。”


(3)算法备案系统


最后要搞清楚的就是,到哪里去备案?目前,国家实施统一的在线申报入口,官方申报系统的网址为https://beian.cac.gov.cn。需备案的主体可访问该官方网站,并依照网站首页置顶提供的“《互联网信息服务深度合成管理规定》备案填报指南”进行注册和信息填报。



(三)“目标”治理——服务对象合规


 

在做好数据端和模型端的合规后,对于算法服务的对象——“公众”、“用户”(如上所述,本文暂限于讨论自然人用户)等,同样需要满足相应的合规要求,以在充分保障其权益的同时,确保服务和管理的公正、透明。


1. 用户准入


在用户准入审核方面,《深度合成规定》提出明确要求,要求服务提供者基于移动电话号码、身份证件号码、统一社会信用代码或者国家网络身份认证公共服务等方式,依法对深度合成服务使用者进行真实身份信息认证,未进行真实身份信息认证的,则不得为其提供信息发布服务。


2. 用户权益保护


算法领域的法律规范,同样对保护用户合法权益提出了合规要求。根据笔者对相关法律规范的梳理总结,与用户权益保护相关的合规要求包括但不限于:


(1)生成式人工智能服务提供者应当与使用者签订服务协议,明确双方权利义务;


(2)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生歧视或不合理的差别待遇;


(3)不得设置诱导用户沉迷、过度消费等违反法律法规或者违背伦理道德的算法模型;


(4)向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项;


(5)对用户权益造成重大影响的,应当依法予以说明并承担相应责任;


(6)依法响应用户关于查阅、复制、更正、补充、删除其个人信息等的请求;


(7)设置便捷有效的用户申诉和公众投诉、举报入口;


(8)依照《个保法》《算法推荐规定》等要求,对于未成年人、老年人、劳动者以及消费者等特定群体实施额外的权益保护要求。



(四)“环境”治理——竞争合规


 

现今的世界,已经迈入“算力”时代,除硬件技术外,数据和算法已经成为了企业的核心竞争力之一。而在争夺用户和商业主导权的过程中,利用数据和算法进行“争议性”竞争和垄断的行为并不鲜见,诸如“非法爬虫”、“算法共谋”、利用“信息茧房”恶意竞争、利用“算法漏洞”恶意竞争等算法时代的新型争议和违法违规案件也日益增多。


针对这一现象,《算法推荐规定》在第15条针对性提出了明确的合规要求,要求算法推荐服务提供者不得利用算法对其他互联网信息服务提供者进行不合理限制,或者妨碍、破坏其合法提供的互联网信息服务正常运行,实施垄断和不正当竞争行为,这也为监管部门对“算法”领域的有序竞争规制,进一步提供了明确的法规依据。


有关算法应用引发的技术研发、服务市场新型法律问题,是一个跨法域的大课题,限于本文探讨的主题和篇幅,本章节不做喧宾夺主,容后再另开专题以与诸君作崇论闳议。



结语


 

科学技术,在似永无疲累的高速奔驰中。其回眸时,或许会对法律规制的习惯性滞后报以轻笑。但作为法律人,我们也明显感觉到,在党和国家的领导下,在立法和监管部门的不倦努力下,对于新技术新领域的法律规制和规则指引,真真切切地在不断加速完善,以尽力保障“算力”时代下的公共服务环境、营商环境、生活消费环境等的健康和有序。


如果说,“算法”是社会和国力进步的发动机系统,那么“法治”,就是保障发动机有序运转的防火墙和润滑剂。机遇和风险往往伴生并存,任何新事物的兴起,必然会因国际、域际、亦或人际利益关系擦出的“火花”,而伴随各种风险和代价的波骇云属。法律的作用,正如勒马之缰,藏锋之鞘,让新技术于开端的锋锐驰骋,赋予仁心,有规可循,最终成为利他利己而不伤人的国之重器。我们可能无法真正做到“算”无遗“策”,但谋定后动,笃行致远,或许才是真正的治“算”良方。


[1]环球网科技《OpenAI发布视频生成新模型Sora:文本提示可转化为一分钟高清视频》https://baijiahao.baidu.com/s?id=1791195804808930632&wfr=spider&for=pc)

[2]百度百科词条——《算法》https://baike.baidu.com/item/%E7%AE%97%E6%B3%95/209025?fr=ge_ala

[3]光明网《北京市消协发布互联网消费大数据“杀熟”问题调查结果》https://m.gmw.cn/baijia/2022-03/07/1302833633.html

[4](国家互联网信息办公室 工业和信息化部 公安部令第12号)《互联网信息服务深度合成管理规定》第二十三条

[5]《互联网信息服务深度合成管理规定》答记者问

[6]百度百科词条——ChatGPT https://baike.baidu.com/item/ChatGPT/62446358?fr=ge_ala

image.png

相关人员