查看原文
其他

上政学报 | 张宇晖:算法决策的结构化问责机制:欧盟经验与中国借鉴

上海政法学院学报 上海政法学院学报
2024-09-16


点击蓝字

关注我们


新兴权利法律问题研究


算法决策的结构化问责机制:欧盟经验与中国借鉴


本文刊登于《上海政法学院学报》2022年第4期


作者简介 

张宇晖,法学博士,烟台大学法学院讲师。



内容摘要

算法决策由于不透明和潜在歧视等风险而引发法律问责难题,法学界逐渐形成对算法决策综合治理的趋同共识,但既有的问责理论未能充分实现有机协作的结构化问责目标。算法决策的结构化问责是以算法正义为纽带,实现纵横维度上的问责要素联动的问责模式。欧盟算法结构化问责在横向维度上要求满足信息层面的透明度、论辩层面的可解释性、达成价值层面的算法正义框架共识并且可能面临一定的法律后果,在纵向维度上要求实现结构化的规制理论,并且实现行政机构与私人机构之间的协同监管。深入分析欧盟算法决策的结构化问责机制,对充实我国算法决策的问责框架具有启发意义。建构我国算法决策的结构化问责机制,需要在横向维度上明确透明度要求的构成要素和层级,区分信息层面的透明度要求和论辩层面的可解释性要求,建构形成算法正义共识的法学方法论并融合既有的社会正义理论,在纵向维度上需要完善结构化的监管体系,并实现行政机构与私人机构之间的协同监管。


关键词

算法决策;结构化问责;算法正义


引用格式

张宇晖:《算法决策的结构化问责机制:欧盟经验与中国借鉴》,《上海政法学院学报(法治论丛)》2022年第4期。


目次

一、问题的提出

二、结构化问责机制的法理基础

三、欧盟算法决策的结构化问责机制

(一)算法决策结构化问责的横向纬度

(二)算法决策结构化问责的纵向纬度

四、我国算法决策问责机制之困境与解决

(一)我国对算法决策的问责之困境分析

(二)我国算法决策结构化问责机制之提倡

(三)我国算法决策结构化问责机制之建构方案

五、结语


一、问题的提出


算法决策系统(Algorithmic Decision Systems,ADS)被广泛地应用于社会生活的各个领域,从招聘、贷款活动中的算法评估、网络平台利用算法定价,到公共机构使用算法预测警务、智能税收、管制交通,再到司法系统设立智慧法院。可以毫不夸张地说,公民的社会生活已经被算法决策所裹挟。算法决策呈现出替代法律决策的趋势,从卢曼《公共行政中的法律与自动化》的论述中可以窥见一斑:“如果人们回溯法律结论的论证过程会发现,这一过程如同机器计算一样,呈现出将信息分离后又以特殊相关性为标准并排除干扰因素进行信息重新整合的程式化特点,因而合法行政就如同以形式平等为基础的数据处理程序”。然而正如硬币的两面,算法决策系统为社会生活提供便捷的同时,也引发法律问责难题,譬如算法决策可能会造成算法歧视、算法黑箱、算法垄断,并且可能影响社会生活舆论,威胁民主社会存在的基础。


算法决策所引起的法律问责难题已成为法学界共识,为此法学界提出对算法决策问责的各种规制理论,譬如算法歧视规制、算法垄断规制、算法平台问责、算法黑箱规制,等等。各种规制理论对解决具体的算法难题提供了详细的解决思路,但从算法问责难题产生缘由的相似性——算法系统目的不合法、算法过程不透明、算法决策结果不公正——可以看出,各种算法规制理论本应该具有相亲性而非离散化。因此,以具体风险为导向的问责理论有助于解决具体问题,但有头痛医头、脚痛医脚的风险。并且,鉴于算法系统的复杂性、算法决策中参与主体的多样性以及不同主体之间的利益紧张关系,构建算法问责机制需要从算法系统的整体出发,立足于我国算法决策问责的实践困境,思考如何将各种问责方案进行结构式的有效融合。目前法学界逐渐形成对算法决策综合治理的趋同趋势,譬如场景化规制方式、算法规制谱系构建、算法决策统合规制以及限权与赋权体系建构。在此趋同共识基础之上,笔者想进一步研究如何建构我国对算法决策的结构化问责机制。


针对算法问责,欧盟通过《通用数据保护条例》(以下简称“《条例》”)、《算法问责及透明度监管框架》、《数据影响评估指南》、《人工智能法案》等一系列立法建构了结构化的算法决策问责体系。欧盟立法以其赋权的广泛性、企业承担义务的多样性以及惩戒的严格性而被称为史上最严的问责方案,同时也成为学界研究的对象之一。但欧盟建立的协调联动纵横维度上问责要素的结构化问责机制尚未以清晰的面貌呈现。梳理和厘清欧盟算法决策的结构化问责机制对解决我国的算法问题难题具有重要的启发意义,因此,本文首先明确算法决策的结构化问责机制之法理基础,其次深入分析欧盟横向维度和纵向维度上的算法决策问责要素以及要素联动,从而为充实我国算法决策的问责框架提供借鉴意义,以期解决我国算法实践中的问责难题。


二、结构化问责机制的法理基础


算法不同于算法决策,算法问责机制解决的是利用算法决策的问责问题。厘定算法与算法决策是进一步研究问责机制所基于的正义理念和分析结构化问责机制的基础。算法决策中涉及人为因素,因而其引起算法歧视、算法黑箱等社会问题并不意外。但由于正义内涵的复杂性,对算法决策引起的算法错误、偏见和歧视等现象出现仁者见仁、智者见智的看法,同时在理论上和社会实践中为解决这一难题也出现了不同的问责方案。各种问责机制的有机结合建立在正义理念之上,探究算法问责机制的过程与探究算法正义框架的共识是一致的。


1.算法与算法决策


关于算法究竟是什么这一深刻问题可以归结为“丘奇-图灵命题”(the Church–Turing thesis)。在斯坦福哲学百科全书中,“丘奇-图灵命题”被认为是可以由图灵机完成的每个有效计算。哪些可以被数据化、被(有效)计算属于计算机科学和数学领域的课题。算法决策不同于算法,它是技术因素和人为因素的结合,属于社会科学研究的对象。算法只是“在计算或解决其他问题的操作中要遵循的过程或规则集”。算法具有确定性,服从于确定的指令和计算路径,而算法决策是人类依据算法系统作出对社会关系或法律关系自主塑造的决定。算法遵循标准化程式,而算法决策还与选择及参与算法决策的个人认知、相关经验有关。算法是一种技术工具,不具有感知能力但相对客观,而算法决策还包括算法模型建造者的观点、倾向和价值模式,本身并不客观或中立。算法评估在结构上遵循决策者的目标模式,因此通常更多地基于建造者的经济理性而非社会主流价值观。


现代算法随着计算能力提升可以执行超出人类能力和速度的复杂任务,通过自我学习提高性能,并进行复杂的分析以预测可能的未来结果。算法并不一定与大数据分析相关,而算法决策建立在大数据分析的基础之上。算法决策是建立在大数据分析的基础上做出的预测性推论,例如,潜在借款人违约的可能性或家庭热力消耗需求的增加。算法决策是基于算法系统而作出的人类决策,并不是机器自主判断行为,但算法决策以算法系统为基础,涉及系统使用及后果审查整个流程,在不同阶段通过多人参与提供信息构成整个系统流程。算法决策并非独立运行的决策流程,是广泛的社会技术体系(socio-technical system)的一部分。


2.算法决策的问责机制


对算法决策问责涉及算法技术体系的整个决策流程。论证对算法决策所采取的问责机制,无疑需要首先厘清问责制的概念内涵。事实上,问责制从来没有一个统一的概念。对问责制最简洁的描述是:“解释和证明行为正当的义务。”就算法决策问责制而言,由于多人参与算法系统决策流程,因此多个参与人有义务解释和证明其对算法系统的设计、使用、决策等行为的正当性及该行为的后续影响。


但是问责制作为一种特定的社会关系,并非简单地理解为行为人解释和证明行为正当,而是以公共理性为纽带,涵盖了横向维度和纵向维度上的问责要素,从而形成一种结构化的问责关系。从横向维度上的问责要素表现为五个:第一,问责制需要相关利害关系人对行为人所为的行为知情。第二,行为人负担了解释其行为正当的义务。第三,相关利害关系人可以对该解释进行辩论和反驳。第四,经论证形成了判断行为正当性的标准共识,即公共理性。第五,根据公共理性标准,行为人可能需要承担一定的后果。从纵向维度上看,作为社会关系的问责制也包含了不同面向。以公司处理数据活动的问责制为例,纵向维度上的算法问责的构成要素分为:第一,监管机构对数据处理所应尽到的监管责任,以及与公司就数据处理活动所产生的监管关系;第二,监管机构与私人机构之间就数据处理活动所形成的协同监管模式。


从问责机制的横向和纵向维度可以发现,问责机制形成的焦点在于公共理性的达成。公共理性试图解决每个人普遍的政治和道德规则需求与“理性人”对某些问题的认识分歧之间的紧张关系。公共理性概念可以为算法决策问责所面临的多元化困境提供潜在的解决方案,譬如可以通过确保决策者必须能够根据所有理性人都可接受的认知和规范标准来解释其系统的输出,从而限制算法决策的权力。公共理性为内涵纵向和横向维度的结构化问责机制贡献了概念化方案,这一概念反映在算法决策的法律问责问题上表现为算法正义框架的形成。正如衣俊霖教授所指,可以指定信息交换的结构性元规则促进算法和法律的良性互动,实现对算法决策的事前规制或事后问责。算法正义无疑为该结构性元规则贡献了框架基础。


3.结构化问责机制的法理基础


算法正义框架共识为算法决策的结构化问责机制提供了法理基础。形成对算法决策问责的规范共识,首先需要受算法决策影响的利害关系人之间寻求共同利益的最大化并接受相互之间的利益平衡。在此基础上,建构算法问责机制需要将法律理念与将来可能的生活事实调适,并通过算法问责的司法实践结合现实的生活事实得以实现。算法结构化问责机制建立在算法正义这一框架共识的体系性建构上,而正义理念需要从社会整体的角度去理解。正如罗尔斯所言,正义取决于社会整体如何理解正义所内涵的原则以及多大程度上接受由正义原则所得出的结论。由正义调节的有序社会呈现的基本特征是,公民之间可以基于正义原则进行合作并获得他人认可。从正义理念出发,社会被理解为为了相互利益而进行合作的探索和冒险,其基本结构是一个公正的规范体系,该体系确定了引导人们合作产生较大利益,并在合作过程中分配给每项合理要求以应得份额的活动方案。


算法对法治的影响与改变的核心目标是实现对正义的建构,只有在算法中注入正义的价值,算法法治才能得以成立。然而,达成算法正义的共识不可避免地要面临以下挑战:首先,算法决策的设计者、使用者与利益相关者之间的认知和规范标准不同,甚至受算法决策影响的数据主体也难以形成统一的价值标准。从克莱因伯格对刑事司法系统中常用的风险评分统计工具Compas的正反论证中可见一斑。这种相互竞争的论争表明不同群体之间价值标准的差异。其次,既有的不同社会正义理论,譬如功利主义、自由主义、自由平等主义等,在面临算法社会时,出现选择和嵌入困境。再次,算法权力产生了失衡的治理关系,算法使得社会朝向技术理性支配、商谈理性空间限缩的计算化和非可逆的发展形态。尽管目前形成算法正义共识框架仍面临困境,但以算法正义概念为基础的框架体系,为算法决策的结构化问责提供了达成实质问责标准的可能性,并且要求为算法决策设计结构化的问责程序。算法正义框架体系要求将社会正义理论嵌入算法决策系统,并以此来连接算法决策问责的不同纬度和面向,并使各个问责要素联动,最终助力算法信任体系的建构和完善。


三、欧盟算法决策的结构化问责机制


算法结构化问责机制是一种以算法正义框架共识为纽带,以横向纬度和纵向纬度上的问责要素为内容的协调联动机制。欧盟通过《条例》《算法问责及透明度监管框架》《数据影响评估指南》《人工智能法案》等一系列立法确立了对算法决策的结构化问责机制。该算法决策的结构化问责机制在横向纬度上的构成要素表现为信息层面的透明度要求、论辩层面的可解释性要求、价值层面的正义框架共识以及可能面临的法律后果,同时在纵向维度上的构成要素表现为结构化的监管关系与规制理论以及行政与私人机构之间的协同监管模式。


(一)算法决策结构化问责的横向纬度


1.信息层面的透明度要求


针对算法决策所引起的歧视、不透明、不公平现象,学界致力于提高算法决策的透明度,以打破算法黑箱,纠正和加强算法问责。透明度要求是问责制的信息层面,它既是决策过程控制框架的先决条件也是其产物。提高算法决策系统的透明度原则,是欧盟算法治理进程中的里程碑。2019年欧盟人工智能高级专家组通过的《可信赖人工智能的道德准则》指出,数据、系统和人工智能业务模型应该是透明的,人类需要意识到他们正在与人工智能系统进行交互,并且必须了解系统的能力和局限性。欧盟《条例》不仅规定了一般数据处理活动的透明度原则(第5(1)(a)条),针对自动化决策系统还提出了特别的透明度要求。透明度原则为现有的欧盟规范性条款提供了原则性的规范基础,譬如信息义务、访问权和控制权等。欧盟《条例》规定了一般数据处理活动的个人知情权(第15(1)条),还规定了对自动化决策的知情权(第13(2)(f)条、第14(2)(g)条)、访问权(第15(1)(h)条)和拒绝权(第22条)。个人因此有权访问算法系统,获知自动化决策的相关逻辑以及自动化处理对主体影响的预期后果。并且,根据第12(1)条规定数据控制者应该“以简洁、透明、易懂且易于访问的形式,使用清晰明了的语言”向数据主体提供信息。


透明度要求作为算法决策问责机制的基石,在内容上主要包括以下几个层级:第一,规定了披露以及通知主管当局和数据主体存在算法决策系统的义务;第二,创建个人信息访问权,通过该权利允许数据主体访问算法决策系统,允许监管当局享有更广泛的信息权并且设计获取信息权的例外情形以实现相互竞争的利益之间的合理平衡(譬如商业秘密);第三,为保证系统问责制,监管机构和法院也可以被授予深度的调查权,这还涉及针对算法决策系统的调查机构以及机构之间的职责衔接问题;第四,包括各种附加措施,例如对人工智能系统操作的记录义务。


透明度原则的确增加了算法系统的清晰性,有助于解决算法决策中的信息不对称问题。但是透明度要求应该秉持一种合理的透明度义务。不成比例或过度扩展的告知义务可能会增加交易成本,超出合理范围的信息义务最终会损害数据主体利益。另外,要求公司披露他们使用的算法信息可能会对市场技术创新和投资产生寒蝉效应。因此,考虑到各种权利主体之间的利益平衡,欧盟《条例》序言第63项第5句限制了数据主体的访问权,其规定用户的访问权不得对他人权利和自由产生不利影响,包括他人的商业秘密、知识产权,尤其是软件的著作权。解决访问权和商业秘密之间的冲突,实现合理的透明度要求,需要进一步界定透明度要求的不同维度。有学者将透明度的内容层级区分为两个平行维度,即隐秘的透明度(Esoteric transparency)和开放的透明度(Exoterictransparency):隐秘的透明度意味着本质上算法系统不是不透明的,只是需要通过专家才可以理解并完全访问算法内部功能;开放的透明度意味着某种程度上算法系统不属于关系上的不透明,因为与系统交互的非专业人士可以访问对他们有意义的信息。在此基础上,就信息监管而言,会授予不同类型的利益相关者不同类型的访问权限,因而并非每个人都需要无限制地访问所有信息。相对于数据个体的信息访问通常需要关注交流维度而言,专家、公共机构尤其是法院,享有更深远的调查权。譬如对于超大型平台,《数字服务法》《数字市场法》规定可以对平台风险管控系统实施独立调查。


综上,对于算法决策问责的横向维度第一层级,透明度要求也并非寻求简单一刀切的解决方案,而是需要综合考虑数据处理活动中利益主体的法律地位、利益相关的强度、算法系统的重要性等方面,设计不同的透明度维度,从而平衡信息披露、访问权与技术创新、商业秘密保护之间的利益冲突。


2.论辩层面的可解释性要求


透明度要求并不涵盖行为人的解释义务,算法决策系统的可解释性要求属于问责机制中横向维度中论辩层面的构成要素。解释算法决策系统具有正当性,既是算法决策的结构化问责机制在横向维度上的第二层级,又是协作控制算法决策系统的第一步。有学者甚至认为,欧盟《条例》赋予了数据主体对特定个性化决策的解释权,该解释权来源于欧盟《条例》序言部分第71项,并属于通过体系解释和目的解释所证成的新兴权利。与问责机制横向维度上第一层级向相关利害关系人提供信息的要求不同,第二层级要求行为人解释算法决策系统的正当性,这意味着必须在社会实践中对算法决策系统进行考察,并通过社会和法律制度为个体发起论辩提供条件。可解释性是程序正义的核心组成部分,向社会解释算法实现功能和结果有助于促进社会对算法技术的信任度。根据程序正义理论,如果个人认为决策程序是公平的,那么个人可以消减对消极的算法决策结果所产生的不满。


另一方面,由于算法技术的复杂性,即使个人有权访问算法系统的源代码或数据库,这类措施并不一定具有启发性。算法社会加大了技术精英与社会大众之间的认知鸿沟,为保证个体论辩的有效性,还需要监管机构和专家团体参与其中。法律机制是解释理论的组成部分,法律要求给出理由的目的不仅是将算法决策告知个人,而且是使他们能够启动复杂的法治机制以保护他们的权利,即能动性不仅通过了解决策原因或潜在替代方案而产生,而且还通过支持个人论辩和审查决策而产生。这种制度方法通过从本质上区分解释的两项不同要素,使法律体系能够摆脱真实性和可解释性困境:第一,尝试确保信息接收人能够认识到他们受到了决策的影响,并可以选择接受结果还是通过上级行政机关或法院的参与寻求法律补救措施;第二,监管机构必须保证解释尽可能复杂,以便有效控制算法决策系统。


英国的沃切特等人将对算法决策的解释分为对系统功能的解释、对特定决策的解释、事前解释和事后解释,认为对系统功能的解释是指对算法系统的逻辑、意义、预期后果以及一般功能进行解释,而特定决策是指特定算法决策的规则和个人情况,譬如决策规则、因素权重等。其中,事前解释仅用于系统功能,而事后解释可用于系统功能与特定决策解释。欧盟《条例》序言部分第99项建议在制定、修改或扩展行为准则时,代表控制者或处理者类别的协会和其他机构应咨询相关利害关系人(譬如数据主体)并且关注为回应此种咨询所收到的意见。并且,《条例》规定了企业数据保护影响评估时应该提前咨询数据主体或数据主体代表对预期处理的观点。在该类咨询程序中,企业解释算法系统、预期后果、所实现的功能属于企业的信息义务或公众的知情权、访问权而非所谓的事前“系统解释权”。


3.价值层面的正义共识


算法正义是对算法决策问责价值层面上的要求,该框架共识是利益相关方商谈和辩论的结果,一旦形成不受主观因素的制约。算法正义通常意味着算法做出的决策不应产生不公正、歧视性或不同的后果。以算法正义框架规制算法系统预先确定的推理逻辑,才能克服技术权威主义。欧盟针对算法决策的公共理性形成问题,提供了算法正义框架共识形成的规范路径和既有正义理论的合理融合。


针对算法决策涉及人员的广泛度、复杂度与决策结果的不可逆等特点,欧盟对算法正义的形成径路可以总结为以下步骤:


第一,严格区分无须进一步解释和需要解释的规则。对于全有或全无规则的适用,符合算法系统“是/否”的二元结构,对该类规则的算法适用不存在论辩空间。譬如,德国《行政程序法》第35a条规定,行政行为可以完全通过自动装置发布,前提是法律允许并且没有自由裁量的余地。事实上在引入第35a条之前,已经发生了自动化决策的行政行为,譬如,交通灯或高速公路交通管理系统的信号所显示的决策行为。在实践中,税务机关也可以根据自动化设备存储的信息和纳税人提供的信息,作出更正、撤回、撤销、取消或更改纳税评估以及抵扣和预缴税款,除非在个案中有理由要求由公职人员处理。


第二,大多数其他情形下,法律的适用不应该完全依赖于算法或演绎逻辑,这源于对规则结构或语言的质疑。大部分法律规范难以通过单纯的涵摄得以适用,而是需要结合个案情况进一步具体化。法律推理还涉及以辩护程序支撑的反思评估和价值平衡过程。只注重形式逻辑的结果会导致社会陷入马克斯·韦伯所描述的技术官僚主义的泥淖,算法社会将会呈现出明确且可重复的非个人程序的特征。由于大部分算法运行发生在设计和训练阶段,评估和纠正最终的运行模型可能非常困难甚至不可能。另外,当系统是动态的并且随时间变化时,创建显示每个人都受相同决策策略约束的审计日志不太有用。因此,面对算法决策的特点为实现个案正义,人工干预措施是必要的。欧盟立法将人为参与模式规定在自动化决策中(《条例》第22条),该模式要求人类在算法决策之前主动解释和挑战算法输出,或者随时准备做出回应性干预。有学者提出,“在设计中或通过设计道德标准”在编程中实现预防性监管,也是基于实质正义的考量。


第三,对于没有明确构成要件和法律效果的法律原则而言,暂时不存在适用算法决策的空间,譬如,禁止利用算法决策充实尊重人性尊严原则。首先,这表现在算法决策中的信息正义问题,算法决策中禁止使用敏感数据作为决策因素。原则上自动化决策不得使用特殊类型的个人数据(种族、民族、政治观念、宗教或哲学信仰、个人基因数据、健康状况等),除非征得相关人员同意的情况下或者如果出于公共利益而有必要时(欧盟《条例》第22条第4款结合第9条)。其次,这表现为人类可以控制算法决策流程和结果。对于算法决策流程的控制属于程序正义的要求。程序正义的学术研究始于心理学家发现对决策结果正义的感知(满意度、接受度和遵守度)不仅取决于结果本身,还取决于确定结果的过程。因而,算法决策中允许用户对自动化处理享有反对权,允许其控制推荐引擎的输入和规则,并允许个人通过提供示例和演示来训练算法。此外,欧盟《条例》还规定了数据主体对数据处理活动的更正权、携带权、限制处理权、删除权等。结果控制可以纠正错误决定,并可以采取补救措施,譬如,个人享有对算法决策结果的事后控制,可以对算法决策的不公正结果提出诉讼。


除了基本的算法正义形成路径,欧盟对算法决策还融合了既有的社会正义理论。首先,在欧盟《人工智能法案》中,采用了结果主义问责算法决策,规定了以算法系统风险为导向设计不同的问责方案。该法案遵守欧盟《条例》对数据风险评估的要求,使用基于风险的问责框架,并且被认为是比对所有人工智能系统进行全面问责更好的选择。该问责方案实际上是基于功利主义的社会正义理论,以此最大化群体或社会的效用,在人工智能系统可能对基本权利和安全构成高风险时才施加监管负担。对于其他非高风险人工智能系统,仅施加非常有限的透明度义务,例如,在提供信息以标记与人类交互时人工智能系统的使用方面。


此外,欧盟对算法决策的问责机制部分吸收了既有的平等主义的正义理论。譬如,欧盟成员国将《条例》和本国的《反歧视法》《一般平等待遇法》相结合,旨在实现个人或群体平等。又如,德国除禁止使用欧盟条例中的敏感数据外,还禁止将年龄作为决策标准。另外,针对儿童、雇员等弱势群体或少数群体规定了数据处理的特别规则,以此达到实质正义的结果。


综上,欧盟针对算法决策过程中算法正义的形成路径,以及对既有正义理论的合理融合,对引导算法正义共识具有规范效应和启发意义。该算法正义纽带的形成有助于明确判断横向问责维度上行为人是否面临法律后果。


4.可能面临的法律后果


行为者可能面临一定的法律后果,属于算法决策问责机制在横向维度上最终的问责要素。行为者根据正义共识可能面临的法律后果作为事后追责,属于矫正正义模式。譬如,欧盟《条例》第8章规定了大量的惩罚机制,行政罚款最高处罚相当于企业上一年度全球总营业额4%的罚款数额。就民事责任承担而言,《条例》第80条赋予了数据主体委托非营利机构、实体或协会代表提出申诉的权利,针对监管机构、控制者和处理者提出司法救济的权利。欧盟《条例》规定了数据主体提出集体诉讼的规范依据,将非政府组织纳入权利救济体系中。


(二)算法决策结构化问责的纵向纬度


1.行政监管与多元化规制理论


就与监管机构的监管关系而言,主流学说主要分为传统规制、自我规制和元规制理论。传统规制试图建立以结果责任认定为核心的政府事后监管模式和以个人为中心的权利救济模式的二元结构。自我规制强调企业自行遵守规制要求,将规制要求内化为企业的合规文化。元规制将传统规制与自我规制结合,强调监管机构指定规制规范,设定规制目的,而企业自行确立实现规制目的的路径和措施,以备监管机构审查。欧盟针对算法决策确立了以元规制为主、自我规制和传统规制为辅的监管关系。该监管关系主要表现在:


首先,确立了监管机构与企业之间的元规制关系。欧盟《条例》,规定了企业经设计的数据保护要求,即企业应采取适当的技术措施以实现数据保护目标。这种制度设计仅提供了规制目标,具体采用何种技术措施交由数据控制者根据自身行业特点和运营需求自由裁量。《条例》规定的企业风险影响评估也符合元规制理论,企业可以自行评估处理活动对数据主体的权利影响,不依赖于监管机构制定标准,可以说明和自行确定防范风险的措施,自行审查其对设定措施的遵守情况并报告监管机构。


其次,综合应用事前行政许可和事后行政处罚等传统的规制模式。欧盟建立的以风险为导向的算法规制模式将算法产生的预期风险分为不同的等级,对不可接受的风险可以采取保留行政许可的方式预防风险。此外,欧盟《条例》还规定了企业明确的数据合规义务,譬如企业处理数据的合法性规定(第6条)、提供信息的义务(第13条)、记录义务(第30条)以及配合监管机构调查权的义务(第58条)。企业违反上述合规义务,将面临监管机构的行政处罚。


再次,监管机构鼓励企业形成符合自我规制理论的合规文化。欧盟在《数据影响评估指南》中建议企业探索更多路径,包括对数据处理的认证机制,审核涉及机器学习的数据处理过程的行为准则,设立道德审查委员会评估特定应用程序在识别分析中对社会造成的潜在危害和其中所涉及的利益。此外,监管机构鼓励行业内部制定行为准则,通过行业内部协商一致,制定道德条例和行为守则,草拟技术规制的最低标准并且提出认证要求,并为算法的研发者制定“希波克拉底誓词”。


综上,欧盟在监管机构与企业的规制关系上,并非限于单一的规制模式,而是在规则和标准之间界分,将应由企业自行制定标准和实施措施的领域交由企业,将应该由监管机构提供明确规则的领域交给行政监管机构,并在这一基础上将事前预防与事后规制结合,构建一种立体化的监管关系。


2.行政机构与私人机构之间的协同监管


与传统的监管关系相比,面对技术和风险社会的监管困境,出现了新的委托监管形式,据此私人主体被公权力主体授权或确立技术规范标准,或执行规范标准,或公权力主体提供具体标准后由私人主体负责执行该标准。有学者将其确立为基于不同标准的共同监管形式,即实际的规范制定、共同监管义务的实施以及基于监管要求的执行。第一种形式涉及适用于技术标准化背景下的监管框架。在欧盟层面,标准在很大程度上是由欧盟机构授权具有私人性质的标准化机构制定的,由不同专家组成的标准化机构实际上发挥着规范制定者的作用。第二种形式引入了认证机制,这种机制与欧盟《条例》中通过设计保护数据的想法密切相关。立法者规定了技术设计中的价值观或原则,但由技术设计者或开发者来具体确保该价值观或原则的实现,并且由监管当局事后控制其所采用的措施,即公司满足认证不一定会推定为合规,但没有满足立法者所要求的原则或价值会导致事后制裁。第三种形式超越了自愿标准化或认证机制,允许立法者将某些设计强加给技术人员,即立法者详细概述需要受保护的价值和原则,并要求相关设计人员将其编码到算法系统。这三种不同的委托监管模式具体区分如表1所示。


表1  欧盟基于不同标准的共同监管模式


虽然,欧盟监管机构与专家同行之间的监管关系,引起了一系列的法律争议。譬如在性质上属于行政委托授权还是行业组织、认证机构享有一定的法定监督权?行业准则是否需要受到司法机关的审查?但无可否认的是,欧盟经过批准的行业准则,实际上可以给予算法处理实体免责的效果,可以推定企业已采取了足够和适当的安全保障措施。同时,监管机构登记、发布批准的行为准则,并最终通过提交欧盟委员会以决定是否以立法的形式确定该行为准则。这一立法过程也是通过企业内部与监管机构以及监管机构之间的分层协作完成的。


与行为准则相比,认证机制寻求使用市场措施激励行业参与,由公司团体制定认证标准,消费者寻找那些获得认证的公司。认证机构需要取得监管机构的认可或成为全国性的认证机构。认证机制降低了信息不对称给数据主体带来的信赖损害风险,并且有利于第三方机构与政府协作参与监管,有利于降低因信息不对称引发的大量诉讼,间接起到降低司法成本的作用。


四、我国算法决策问责机制之困境与解决


我国近年来制定的《新一代人工智能伦理规范》《关于加强互联网信息服务算法综合治理的指导意见》《个人信息保护法》《互联网信息服务算法推荐管理规定》等法律文件,为我国算法决策问责提供了制度上的框架基础。但该算法问责框架仍然未形成纵横结合、层次分明的结构化问责模式,因此导致问责规则之间难以有效衔接,规制理论发挥作用有限,难以实际解决算法决策所面临的问责困境。譬如,有学者明确指出我国《个人信息保护法》的个人数据保护和个人赋权制衡的进路过于狭隘,难以对算法自动决策进行系统的规制,因而有必要从算法侵害风险防御视角出发,进行整体性的、纵向的、动态的算法规制,积极探索算法可解释性、可问责性的解决方案,加强算法责任研究。还有学者指出,我国算法评估制度脱胎于欧盟的隐私影响评估制度,但我国算法评估制度与其他制度关系不明,评估后果不清晰,存在与平台责任追究的衔接失调问题。


从社会学角度分析,结构化问责机制源于“社会有机体”理念,该理念要求问责机制的各个部分并非割裂的状态或机械地组装和叠加,而是相互协作形成有机整体。在横向维度上对算法决策问责意味着信息层面上的算法透明度要求、论辩层面的可解释性要求、价值层面的正义共识以及可能面临的法律后果。算法问责制作为一种特殊的社会关系制度,在纵向维度上对算法决策问责意味着企业与监管机构之间的监管关系以及监管机构与专家同行的委托监管关系。各个纵横维度上的算法决策问责要素并非孤立存在,而是遵循着基本的问责理论,将纵横维度的各个问责要素进一步层级化或纵深化,譬如,针对不同类型主体设计不同深度的访问权,需要不同主体参与的可解释性要求,算法正义形成路径的层级化和多元化正义理论融合,既有的和新型的规制理论以及规制关系层级化。


但由于算法技术的独特性、非显性和复杂性,既有针对人类决策而设计的“主体—行为—责任”的追责体系无法适用于计算机系统的归责问题。因此,有学者提出,“责任困境是一种程序化与过程化的问题,需要通过‘信息—解释—结果’这一动态框架分析”,该观点无疑支持了横向维度上对算法决策问责。同时,由于算法技术精英与普通大众之间的技术认知鸿沟,使算法决策的侵害过程更加隐蔽、侵害方式难以察觉,因此在算法决策纵向维度上,单独依靠个人权利救济和事后行政处罚难以起到规制效果。因此,在纵向维度上解决对算法决策的问责困境,需要重构公权力与私权利、行政权力与技术权力的关系,建立一种“政府—平台—消费者、公权力—社会权力—私权利的三元结构”。


(一)我国对算法决策的问责之困境分析


正如上文所述,我国算法决策问责所面临的最大困境在于,各种问责方案未能形成有机协作的结构化问责机制。针对具体风险的方案设计的确在解决具体问题时具有启发意义,譬如,针对算法黑箱要求提高算法透明度,针对歧视问责禁止设置歧视性用户标签或不得实行差别待遇。但从算法问责难题产生缘由的相似性可以发现,各种算法问责方案本应该具有相亲性而非离散化。从该思路出发解决算法问责难题,首先需要构建出针对算法独特技术的结构化问责之规则框架。当然,在构建我国对算法决策的结构化问责框架之前,无疑需要详细分析我国算法决策问责在横向维度和纵向维度上所面临的具体困境。


1.横向维度上的算法决策问责困境


我国对算法决策问责在横向维度上所面临的困境,具体表现在:信息维度上的透明度要求内涵不清、层级不明,论辩层面上难以满足可解释性要求,价值层面上尚未形成达成算法正义的规则路径以及尚未解决算法规制方案中既有正义理论的嵌入问题。


(1)透明度要求的内涵和层级不甚明确


我国《个人信息保护法》明确了算法自动化决策的透明度要求,但对于透明度要求的内涵以及构成要素却未形成统一的认识。有学者指出,算法透明包含着从告知义务、向主管部门报备参数、向社会公开参数、存档数据和公开源代码等不同形式,算法解释权也可以看成是算法透明原则的具体化体现。有学者区分了形式意义与实质意义上的算法透明度要求,形式意义上意味着算法信息公开,实质意义上意味着公开的算法信息必须是可以被大众所理解、所信赖的。与此不同,有学者认为,算法可解释性是算法模型的客观属性,算法透明度则是算法运行结果与主观预期的关系,算法可解释性与算法透明度要求属于需要区分的不同义务,因此,应该分别作结构化、层次化的处理。算法透明度要求的要素是设计权利义务的基础,也是在平行维度上进一步区分不同程度的访问权和调查权的前提,更是为后续进一步解决访问权与企业商业秘密,平衡权利保护与技术创新之间的关键步骤。因此在横向维度上对算法决策问责无疑需要首先明确透明度要求的内涵,并且以此为基础区分透明度的平行维度,明确该横向维度的问责要素无疑也为纵向维度上的监管关系奠定了基础,譬如,访问权与调查权的权限界清无疑为后续的行政约谈监管措施提供了规范基础。


(2)论辩层面上难以满足算法可解释性


我国《个人信息保护法》第48条规定,个人有权要求个人信息处理者对其个人信息处理规则进行解释说明。由于这一算法解释权性质不明、适用前提不清,引起学界很大争议,也难以为算法系统的正当性论辩提供规范引导。有学者认为,算法解释权应该成为算法治理制度的核心,欧盟弱化版的算法解释权实际通过知情权、访问权等数据权利和数据影响评估制度得到强化。提出反对意见的学者认为,欧盟法律体系中不存在算法解释权,该权利也并非解决算法伤害的理想机制,强行建立解释权会造成冗余甚至与既有的法律体系产生冲突。有学者认为,应该以沟通信任原则重构算法解释权,将算法解释权仅视为一种程序性权利。产生上述争议的根源在于,在算法决策横向维度的问责要素上,信息层面和论辩层面的问责要素混淆、界分不清,尤其是访问权和可解释性要求混淆。


(3)价值层面上未形成算法正义框架


算法正义属于当前我国学界研究的热点问题,也引起了越来越多的关注。但是对于算法正义的内涵、形成路径问题,学界仍然莫衷一是。譬如有学者指出,算法正义需要建构一种基于过程的,而不是仅基于结果的正当程序观念。与此不同,有学者认为,算法正义的本质内涵应该是社会正义,这意味着算法运行规则的制定主体适当、算法运行的逻辑规则正义、算法运行的过程正义。还有学者提出计算正义的法律概念,认为需要基于算法技术维度和社会维度内的共同性,并通过挖掘算法的正义空间来提炼计算正义的基本内涵。


上述论断对研究算法正义具有启发意义,虽然算法正义属于框架性概念,难以清楚界定和统一其内涵。但即便如此,研究这一框架性概念仍然有助于分析,如何在算法社会中形成算法正义共识或框架基础,而这一问题也应该成为关注的重中之重。算法正义作为以算法技术嵌入社会为特定对象的社会正义理论的特定类别,在实质正义内涵上必然会融合多种正义理论,这取决于算法技术决策的领域和内容,譬如,算法决策教育资金或社会福利的分配则可能会涉及这一领域内平等的社会正义理论。然而,除了平等的社会正义理论之外,依照算法决策的事项不同还可能涉及功利主义、自由主义、能力主义等其他社会正义体系,算法正义框架在实质内涵上必然会融合多元化的社会正义理论。


但是,这一涵盖多元化社会正义理论的算法正义框架并不影响法学方法论上对算法正义框架形成路径的研究,也就是说法学方法论需要对算法正义框架形成提供方法论上的支持,譬如,法教义学是否因算法社会转变为回应式法学,哪些规则可以完全交由算法决策,哪些规则和原则必须设计人工干预措施等。然而,目前理论上对算法正义框架共识的法学方法论问题也鲜有研究。


2.纵向维度上的算法问责困境


(1)尚未形成结构化的监管体系


在算法决策问责的纵向维度上,首先需要明确行政机构的监管问题。正如前文所述,行政监管关系的建构依赖于规制理论。不可否认的是,我国创设了启发性的新型监管关系或监管规则,这主要表现在:首先,《互联网信息服务算法推荐管理规定》根据算法推荐服务提供者的级别设计了行政备案措施。其次,不限于单一的事后行政处罚,而是规定监管部门的调查权,对发现的问题提供了行政约谈制度,并进一步提供了限期整改的举措。再次,立法提供了社会性监督方案,设置了吹哨人制度。最后,投诉与申诉并举,为维护个人的数据权利提供了事后保障措施。


上述监管规则无疑有助于更好地实现对算法决策的问责,但不容忽视的是,各种监管规则之间是联动的、系统的、结构化的而非静态的、割裂的、单维度的。举例来说,如果没有横向维度上明确访问权和调查权的权属边界,则无法有效实现纵向维度上的行政约谈制度。规则之间的有效衔接才能更好地明确法律关系,实现法律规则对实践活动的有效指引和规范作用。譬如,有学者指出,《互联网信息服务算法推荐管理规定》明确,“鼓励相关行业组织加强行业自律,建立健全行业标准、行业准则和自律管理制度,督促指导算法推荐服务提供者制定完善服务规范、依法提供服务并接受社会监督”。但目前我国的立法实践中,相关条款往往是鼓励性的或宣示性的,未来的立法应进一步探讨如何通过“后设规制”进行监督和规制,使之具有可问责性。


此外,我国尚未形成对算法决策系统化的规制结构。纵向维度上,系统化的规制结构意味着需要综合运用事前事中事后的监管方案,将行政许可、行政过程监控、行政惩戒有效衔接和联动。目前我国强调行政监管改革创新,2019年国务院公布《关于加强和规范事中事后监管的指导意见》,强调更多行政资源从事前审批转到加强事中事后监管上来,落实监管责任,并提倡与私人机构的协同监管。该系统化的规制结构显然不限于单一理论或方案,而是需要研究如何有效衔接传统规制理论与现代化监管创新。目前,有学者提出借鉴欧盟“通过设计保护数据”的元规制模式,制定相应的技术标准,鼓励实施适当的认证机制,从外部刺激企业自我规制,强化“通过设计保护数据”的实施。也有学者指出,在监管机构缺乏必要资源或信息时,适宜采用元规制模式,即通过正反面激励,促使数据控制者本身针对问题做出自我规制式回应。元规制模式有效解决了传统规制和自我规制的规制难题,是两者之间的衔接方案,无疑对算法决策有效规制提供了理论基础。但单一规制理论不能解决结构性问题,因此,应探究既有规制理论的综合运用和衔接,以及新型的协同监管模式,即寻求一种结构化的系统规制体系。


(2)尚未形成与私人机构之间的协同监管


由于技术复杂化和技术分工日益精细化,单纯依靠监管机构制定各行各业的标准已不再可能。具有私人性质的行业标准化机构和认证机构会越来越多地参与到监管事务当中,实际制定规则或执行标准。针对算法决策,我国《关于加强互联网信息服务算法综合治理的指导意见》《个人信息保护法》《互联网信息服务算法推荐管理规定》也提出健全行业标准、行业准则和自律管理制度,支持有关机构开展个人信息保护评估、认证服务。


此外,监管机构还可能将某些设计原则强加私人机构,并要求相关设计人员将其编码到算法系统中。譬如,有学者指出,当前司法科技产品一般由司法机关与科技公司合作研发,司法机关通常会根据上级要求和自身需求告知科技公司设计的目标和思路,科技公司经广泛调研后将其转化成技术产品,二者再对产品进行调适和磨合。但是,面对算法系统决策遵循“代码即法律”的逻辑,私人性质的科技公司是否已经承担标准制定者、实施者或监督者的功能,以及对该种协同监管模式的权限法律界定尚不明确。


行政监管与私人监管协同是现代规制理论的改革创新。但是,有学者指出,转型中国市场主体与社会组织的诸多结构性缺憾拘囿了私人规制模式有效发挥规制效果的制度空间,这主要表现在:第一,国家对于行业协会等社会组织的控制一直较为严苛,自始缺乏社会自治的历史传统;第二,虽然审批权下放或取消,但大数据监管依然容易被上级量化考核,但私人规制要求长期的制度建设与市场培育,短期内难以达到上级的量化考核要求;第三,“放管服”的改革要求难以为大数据监管领域内的私人规制创造条件,原因在于中央对信用规制、大数据监管高度关注与资源倾斜。


(二)我国算法决策结构化问责机制之提倡


基于我国算法决策的问责困境,结构化问责机制在纵横维度上可以实现问责要素有效联动,从而为解决算法问责难题提供系统化方案。因此,我们应积极借鉴吸收欧盟算法决策结构化问责的有益经验,用结构化问责的理论有效衔接不同的算法规制措施,实现对算法的有效治理。


欧盟针对算法决策的问责机制,是以算法正义联结横向维度和纵向维度上的问责要素所形成的结构化问责机制。横向层面的算法问责机制表现在信息层面的透明度要求、论辩层面的可解释性要求、价值层面的正义共识以及企业可能面临的法律后果。首先,透明度要求首先保证用户、监管机构对使用算法决策的知情权。其次,根据隐秘的透明度和开放的透明度两个平行维度,算法决策受众对算法决策享有不同程度的访问权和调查权。与此相应,设计、使用算法决策的企业必须履行信息披露义务和记录义务。该层次分明的透明度要求可以有效解决个人访问权与企业商业秘密之间的平衡问题,可以为后续行政调查、行政约谈提供制度基础。再次,论辩层面的可解释性要求为行为者和受众之间提供沟通的渠道,属于程序正义的要求,也是控制机制的必要步骤。最后,要求在价值层面上达成正义共识。算法正义共识的形成属于结构化问责机制的纽带,既是辩论层面所形成的最终结果,又是判断行为者是否面临法律后果的规范基础。该层面不仅需要提供达成算法正义框架的法学方法论路径,又需要整合不同的社会正义理论。欧盟纵向维度的算法决策问责机制要求形成多元化、系统化的规制结构,并且形成与私人机构之间的协同规制,将事前事中事后监管有效衔接。欧盟纵向维度的算法决策问责具有很大的启发意义。首先,其综合运用了传统规制、元规制和自我规制理论,将事前审批许可、事中过程监督与事后惩戒机制有效衔接,而不仅局限于单一规制理论。譬如,与解决具体算法风险不同,欧盟将算法技术风险层级化,针对不同风险级别,分别设计市场许可规则、强监管规则、公司合规义务规则等方案。其次,实现了与私人机构之间的实质性的协同监管模式,并且给予满足行业准则和认证机制的企业一定的推定免责效果或起到辅助行政司法执行功能,切实发挥了协同监管的作用。


综上,欧盟对算法决策的结构化问责机制可以有效衔接不同的算法规制措施,为解决算法规制实践难题提供了结构化、系统化的规范基础,因此,我们可以立足于自身的算法实践背景,借鉴欧盟结构化的算法决策问责理论,切实解决我国对算法决策的问责难题。


(三)我国算法决策结构化问责机制之建构方案


诚然,建构我国对算法决策的结构化问责机制,必须从我国对算法决策的问责之困境出发,提出对算法决策横向维度和纵向维度上针对问责要素的具体规范方案。


1.横向维度上的算法决策问责


针对我国算法问责在横向维度上所面临的问责困境:透明度要求的内涵和层级不甚明确、论辩层面上难以满足可解释性要求,以及价值层面上尚未形成算法正义框架,现提出以下具体规范方案。


首先,明确信息维度上透明度要求的构成要素,协调受众的知情权、访问权与企业的信息义务、披露义务与记录义务。在算法治理中,开源软件中算法在源代码层面的公开性,使得其可以更好地接受公众监督,但开源托管平台也可能存在“深度伪造”争议性开源软件,因此未来的算法治理,可以为互联网平台规定更合理的信息披露义务。追究其根本在于,解决权利义务之间的冲突,实现保护个人信息与企业商业秘密之间的平衡。合理平衡的关键在于构建访问权的平行维度,根据不同类别主体设计不同深度的访问权,赋予监管机构和专家机构深度的调查权。这一步骤也是横向维度上的可解释性要求、正义共识的基础,同时也为纵向维度上的算法决策问责奠定了规范基础,譬如,后续的行者约谈、限期整改等监管措施的实施,有赖于调查权的权限设计。


其次,明确区分信息维度的透明度要求和论辩层面的可解释性要求。破解算法黑箱并非将所有代码公开,也不意味着让决策相对人完全知悉算法的搭建与运算过程,更多地是通过可被理解的方式解释算法。明确致力于算法系统的可解释性,而非授予决策受众以解释权。个人通过诉讼可以发起对算法决策正当性的论辩,但这绝不是个人“算法解释权”,这一概念本身具有误导性。一是,企业是否负担解释算法决策正当的义务,本身属于举证责任分配的问题,与“算法解释权”毫无关系。算法决策的受众要求企业解释算法决策结果的正当性,这既非程序性权利更不是实体权利,而是证明责任的分配问题,虽然这一分配责任并非算法决策的受众所享有的权限。一般而言,如果受众遭到损害后主张赔偿时,适用谁主张谁举证的原则。但由于算法技术的复杂性、算法系统决策的隐蔽性特征,可能(不是一定)存在举证责任倒置的问题,也就是由企业解释算法决策具有正当性,该解释义务属于诉讼法上责任分配的结果。二是,当前各国致力于算法的可解释性,可解释性要求的内涵完全不同于所谓的“解释权”。可解释性要求致力于各方参与下查明算法决策输入要素与输出结果之间的因果关系,这并非决策受众的权利而是要求从整体角度考量算法系统的可理解性,决策受众的作用仅在于信息维度知情后提起诉权而非存在所谓的“解释权”。三是,所谓的事前“系统解释权”实际上属于信息维度上的透明度要求,应该归属于知情权、访问权或调查权的内容。


再次,建构形成算法正义共识的法学方法论,并结合既有的社会正义理论形成我国特色的算法正义共识框架,但这一正义框架并非单一的正义理论,而是根据算法决策适用的领域所形成的多元化的正义体系。在算法正义共识的形成径路上可以参考欧盟的研究成果,区分原则和规则,明确不存在自由裁量空间的、可以自由裁量的规则。此外,在多元化的正义体系形成问题上,应该系统地梳理和论证既有社会正义理论的嵌入问题。譬如,我国虽然基于平等的社会正义理论明确了算法决策实践中保护弱势群体,但却没有引入以风险等级为导向的算法规制方案。因此,有必要论证功利主义的社会正义理论在算法决策实践中的适用空间。面对技术风险社会,功利主义无疑有利于实现群体利益的最大化,在风险社会中具有适用的价值空间。


2.纵向维度上的算法决策问责


针对我国算法问责在纵向维度上所面临的问责困境:尚未形成结构化的监管体系,以及尚未形成与私人机构之间的协同监管问题,现提出以下具体规范方案。


首先,建构更加完善的结构化监管体系,协调事前事中事后监管举措,综合运用事前许可、事中全过程监督和事后行政惩戒措施。一是,可以借鉴欧盟以风险为导向的算法问责方案,对于不可接受的算法风险适用事前审批、许可的行政措施,对高风险的算法决策适用强监管,对次级风险需要通过企业履行透明度义务、可解释性义务等防范风险。二是,由于算法技术的特殊性、隐秘性和辐射范围广等特点,需要重点研究事中的过程监督问题。在此过程中,必然需要监管机构与企业之间的合作联动,这不仅需要通过技术嵌入监管机构强制施加的道德价值,更需要采取诸如设立数据保护官、事前抽查、事前调查的措施。


其次,建构行政机构与私人机构协同监管模式,明确彼此之间的监管性质、权限和责任,提供切实可行的规范方案而非框架条款。近年来我国致力于私人规制模式,为实现协同监管提供制度基础,颁布了《行业协会商会与行政机关脱钩总体方案》《关于全面推开行业协会商会与行政机关脱钩改革的实施意见》等一系列文件。有学者指出,行业协会改革映射出转型体制下国家—市场之间的复杂关系,无法毕其功于一役,行业自我规制的潜能尚需培育观察。笔者认为,实现行政与私人机构之间的协同监管需要致力于以下几点:一是明确标准化机构和认证机构的法律地位,赋予其协同监管的权限或监管决策的实际执行者地位;二是明确标准化机构、认证机构与行政机构之间的权限、功能界分,为私人规制提供规范基础;三是明确协同监管的私人机构违反监管职责时的责任追究规则,合理确定其刑事、民事、行政责任;四是明确满足行业准则和认证条件的企业可以推定享有免责效力或已执行监管要求,从而切实保证私人规制的实效。


五、结语


历史学家尤瓦尔·赫拉利曾在其《未来简史》的最后部分发出警示:“科学正逐渐聚合于一个无所不包的教条,也就是认为所有生物都是算法,而生命则是进行数据处理。”该论断并非危言耸听,当前建立在深度学习基础上的算法决策系统正或隐或显地为我们的社会生活做出规范选择,而算法问责机制作为将算法决策系统纳入人类规范轨道中来的预防和保障机制,其重要性不言而喻。结构化的问责机制以正义共识为纽带,连接了纵横维度上的问责要素,并实现了各个要素之间的有效协作和规范统一。欧盟算法决策的结构化问责机制,除了横向维度要求信息层面的透明度、论辩层面的可解释性、达成价值层面的正义共识以及可能面临法律后果外,在纵向维度上形成结构化的行政监管体系,以及行政与私人机构之间形成协同监管模式。算法决策的结构化问责机制为解决算法问责难题提供了系统化的规则衔接方案,因此我们应积极借鉴吸收欧盟算法决策结构化问责的有益经验,用结构化问责的理论有效衔接不同的算法规制措施,以此解决我国算法决策问责的实践困境。有鉴于此,本文提出构建我国结构化问责机制在横向维度上明确透明度要求的构成要素、层级界分,区分信息维度的透明度要求和论辩层面的可解释性要求,建构形成算法正义共识的法学方法论,并结合既有的社会正义理论形成我国特色的算法正义共识框架;在纵向维度上建构更加完善的结构化监管体系,建构切实可行的行政与私人机构协同监管模式。


往期推荐



上政学报 |  谢   杰:期货市场内幕交易犯罪的机理解构与刑法规制

上政学报 | 崔仕绣 王付宝:社会治理现代化下的刑法与刑法修正探析——以《刑法修正案(十一)》为视角

上政学报 | 常鹏翱:论规划对产权的影响——以城市房地产为分析对象

上政学报 | 高铭暄 傅跃建:新时代“枫桥经验”与国家治理现代化:内在逻辑与实现进路

上政学报 | 胡玉鸿:全过程人民民主的价值依归

上政学报 | 李建伟:股东双重派生诉讼制度为何重要——由10份典型裁判说开去

上政学报 | 魏健馨:《生物安全法》的宪法逻辑

上政学报 | 肖新喜:论网络安全的公益诉讼保护

上政学报 | 黎   宏:《刑法修正案(十一)》若干要点解析

上政学报 | 赵   云:中国空间站运行所涉基本法律问题探析

上政学报 | 周永坤:法学是科学吗?——德国法学界的史诗性论辩

上政学报 | 李   敏:虚拟货币的反洗钱监管探析及借鉴

上政学报 | 杨立新:侵害个人信息权益损害赔偿的规则与适用——《个人信息保护法》第69条的关键词释评

上政学报 | 顾永忠:论“委托辩护应当优先法援辩护”原则

上政学报 | 李   翔:袭警罪的立法评析与司法适用

上政学报 | 孙   远:论庭前会议环节对控方证据的实质审查——以新《刑诉法解释》第232条为中心

上政学报 | “初创学者佳作”专栏征文启事

上政学报 | 上政《数字法治评论》约稿函资      讯 | 我校学报二次文献转载再创佳绩《上海政法学院学报》2022年第4期目录与摘要《上海政法学院学报》2022年第3期目录与摘要《上海政法学院学报》2022年第2期目录与摘要《上海政法学院学报》2022年第1期目录与摘要上政学报 | 2021年1-6期目录



关于本刊


  《上海政法学院学报》创刊于1986 年,原名《法治论丛》(2003年改名为《上海政法学院学报》),至今已走过36年的发展历程。《上海政法学院学报》是我国最早以“法治”命名的法学专业学术期刊之一,立足于弘扬法治精神与当代中国法治实践,坚持理论与实践相结合的特色办刊方向。本刊践行“以法为基,寻社会治理之策;以文为器,求兴国安邦之道”的办刊理念,体现学术性、专业性、知识性的办刊宗旨。坚持正确的政治方向,坚持以高水平、高层次、高质量的学术研究成果,推动社会法治进步。欢迎确立学术命题,实现学术创新,达到学术标准,有理论深度,有历史重感,有广阔视野的作品。

  《上海政法学院学报》积极倡导学术民主,坚持特色化、专业化发展道路,在法学研究领域大胆探索,不断总结办刊经验,逐步成长壮大,在学界享有较高的知名度和影响力。2006年底,《上海政法学院学报》被南开大学科研评价系统认定为政治、法律类核心期刊;在2008年3月15日《光明日报》公布的中国人民大学书报资料中心“复印报刊资料”全文转载量的统计排名中,《上海政法学院学报》在所属的政治法律类1269种报刊中排名第25名;根据2011年北京大学“中文核心期刊目录”的分析统计,《上海政法学院学报》在全部法学期刊中位居第31位。本刊已连续六届成为上海市优秀学报、连续四届成为全国高校优秀社科期刊,2018年11月入选中国人文社会科学期刊AMI综合评价报告核心期刊(扩展版)。本刊为国家哲学社会科学学术期刊数据库,CNKI中国期刊全文数据库、北大法律信息网、万方数据-数字化期刊群、超星数据库、龙源期刊网和中国学术期刊(光盘版)全文收录期刊,上网即可查阅到本刊创刊以来的全部稿件。

  近些年,以创建一流法学学术期刊为目标,在学校领导及学界、学术期刊界等各方的大力支持下,经过编辑部全体人员的共同努力,《上海政法学院学报》的学术质量及学术影响力都有了明显的提高。影响因子从2016年的0.237上升到2020年的1.97;刊文被《新华文摘》《中国社会科学文摘》《人大复印报刊资料》《高等学校文科学术文摘》等权威二次文献转载和摘编的篇次也明显提高;法学期刊学科排名从2016年的57名上升到第36名。

  本刊以“问题意识”为导向,聚焦社会、学术前沿和热点问题,并以此为支撑进行选题策划和栏目、专题设置。2021年第1期在中国人民大学王利明教授、杨立新教授、郭锋副主任等学界大咖及实务界专家和中青年才俊的大力支持下,成功地出版了《民法典》专刊。现已(拟)开设主要特色栏目及专题有“学术关注”“上合组织法治”“新兴权利法律问题研究”“党内法规研究”“域外借鉴”及“<民法典>的解释和适用"“<民法典>背景下的公司法修改”“生物安全法治”“刑事合规研究”“刑法修正案十一专论”“网络法治”“大数据法治”“人工智能法治化”“区块链法治化”“电子商务法治”,等等。

  36年来 , 我刊虽然取得了一些进步,但同全国许多优质兄弟期刊相比还存在着很大差距和不足。我们诚挚地欢迎广大海内外科研工作者关注和支持上政学报并惠赐大作,也欢迎各界朋友积极建言献策、批评指正,以期共同办好《上海政法学院学报(法治论丛)》。来稿请通过《上海政法学院学报》编辑部网站(http://www.shupl.edu.cn/xbbjb/)投审稿系统进行投稿。本刊对来稿严格遵守三审(二审外审)定稿制度,以确保稿件选用公开公平公正。  

  本刊刊稿版权包括纸质版与网络版版权,属于《上海政法学院学报》编辑部, 任何形式 、媒介的转载、摘登译或结集出版均须标明来源于本刊。刊稿仅反映作者个人的观点并不必然代表编辑部或主办单位的立场, 本刊不以任何形式收取版面费。


以法为基,寻社会治理之策

以文为器,求兴国安邦之道


投稿邮箱:xuebao@shupl.edu.cn

微信公众号:law-review1986

网址:http://www.shupl.edu.cn/html/xbbjb

电话:021-39227617  39227619



更多容请点击下方“阅读原文”进入学报官网查看

继续滑动看下一个
上海政法学院学报
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存