中国人权领域唯一专业网站

李婷|算法行政争议的人权司法方法:理论证成与实施路径

2025-03-03 09:14:35来源:数字法治微信公众号作者:李婷
字号:默认超大| 打印|

摘要

我国在数字政府发展进程中已经开展了算法行政实践。由于法律规范不健全,算法行政争议的司法审查存在回避算法合法性评价、实质审查要素不统一、举证责任分配不均衡的问题。人权司法方法是指在司法审查中将人权保障原则的实施作为裁判理由的法律适用方法。在域外司法实践中,算法行政争议存在依据国内法审查和人权司法方法与国内法相结合两种模式。人权司法方法在调和法的安定性与技术的发展性之间的冲突方面体现了显著优势。在我国法制体系下,人权司法方法具有合宪性、独立性与可行性。将人权司法方法适用于算法行政争议,其具有化解价值冲突、阐释法律原则、解释法律概念的现实功能。在算法行政争议的司法审查中,应当以人权保障原则的解释性适用为主要路径,明确人权司法方法的适用范围、算法影响评估的证据功能、算法权利影响的审查步骤。

关键词:人权司法方法;算法行政;司法审查;算法影响评估

引言

党的二十届三中全会通过的《中共中央关于进一步全面深化改革 推进中国式现代化的决定》针对健全公正执法司法体制机制提出了“坚持正确人权观,加强人权执法司法保障”的要求。《法治政府建设实施纲要(2021—2025年)》提出:“坚持运用互联网、大数据、人工智能等技术手段促进依法行政。”从世界范围来看,当前各国普遍加强了人权司法保障。司法是实现“法定人权”向“实有人权”转化的关键环节。中国式现代化人权发展道路凸显了人权主体和人权内容的普惠性,开创了具有中国特色的人权理论和实践范式。司法方法是指法官在司法裁判中运用的一系列法律思维与法律适用技术。法官在行政诉讼中运用的法律适用技术和司法审查规则均是司法方法在行政诉讼中的具体展现。人权保障是我国宪法确立的一项基本法律原则。人权司法方法是指在司法审查中将人权保障原则的实施作为裁判理由的法律适用方法。人权司法方法的运用有利于促进抽象的宪法原则向具体的裁判规则转化,将人权保障要求落实为人权保障实践。在算法行政争议化解中运用人权司法方法,完善司法审查规则,可以有效缓解法的安定性与技术的发展性之间的张力,平衡算法带来的公共利益增长与个体和群体权利限制之间的冲突。本文在比较中外司法实践路径的基础上,指出了在算法行政争议中适用人权司法方法的必要性,并进一步论证了人权司法方法在我国法制体系中的合宪性、独立性与可行性,以及其在算法行政争议化解中的现实功能与实施路径,以期通过人权司法方法完善算法行政争议的司法审查规则。

一、算法行政争议的人权司法方法实践基础

算法行政是指,在大数据自动收集、汇聚和分析的基础上,以建模、预测、自动化处理等方式,根据规范或政策目的进行行政执法及公共治理的活动。我国在数字政府发展进程中已经开展了算法行政实践,将算法应用于行政审批、交通执法、社会风险预防、税务稽查、信用评估等领域,但现有的法律规范体系无法全面回应算法行政法律争议。

(一)算法行政争议审查的国内实践

我国的算法行政实践已历时十余年。早在2010年,南京市环保局就将“环保行政处罚裁量辅助决策系统”运用于环保行政处罚的个案裁量。算法技术目前已广泛运用于道路交通、环境保护、市场监管、海事航政等诸多场域。在司法实践中,已初步出现了算法行政相关领域的诉讼。截至2024年6月14日,中国裁判文书网已发布关于非现场方式执法的判决书115份,主要争议集中于设置自动化系统的合法性与科学性、自动化系统结论的准确性、自动化执法设备的公示与标识的合理性等方面。尽管自动化执法并非等同于算法行政,但针对数字权利保护和数字技术的审查规则构成了算法行政争议化解的基础。截至2024年6月14日,在人民法院案例库已有的407件行政案例中,仅有4件涉及数字、算法等引发的争议。以下几类问题阻碍了算法行政司法审查规则的系统化发展:

1. 回避算法合法性审查

在法律层面,我国关于算法行政的规范尚不健全。《行政处罚法》第41条仅对利用电子监控设备固定违法事实作出了关于法制和技术审核、设置公示、记录审核等规定,对于各类算法行政活动的属性尚没有明确清晰的定位。法律依据的缺位导致了司法中的程序性审查偏好。在“甘肃省酒泉市环保行政处罚自由裁量辅助决策系统案”中,环保部门依据“环保处罚自由裁量辅助决策系统”计算的罚款金额作出处罚决定。行政相对人提出,作为计算依据的项目金额存在计算错误,导致处罚过重,请求撤销处罚决定。法院以在申请听证期未届满之前作出处罚决定属于程序违法以及处罚内容不完整为由,判决撤销处罚决定,但未对使用“环保处罚自由裁量辅助决策系统”的合法性及金额计算方式进行审查。这为行政机关再次依据同样方式作出处罚决定预留了空间。在“南京市权力阳光行政处罚辅助决策系统案”中,环保部门在初步告知行政相对人经由辅助决策系统得出的罚款金额及具体计算类别、幅度等之后,根据相对人申辩意见重新组织审议,最终通过人工裁量,决定减轻30%的罚款金额。算法裁量辅助系统的使用会受到裁量基准采纳、填报数据范围、事实采集方式等多种因素的影响。程序性审查不足以回应算法行政的核心争议——算法合法性。

2. 实质审查要素不统一

关于是否将系统问题作为算法行政行为合法性的实质审查要素,存在两种做法:第一种是不对系统进行实质审查。在“李某诉广东省交通运输厅政府信息公开案”中,李某通过政府公众网络系统提交政府信息公开申请。广东省交通运输厅答辩提出,由于外网数据以“摆渡”方式进入内网系统,故系统迟延导致没有及时处理申请。法院认为,政府信息申请公开平台具有权威性,如未作例外说明,则在该平台上递交申请成功应被视为行政机关已收到信息公开申请。在“西安市自助式缴纳罚款系统案”中,田某某认为,公安部门未出具处罚决定,违反程序规定。法院则以田某某可在自助系统中缴纳罚款并打印书面决定为由驳回其诉讼请求。在以上两起案件中,法院均未针对系统的合法性、科学性进行实质审查。第二种是进行实质审查。其又可以分为系统运行审查和系统数据审查。在“上海市声呐电子警察案”中,法院将电子监控设备生成的照片及系统运行均纳入审查范围,针对交管部门提供的电子声呐设备,围绕系统形成过程如何、是否明显违反逻辑和科学性、实际效果如何这三个要素展开审查。在“北斗导航系统定位渔船采捕状态识别案”中,证监会发现,獐某公司结转财务成本并非以原始记录为依据,于是调取了北斗导航系统关于该公司船只采捕状态的数据,将其与船只定位数据进行比对,最终认定獐某公司存在虚假陈述,作出处罚决定。在该案中,证监会针对系统数据分析结论进行了实质性审查。

3. 举证责任分配不均衡

在“辽宁省新民市交通测速系统案”中,高某提出,机动车超速自动监测系统具有误差可能性,而交管部门未对电子警察拍摄的车辆行使照片进行速度审核,也未进行合理性说明,故请求撤销处罚决定。法院以电子测速设备已经公示并经检测合格为由驳回了高某的诉讼请求。法院未对案件争议的技术标准进行审查,行政机关也未围绕争议焦点进一步举证。在“北京市交通技术监控设备设置地点争议案”中,唐某提出,涉案监控设备及其标志的设置不符合《城市道路交通标志和标线设置规范》的设置要求。在一审中,交通管理部门未举证证明事发路段设有禁令标志、公布监控设备等,仅举证关于监控地点的公告。在二审中,交通管理部门仍未提供证据证明事发路段设有明显标志。唐某申请针对监控设备的设置地点进行现场勘查。法院以“勘查申请与处罚决定审查无关”为由不予准许,驳回唐某的上诉。法院推定唐某作为驾驶员应明知具体禁区范围,未将设备设置及其现场标志符合规定的举证责任全面分配给被告。在以上案件中,行政机关未全面承担算法合法性及算法使用程序正当性的举证责任。

(二)算法行政争议审查的域外实践

在域外实践中,欧洲和美洲属于数字化行政立法水平和实践程度较高的区域。对于算法行政争议,欧洲和美洲存在两种审查模式:一是依据国内法的审查模式;二是国内法与人权司法方法相结合的审查模式。人权司法方法在调和法的安定性与技术的发展性之间的冲突方面体现了优势。

1. 依据国内法的审查模式

依据国内法的审查模式高度依赖于一国的数字化行政立法水平和算法行政实践经验。法国是当前数字化行政立法水平较高的国家,而美国是全球较早开展算法行政实践的国家。两国分别凭借立法优势和实践优势形成了关于算法系统信息公开审查和算法系统使用合法性审查的经验。

(1)算法系统信息公开审查

用于公共执法的算法系统信息作为政府信息的组成部分,其核心法律争议主要是源代码是否可以公开。法国行政文件公开委员会曾于2015年支持关于公开税务计算程序源代码的主张。2016年,法国《数字共和国法》第4条规定,行政主体可基于算法作出具体行政行为,后该规定被编入法国《公众与行政关系法》。该法第R.311-3-1条规定了算法行政行为相对人的“一般知情权”,即其有权知悉行政行为使用了算法及算法的总体规则、主要标准。该法第R.311-3-2条规定了算法行政行为相对人的“特别知情权”,即当其要求知悉算法具体内容时,行政主体应释明行政决定中的算法与人工的比重、处理数据的范围与方式、算法运行的标准与步骤。该法第L.300-2条规定,应予公开的文件包括源代码;但其第L.312-3-1条规定,行政主体应在网上公开源代码的非技术性解释文件,这为源代码的公开创造了例外情形。在法国“高等教育招生录取算法案”中,法国全国学生联合会提出,根据法国《公众与行政关系法》,行政主体应公开Parcoursup的算法流程和源代码。一审法院明确支持法国全国学生联合会关于公开源代码的主张;但法国最高行政法院认为,一审法院对法律的解释有误,故以缄默的方式处理公开源代码的请求,并以“特别知情权”仅针对具体行政决定的个别相对人为由撤销了一审判决。

(2)算法系统使用合法性审查

美国的算法行政实践可追溯至20世纪中期。在美国“德克萨斯州教师绩效评估系统案”中,德克萨斯州的休斯顿学区使用学生教育增值评估系统(EVAAS)的统计模型作出评分,用来预测学生可能取得的成绩及其与实际成绩之间的差值,并将评分作为解雇或不续约教师的理由。休斯顿学区教师联合会提起诉讼,请求法院审查该自动化决策的合法性。法院审查了从EVAAS给出的低分结果到终止合同的决定这一推理过程,对EVAAS的算法的合法性作出了否定评价。法院认为,软件商声称的“准确性”不足以证明算法的正当性,其影响了教师的财产权等权利。在美国“爱达荷州医疗补助分配算法案”中,爱达荷州卫生和福利部利用IAP算法来分配依据“医疗补助法案”提供给公众的预算。经由IAP算法,许多符合接受公共部门照管条件的患者在接受社区看护后,其所获取的补助金数额不合理地显著减少。因此,患者提起诉讼,请求恢复补助金预算的水平。法院审查了IAP算法搜集数据的表单,指出其误解了残疾人“完成特定任务的能力”,高估了“反社会行为的严重程度”。这两项指标对预算分配的结果影响显著,故IAP算法存在错误剥夺补助金预算的风险。

2. 国内法与人权司法方法相结合的审查模式

依据国内法的审查模式无法应对区域发展不平衡,以及算法风险的分散性问题。在国内法与人权司法方法相结合的审查模式中,欧洲人权法院、欧洲法院等跨国司法机构对以人权保障为核心思想的司法规则的示范、交流、汇聚起到了引领作用,形成了以数据利用风险和算法系统风险为重点的审查规则,并通过举证责任分配矫正了公权力部门与普通主体间的不平等地位。

(1)数据利用方式的权利影响审查

欧洲人权法院于2024年发布的《欧洲人权公约判例法指南——数据保护》(以下简称“指南”)整理了1978年以来关于数据保护的人权法判例要旨。《欧洲人权公约》并未明确规定数据权,而指南根据《欧洲人权公约》从系列判例中提炼了数据保护的定义和原则、受保护的敏感数据和其他数据的类别、国家数据保护义务。而且,根据《欧洲人权公约》第8条第2款,指南确立了关于数据权利限制的审查规则,并对数据搜集“最小化”的评价标准进行了梳理,包括尽量减少记录数据量、及时更新、控制存储时间、限制使用目的、处理程序透明等,且对执法场景中可能侵犯隐私的数据采集方式和有效隐私保护措施进行了示范性列举。同时,指南还对受数据利用影响的其他权利的保护标准进行了归纳,这些权利包括自由权、财产权、公平受审权等。在法国“献血系统性取向歧视代码案”中,德拉隆尝试向法国献血服务机构EFS献血。在体检访谈过程中,他拒绝回答是否与同性(男性)发生过性行为。因此,其个人数据在EFS的系统中被标记了代码FR08,该代码标识具有同性恋性取向的含义。德拉隆多次申请献血,均被EFS拒绝,理由为其被标记了代码FR08,该记录将从2004年保存至2278年。法院认为,性取向数据属于个人敏感数据,尽管EFS对献血禁忌标识的设定享有一定的裁量权,但搜集个人数据应取得个人同意,并保障数据质量和及时更新。因此,EFS根据推定事实记录数据的行为违反了《欧洲人权公约》第8条的规定。

(2)系统决策模式的权利影响审查

《通用数据保护条例》(GDPR)和《欧洲人工智能法案》(AIA)在有效应对算法决策方面均存在一定局限性。《通用数据保护条例》第22条规定了自动化决策拒绝权,但其在行使方面存在双重困难:一是决策完全自动化(完全没有人工介入)的场景非常少见;二是证明权益受影响的严重性存在难度。《欧洲人工智能法案》对人工智能系统风险作出了分级分类控制的规定,但系统的实际风险程度和有效风险控制措施需要根据具体场景才能明确。根据《欧盟基本权利宪章》所保护的基本人权,欧盟法院通过其对算法行政案件作出的裁判,对不同的算法决策进行了细致分类,并结合算法系统的实际作用对“完全自动化”作出了具体解释。通过梳理欧盟法院在一系列判例中的观点可知,半自动化决策可分为三个类型:一是自动化分类,即将事项或案件程序分流到对应的人工处理者;二是风险标记,即根据风险特征作出提示,以供人工进一步调查;三是自动化取证,即以算法决策系统给出的结论作为关键证据。在德国“个人信用自动化评分案”中,SCHUFA是为各种机构提供个人信用评分的企业,数据主体OQ由于SCHUFA对其作出的评分而被拒绝发放贷款。OQ向SCHUFA提出申请,要求允许其访问关于评分的个人数据,并删除不正确数据。SCHUFA仅向其发送了评分结果以及关于系统基本功能的概述。OQ向德国数据保护局提起投诉,在未获得支持后,提起诉讼。在诉讼中,威斯巴登行政法院将《通用数据保护条例》第22条规定的自动化决策权的相关解释问题提交给欧洲法院先行裁决。欧洲法院认为,当决策者根据对信用评分的强烈信赖实施决策时,若人工意志缺乏对自动化评价的有效干预,则信用评分将被视为一种自动化决策。

(3)数据与系统的综合权利影响审查

算法决策的风险来自数据和系统两个方面。人权司法方法在综合权利影响审查中展现了简化复杂问题的优势。荷兰“社会保险福利欺诈系统案”是世界首例以违反人权法为依据停止公共部门使用算法系统的案例。在此案中,法院针对算法系统部署和数据搜集利用进行了全面审查。SyRI是荷兰政府识别在福利欺诈和行政监管方面具有高风险的人群的自动化系统。当SyRI提示出现高风险个人时,公共部门将对其个人数据进行解密并作出细致分析。若确定具体个人存在高风险,则风险报告将被发送至相关部门进一步调查。荷兰工会联合会等认为,公共部门对SyRI的使用及相关立法侵犯了受《欧洲人权公约》《欧盟基本权利宪章》及《公民权利和政治权利国际公约》等人权法规范所保护的隐私权、公平受审权和获得有效救济权,以及《通用数据保护条例》规定的一系列个人数据权利。法院对SyRI及相关立法的合法性审查分为三个步骤:一是权利影响审查。法院认为,由于SyRI的决策模式缺乏透明度,允许调整风险模型和指标,且相关立法没有规定公共部门在数据处理过程中及风险报告提交时具有单独通知数据主体的义务,故公共部门对SyRI的使用构成对隐私权的影响。二是合目的性审查。法院认为,社会保障制度是荷兰社会发展的基础之一,而打击社会保障欺诈是该制度发挥作用的前提,因此,打击社会保障欺诈具有重要性,公共部门对SyRI的使用符合国家利益。三是权利影响的相称性审查。“为民主社会所必需”是限制隐私权的相称性要求,因此,法院结合《通用数据保护条例》的规定,对SyRI及相关立法产生的权利影响的相称性作出否定评价。2020年2月5日,海牙地区法院对SyRI案作出判决,宣告因违反《欧洲人权公约》第8条,SyRI相关立法无效,公共部门应立即停用SyRI。

(三)算法行政争议引入人权司法方法的必要性

在算法行政中,风险存在于系统部署和系统数据两个层面,可能对权利造成影响。当国内立法尚未全面、及时跟进技术发展时,仅适用国内法难以应对法的安定性与技术的发展性之间的冲突。将人权司法方法运用于算法行政争议化解,其必要性体现在如下三个方面:

1. 化解行政法与数字法的关注失焦

行政法是部门法划分意义上的概念,而数字法是学者针对数字法学研究提出的领域法概念。由于传统部门法的调整范式无法独立应对数字社会中层出不穷的新问题,故国内学者关于算法行政规制的探讨呈现出两种不同视角:从行政法视角出发,主要关注集中在三个方面:一是辨析算法的概念属性,尝试将其嵌入现有的行政法概念;二是重塑算法行政中的正当程序原则,将算法正义、算法信任和算法透明作为算法行政程序的价值维度;三是完善算法行政的行为规则,优化算法行政行为在事实认定、法律适用等方面的规则设计。从数字法视角出发,主要关注集中在三个领域:一是数字权力规制,即在规范基础上完善算法的决策、解释、评估、审计制度;二是算法主体问责,即明确多方参与主体的分布式责任,从中心式的风险控制转向全流程参与式问责;三是建立人机对话机制,即在算法系统的创制和运行过程中纳入评议、理由说明、异议等沟通机制。行政法视角以限制政府权力为目标,难以为相对人提供全面有效的数字权利保障措施;数字法视角以保障数字权利为重心,但无法直接回应行政争议中的法律判断问题。

2. 弥合技术规制与法律规制的话语脱嵌

“算法规制”作为社会协调和控制模式的概念,由美国学者凯伦·杨于2017年正式提出。此后,各国学者针对算法规制的研究涉及关键数据、互联网治理、平台治理、技术伦理、数字社会、数据正义以及信息保护等各个领域。世界各国相继颁布了关于算法规制的专项立法。新西兰的《算法章程》、美国的《算法问责法》以及欧盟的《算法问责及透明度监管框架》等从影响评估、技术标准、算法透明、合作治理、人权保障、算法问责、治理全球化等方面提出了一系列算法规制方案。近年来,我国也出台了关于生成式人工智能、算法推荐、平台治理等领域的专项规范。算法规制的相关制度规范通常采用较多的技术话语。技术话语与法治话语之间存在三种差异:其一,技术的发展性与法的安定性之间存在张力,技术规制措施依赖不断更新的技术标准得以实施;其二,算法的风险分散性与法律规范的系统性之间存在结构性差异,技术方案难以协调多种权益冲突;其三,技术概念的具象化与法律概念的抽象化之间存在差异,技术规制的内容、对象、标准与法律规制的权利、法益、公平正义等概念无法一一对应。技术规制与法律规制的话语脱嵌会导致算法问责制虚化。

3. 简化算法行政中针对复杂争议的审查规则

算法行政争议往往涉及多元主体权利、多种社会公共利益和多层级法律规范体系。争议的复杂性会加剧裁判尺度不统一。域外算法行政争议的人权司法实践从以下三个方面促进了司法审查规则的简明化:一是明确了审查内容重点。相关司法实践将算法涉及的风险处置规则集中到了算法系统风险和数据信息风险两个方面,并建立了不同的权利保障标准和方式。二是明确了审查重点步骤。在域外人权司法实践中,法院在审查数字化技术所造成的个体、群体权利与公共利益冲突方面,已演化出三阶段式审查步骤,即依次就权利影响程度、合目的性、权利影响相称性进行审查。如果经前一阶段的审查可以得出结论,则无需进入下一阶段审查。这达到了逐步聚焦实质争议的效果。三是明确了举证责任划分方式。法律将关于算法系统的设计与运行及数据采集的范围与方式具有合法性与合理性的举证责任分配给了行政机关,由行政机关证明算法系统及所涉数据使用的权利影响符合最小化和相称性要求。

二、算法行政争议的人权司法方法理论证成

关于算法行政争议的域外司法实践为人权司法方法的提炼提供了可借鉴的资源,但要将人权司法方法运用到我国行政诉讼之中,仍需在我国法制体系下论证其合宪性、独立性与可行性。

(一)人权司法方法的合宪性

2004年的宪法修正案将“国家尊重和保障人权”增加为《宪法》第33条第3款。《宪法》中的“人权条款”为人权司法方法的适用提供了宪法依据。

1. 宪法为普遍人权观采纳提供通道

《宪法》“人权条款”中的人权与《宪法》承认的基本权利具有不同的权利保障功能。宪法中的基本权利既有原则属性又有规则属性。限制基本权利,须遵循法律保留原则。算法行政对基本权利的限制必须“依照法律”。宪法基本权利规范决定的是人权保护水平的下限,但人权保护标准应随着国家能力提升和社会普遍需求增长而不断发展。人权具有固有性和普遍性。在人权入宪之前,我国已通过批准和执行国际人权公约的方式将国际人权标准纳入法治建设。“国际交流与合作”是人权入宪的目的之一。人权入宪是采纳国际人权标准的规范保障。我国宪法传统较为重视以“人民”为代表的集体主义权利观。《宪法》“人权条款”并未增加新的权利内容,但其为将个体主义人权观和国际人权标准纳入我国法治实践提供了通道。这有利于借助普遍人权观的通道吸纳国内国际人权保障的实践经验,提升我国人权保护水平的上限,有助于在算法行政所承载的数字公共福利的发展进程中融入个体主义权利诉求。

2. 宪法为人权价值论证提供基点

宪法上的基本权利具有实证性。宪法保护的人权价值具有发展性和超验性。并非所有值得保护的权利都要被写入《宪法》,而未被写入宪法的具体人权类型也不应受到行政权力的任意限制和漠视。人权保障在应然层面指向何种内容以及承载何种价值,需要根据宪法的价值立场判断。哪些权利内容在算法行政争议中值得保护以及受保护程度如何,需要结合宪法规范文本之外的具体场景论证。在司法审查中,人权价值论证体现为,运用宪法原则和规范的价值取向来补强司法论证,发挥《宪法》“人权条款”在保证国家权力正当行使方面的效力。人民法院的宪法地位决定了其司法为民的角色。三大诉讼的不同诉讼目的则决定了人权司法方法在运用中的不同价值取向:在民事诉讼中,其体现为,保障民事行为主体的实质平等,对涉及性别歧视、身份歧视等违背平等价值的民事行为作出否定评价;在刑事诉讼中,其体现为,贯彻疑罪从无原则,保障被追诉人的合法权利;在行政诉讼中,其体现为,限制政府权力边界,化解行政相对人权利与公共利益之间的冲突。行政权是国家公权力中影响力最广泛的权力。算法行政通过无孔不入的数字权力介入数字社会生活各个方面。根据权力行使的“法无规定即禁止”原则,在缺乏法律依据的情况下,不得通过合宪性解释为算法系统实施的行政处罚、行政强制等严重影响行政相对人权利的行政行为进行合法性背书,也不得续造对行政相对人不利的规范。算法系统的设计与使用都应当符合正当程序原则的要求。当法律规定存在多种解释时,应当首先考虑选择适用有利于行政相对人的解释。

3. 宪法为凝聚人权共识提供标准

第二次世界大战后,联合国通过了大量促进和保护人权的宣言、公约及公约实施的指南性文件,这些国际人权文件中的人权保障要求共同构成了国际人权标准。国际人权标准能否转化为我国的人权保障标准?对此,只能在我国宪法规范体系内展开对人权保障标准的解释。我国部分立法已经吸收了国际人权公约中的部分共同人权标准。例如,我国《反家庭暴力法》第37条将家庭成员之外的暴力纳入干预范围,就是参考了国际人权公约的保护标准。联合国大会于2024年通过了《全球数字契约》,呼吁各国政府与所有利益攸关方以负责与合作的态度共同促进实现数字未来。全球化的数字政府发展对人权保障提出了新的挑战。在算法行政中,行政机关具有行政执法者和个人信息处理者的双重身份,故司法审查需要积极参考多元化的数字人权保障标准。《宪法》规定的国家机构性质、地位、职权等为数字政府的行政权力明确了边界,为数字政府的治理能力提供了价值目标与具体要素。域外的司法案例为我国提供了数字人权保障的经验。这些经验在经过我国《宪法》的检测和解释后,可为我国的基本权利保障提供参考和借鉴,利于我国形成凝聚国内国际共识的人权保障标准,构筑我国权利保障方式的补充形态。

(二)人权司法方法的独立性

人权争议处理常涉及宪法问题判断,故将人权司法方法与宪法判断方法相比较,才能考察其是否具有独立性。宪法判断方法是对宪法规定、原则、精神进行价值选择,并将宪法解释方法运用到宪法实施中的法律适用方法。尽管人权保障作为一项宪法基本原则也会参与到宪法判断过程中,且人权争议也会涉及宪法基本权利保障问题,但人权司法方法与宪法判断方法并非完全重叠或包含的关系。在数字全球化发展的当下,两者逐渐呈现出不同的发展路径、内容构成与现实功能。

1. 人权司法方法在发展路径上具有独立性

人权司法方法与宪法判断方法的理论渊源部分相同,但在后续发展中,两者逐渐呈现不同的发展路径和趋势。首先,人权司法方法与宪法判断方法具有同源性,两者都吸收了经典法教义学方法。我国指称的法学方法论中的“法学”主要是指法教义学。法教义学不仅解释法律意义或内容,还要将意义或内容体系化。在法学方法论的发展过程中,大陆法系和英美法系均有学者认为,对于法学方法,必须首先从国家及宪法视角予以观察。近60年来,欧洲通过一系列条约建立了超国家效力的法律秩序。欧洲各国的法官经常担任欧盟人权争议的法官。各国作出的宪法案件裁判也为欧洲人权法院和欧盟法院的人权争议案件处理输送了丰富经验,为人权司法方法与宪法判断方法互动提供了现实基础。其次,人权司法方法和宪法判断方法具有不同发展路径和趋势。根据阿列克西的论断,原则作为最佳化命令具有不同的实现程度,而规则没有不同的实现程度。人权和宪法上的基本权利都具有法律原则的特征,但人权是从各国宪法实践中总结提炼出的原则性内容,而宪法上的基本权利是一国经由其立法所表达的原则条款。相对于宪法判断方法,人权司法方法具有更高的开放性和具体性。在开放性层面,欧洲人权法院在解释人权公约的实践中逐渐发展出了演进解释方法,即将人权法作为“活的制度”,置于当下情境予以解释,旨在将各国的发展实践经验纳入解释标准;在具体性层面,人权司法方法追求的是,根据各国权利保障能力和水平,通过具体方式实现人权,而非将人权视为抽象的纸面原则,即将人权标准嵌入具体争议解决当中,在个案中以具体化解释发展多样化、个性化的人权保障方式。

2. 人权司法方法在内容构成上具有独立性

(1)特有的法律解释方法

经典的法律解释方法主要包括文义解释、体系解释、历史解释和目的解释。宪法判断是审查机关基于对宪法的规定、原则与精神的理解所作出的一种价值选择。宪法判断分为回避宪法的判断和不回避宪法的判断。不回避宪法的判断包含对合宪性解释和违宪解释的运用。尽管我国法院没有针对立法的宪法审查权,但在具体案件中,法院有可能需要判断和识别宪法实施标准和宪法性争议。在当前的司法实践中,常被采用的是合宪性解释方法。合宪性解释是从体系性目的解释中分化出来的解释方法。与经典的法律解释方法相比,合宪性解释基于尊重宪法基本价值的立场获得了效力上的优先性。合宪性解释的局限性在于,其要么能够适用并得到完全遵循,要么根本不能适用,具有一种全有或全无的作用状态。算法行政争议中存在多元化的权利冲突,其无法在合宪性解释中得到全面考虑。国际人权司法实践已探索出共识性解释方法。其通过比较法途径识别人权保障领域中是否呈现共识性发展的结果或趋势,以衡量人权公约缔约国的权利保护水平。共识性解释方法以国际条约解释方法中的演进解释为基础。我国是《维也纳条约法公约》(以下简称《条约法公约》)的缔约国之一。《条约法公约》第31条和第32条规定的条约解释一般规则为演进解释提供了法理依据。《条约法公约》第31条第3(b)款将“嗣后当事国适用条约惯例”作为理解上下文应考虑的内容,为共识性解释方法提供了依据,其将抽象的人权公约保障标准转化为具体的多数国家实践标准,建立了国际普遍人权保护标准与国内法的联系。共识性解释方法的作用方式包括宏观和微观两个层面:在宏观层面,其寻找保障具体权利内容确定性方面的主观共识和客观趋势;在微观层面,其寻找人权公约缔约国在公约解释方法或标准方面的法理性共识。在寻求算法行政领域的人权保护标准共识的过程中,不仅要考虑相关国家的数量,更要考虑相关国家数字行政的发展水平和权利保护水平。在寻求法理性共识的过程中,应当重视对判定公共利益范围和权利冲突领域的方法的总结。

(2)特有的法律适用原则

《欧洲人权公约》和《美洲人权公约》的缔约国的国内法院逐渐将合约性审查原则与合宪性审查原则从区域性人权公约的适用扩大至全球性人权公约的适用。合约性审查原则与合宪性审查原则有助于保持法律适用的开放性,但这两种原则在适用中会出现冲突。在这两种原则的融合适用中,又逐渐发展出了人权最大保障原则。人权最大保障原则有助于在确保国际和国内法律秩序分界线的防御性的同时,在冲突的个体权利、群体权利与公共利益间形成平衡。“采纳更高人权标准”的条款存在于《公民权利和政治权利国际公约》第5条、《经济、社会及文化权利国际公约》第5条、《巴塞尔公约》第11条等国际人权法规范中。在司法实践中,已逐渐形成用人权最大保障原则来提高区域性和全球性人权保护标准的做法。人权最大保障原则包括两个方面:一方面,当国际法上的人权保护标准更高时,国内法应采纳国际法上的人权保护标准;另一方面,当国内法中的人权保护标准更高时,国内法中的现有人权保护标准不得限缩。该原则在司法实践中体现为旨在保障个人利益最大化的法律解释方法,且在与国内法的互动中发展出了更为具体的疑罪从无、有利于弱者、有利于劳动者、自由优先等原则。人权司法领域特有的法律适用原则有利于将人权保护最大化作为国际人权法与国内法的共同最高价值,协调疑难案件的法律适用中的价值冲突与规范冲突。

(3)特有的法律原则适用模型

在域外人权司法实践中,已发展出了比例原则适用的特定模型。比例原则起源于十八世纪的普鲁士行政法,在第二次世界大战后,其被视为一种可以更好保障人权的“宪法工具”。在我国的司法实践中,比例原则的适用逐渐从行政诉讼扩展到刑事诉讼和民事诉讼。比例原则是宪法上基本权利保护的重要原则,其在传统的行政争议处理中展现为三个方面:适当性、必要性、狭义比例原则。当比例原则被广泛用于人权司法领域时,其提供了一套评估、监督国家行为的清晰框架,使法院能够通过明晰的法律适用模型来解决人权争议。在从国内法被移植到国际人权法的过程中,比例原则的具体内容被不同程度地调整:欧洲人权法院将比例原则的适用模型改造为权利影响、合目的性、相称性三步审查模型,美洲人权法院将其重组为合法性、目的合法、适当性、必要性和狭义比例原则五个部分。在人权司法实践中,调整比例原则的适用模型,是为了应对“各种相互矛盾的利益的技术权重、成本”等复杂问题,尊重不同国家的主权和文化。

3. 人权司法方法在运行目的上具有独立性

人权司法方法在运行目的上的独立性体现在其与宪法判断方法的相互制约关系中。宪法判断方法决定了权利保护水平的起点,人权司法方法决定了权利保护水平可能达到的上限。首先,宪法判断方法是人权司法方法适用的前提。法学方法论的运用不仅涉及法律适用技术问题,还受到国家宪制体制的制约。德国法学家魏德士认为:“方法论最终涉及法治国家权力分立的问题。”根据我国《对外关系法》第30条第2款,条约和协定不得与宪法相抵触。适用和解释国际人权法,需要遵循宪法原则和界限,接受宪法规范的检测。为了防止人权争议被简化为功利性衡量的过程,防止我国政治体制结构被忽视,宪法基本权利的“理由阻断功能”被破坏,法院应当将宪法判断方法的适用前置于人权司法方法的适用。其次,人权司法方法是宪法人权保障原则充分实施的必要条件。人权法的典型适用方式是衡量,通常不能用于涵摄。宪法人权保障原则作为具有约束力和指导性的标准,唯有通过具体的解释,才能适用于具体案件。人权法的适用不仅需要人权概念的具体化,还需要人权保护内容的具体化。在人权司法实践中,各国宪法起着保障国家主权的作用。国际法解释中的合约性原则提供了最全面的人权保护标准,国内法的适用起着在个案中发展个性化权利保护方法的作用。在人权司法裁判的功能发挥方面,国内相关指导性案例和参考性案例具有约束和指引裁判说理论证的效果;从比较法角度来看,域外人权司法案例具有“法认知源”的意义,当国内法规范不明确或保障标准不完善时,其为具体化的权利保护方式提供参考标准。

(三)人权司法方法的可行性

我国的司法裁判已经出现了援引人权原则进行裁判说理的现象,且司法机关通过对数字社会中兴起的多元化权利保护的类型化实践,形成了新兴权利保护的司法中心主义模式。这说明,在我国推广普及人权司法方法,具有现实基础。在算法行政争议的司法审查中,还需要考虑与我国现有法制体系相融贯的人权司法方法的适用路径和人权原则具体化措施。

1. 人权司法方法的适用路径

适用人权司法方法,需要符合我国现有法制体系的结构。在我国法制体系下,应以对人权法规范及人权法理的解释性适用为主要适用路径。就国际法与国内法的关系而言,存在一元论和二元论两种传统理论:一元论认为,国际法一经产生或批准即可进入国内法律体系;二元论认为,国际法和国内法是相互独立的规范体系,国际法须被转换为国内法,才能进入国内法律体系。我国《宪法》并未对国际法与国内法的关系作出明确规定。我国多数学者认为,我国实施国际人权条约的方式是“转化”。关于国际人权条约在国内法院的可适用性,世界范围内存在肯定论和否定论两种立场。二者主要分歧集中于,可否依据人权条约规范创设诉权和施加国家义务。根据《最高人民法院关于加强和规范裁判文书释法说理的指导意见》,在法律法规和司法解释之外,公理、法理、立法资料、学术观点等均可作为裁判说理的论据。将人权法规范及相关法理作为裁判说理的论据,具有较强的权威性和说服力,有利于在数字全球化进程中统一国内与国际权利保护标准。在行政诉讼中,人权司法方法的适用不应导致行政职权的创设和扩展,而应防御行政权扩张。

2. 人权保障原则的具体化措施

人权保障原则作为抽象的法律原则,要求法治实践不损害人权或积极促进人权,因此,需要通过具体的可操作性措施将其转为具体原则、保障标准、裁判规则,才能解决个案裁判争议。除了国际人权法律文件之外,人权法理也构成支撑人权司法方法的依据。人权法理包括普遍法理、一般法理和具体法理。普遍法理是“人具有尊严”;一般法理强调防御与合作;具体法理体现在人权法与部门法的互动中,其在公法中为权力制约型法理,在私法中为私法自治型法理。人权法规范及人权法理的解释性适用可以被划分为三种方法:一是明确规范价值。依据国际人权法对国内法作出解释,有两种方法:第一种是立足于国际法价值的“一致性解释方法”,即当对国内法有多种可能的解释时,应采取与国际法意旨相一致的解释;第二种是“支持国内法型的解释方法”,具体包括国内法“价值增进型”解释方法、国内法“价值确认型”解释方法。二是完善规范内涵。可从四个方面完善人权司法方法的规范内涵:(1)在数字化行政执法转型中,应根据人权法保护标准评价现实场景中的权利保护方式的转换、替代的有效度;(2)当不同法律规范中的权利存在冲突时,可以人权保障要求作为判断标准;(3)当具体概念存在歧义时,可以人权法作为概念诠释的依据;(4)人权标准有助于具体阐述行政法实施过程中应遵循的行政法原则。三是选择具体权利保障模式。典型的权利保障模式包括四种:(1)平等权保障模式强调相同情况相同对待,不同情况不同对待,形式平等与实质平等相统一;(2)自由权保障模式强调不同行动和不同言论应受到不同限制;(3)财产权保障模式强调征收或征用财产必须基于公共利益;(4)公平受审判权保障模式强调应建立合格的审判体系和适当的审级制度、审理程序、诉讼平台设施。

三、算法行政争议的人权司法方法现实功能

人权保障原则具有价值属性、标准属性、工具属性。在化解行政法与数字法、公共利益与个体权利和群体权利的一系列冲突的过程中,中国语境下的人权保障原则所蕴含的“以人为本”价值观可以统领不同规范、不同主体所具有的多元价值取向,为处于动态变化中的技术应用提供具有广泛共识的权利保障标准,为不同规范体系提供话语沟通工具。提炼人权司法方法,有助于将抽象的人权保障原则转化为具体的人权保障现实功能。根据人权保障原则的属性,在算法行政争议的司法审查中,人权司法方法具有化解价值冲突、阐释法律原则、解释法律概念的现实功能。

(一)化解价值冲突

在国际人权领域,我国在倡导和阐释全人类共同价值的过程中,扮演着四种角色,即“积极倡导者、坚定维护者、内涵阐释者和共识凝聚者”。人权法是全人类共同价值的重要表达形式,可以化解算法行政中的多元价值冲突。

1. 行政法的平衡价值与发展价值的冲突

现代行政法价值包括秩序、自由、平等、正义、公民权与行政权平衡等价值。其中,公民权与行政权平衡长期以来被我国学者视为中国现代行政法的核心价值。我国《宪法》序言强调,“进行社会主义现代化建设”是国家的根本任务。随着国家在发展过程中阶段性任务的转变,我国政府的重点任务逐渐从行政管理迈向发展经济和增加社会财富。随着政府职能从管理、服务转向发展,行政法学界开始关注行政法的发展价值。由于传统的行政法规范没有对政府的发展职能给予充分重视,因此,与政府的发展职能相关的法律制度存在缺位状态。发展价值要求政府承担促进社会公共福祉、系统调控资源和预防社会风险的职能。随着行政法律关系的调整对象从管理职能拓展到发展职能,行政法的目的从限制权力、保障个体权利拓展到追求整体利益。在数字政府的发展过程中,算法行政在发挥政府系统风险监控和公共资源调配职能方面发挥着重要作用,但在算法行政活动中,存在着限制行政权力与加速发展之间的冲突。

2. 数字法的促进价值与保障价值的冲突

数字法涉及多维度的数据治理问题。数字霸权、数据垄断、数据鸿沟等问题均蕴含算法技术性风险。单一的法律规范已难以完全回应现实需求。我国的数字法律规范分布在网络安全、数据安全、个人信息保护等领域的法律法规中。近年来,各省市渐次颁布地方数据条例。《互联网信息服务算法推荐管理规定》《生成式人工智能服务管理暂行办法》《信息安全技术 个人信息安全规范》《新一代人工智能伦理规范》等数字领域相关法律规范先后实施。算法技术异化、平台权力扩张、数据保护与利用困难是数字法亟需解决的三个核心问题。数字法的核心价值体现为促进数据利用、保障数字权利和数据安全。在个人信息保护方面,我国采用“一体调整”模式,同等对待国家机关与其他信息处理者的数据活动。但是,将两种不同类型的数据活动均诉诸以私人场景为基础建构起的规制框架,会导致在制约公权力方面规范失准,效力松弛。因此,应整合国家公权力、企业私权力、社会公权力、个体私权利的四元结构关系,并赋予个体知情权、决定权、查阅复制权、更正补充权、删除权、携带权、解释请求权等具体权利,以对抗、制约数字权力,给予个人在数字空间中的选择权和话语权,化解数字法律关系中蕴含的促进数据利用与保障数字权利和数据安全之间的冲突。

3. 人权法的价值协同与价值衡量功能

算法行政争议存在三方面价值冲突:一是既有法价值的冲突,即行政法内部的平衡价值与发展价值之间的冲突,以及数字法内部的促进价值与保障价值之间的冲突。二是行政法与数字法之间的价值冲突,包括保障个体、群体数字权利与促进社会整体利益和安全之间的冲突,以及限制数字行政权力与提升数字行政效能之间的冲突。三是技术的发展性与法的安定性之间的冲突。例如,我国《个人信息保护法》规定了国家机关处理个人信息及敏感信息的规则,但要将其运用于算法行政争议处理,仍存在诸多问题,包括采集个人信息的保留范围不明,算法选择要求不明,“最小范围”“公共利益”等概念不确定等。而且,我国尚未构建起数据采集和算法运行的程序规则、救济渠道、责任机制,难以对行政权形成有效制约。以人权司法方法化解多元价值冲突的方式包括价值协同与价值衡量。第一,运用人权司法方法,可协同不同的价值。普遍的人权法理蕴含着以“人具有尊严”为基础的人类共同价值;而具体的人权法理存在于宪法、部门法、领域法的具体规范中。将人权法所蕴含的人类共同价值融入对行政法和数字法的解释,可以在形塑实有人权的过程中协同不同的价值。第二,运用人权司法方法,可实现价值衡量,以选择权利保护的顺序和方式。对权利保护顺序和方式的选择,是价值衡量的结果。根据联合国人权文件及我国已加入或签署的人权公约,算法行政所影响的主要权利包括自由权、平等权、获得法律救济权、生命权、发展权、财产权、社会权等,这些权利相互依存。其中,生命权、发展权是其他权利实现的前提,而自由权、平等权、获得法律救济权能够为生存权、发展权、财产权、社会权的实现提供必要保障。为维护公共利益而限制个体权利,其正当性源于个体在公私合作层面的权利让渡。而权利让渡的限度在于,不得损及权利保护的核心利益,且须保留个体对公权力的防御能力。

(二)阐释法律原则

抽象的法律原则具有缓解技术的发展性与法的安定性之间的张力的功能。行政法基本原则对行政法规范具有整合、稳定、协调、优化、补充的功能,同时也是行政司法审查的基本准则。行政法基本原则包括行政法定原则、行政均衡原则和行政正当原则。法律原则的阐释旨在将抽象的法律原则中蕴含的权利保障标准具体化。

1. 行政法定原则阐释

行政法定原则被用于确定算法运用的范围,划定算法运用的边界。行政法定原则包括法律保留、法律优先与职权法定三个子原则。依据法律保留原则,关涉个人基本权利的行政行为需得到法律授权。法律保留原则要求算法行政行为获得法律的授权。依据法律优先原则,行政活动必须以法律为依据,侵犯公民基本权利的行政行为应被严格限定在法律许可的范围内。依据职权法定原则,数据处理与算法应用须具备符合行政职权行使要求的具体目的。《个人信息保护法》第5条规定,处理个人信息应当遵循合法、正当、必要原则。行政主体在处理个人信息时,必须将信息搜集和处理范围、信息利用方式严格限定在履行具体法定职权的范围内。

2. 行政均衡原则阐释

行政均衡原则被用于限制算法系统对行政相对人权利的影响。行政均衡原则包括平等对待、比例原则和信赖保护三个子原则。平等对待原则要求行政主体相同情形相同对待,不同情形不同对待,兼顾形式公平与实质公平。算法的运用虽然在一定程度上有助于实现形式平等,但依据算法得出的结论可能不全面、不准确,故需保障相关主体在决策过程中的参与和维权机会的平等。《个人信息保护法》第34条规定,国家机关处理个人信息不得超出履职所必需的范围和限度。在算法行政争议的司法审查中,比例原则的运用是核心难题。比例原则是宪法上基本权利保护的重要原则,在欧洲和美洲的人权司法实践中,其常被移植到国际人权法争议领域。权力制约与损益均衡是比例原则约束算法行政的法理基础,其要求算法行政权力的运行需与合法且正当的目的存在实质关联,且以对权利造成最小影响为要求,禁止目的与手段的不当联结。此外,信赖保护原则要求设置及时告知、算法解释、算法评估、救济途径等维护行政相对人合理信赖的权利保障措施。

3. 行政正当原则阐释

行政正当原则被用于评价权利保障方式的有效性。行政正当原则包括行政中立、行政参与和行政公开三个子原则。行政正当原则的核心要求是行政程序正当,其要求对行政相对人给予有效的程序保障措施,对于算法带来的程序缩减,应当设置相应边界和补偿措施。算法行政的技术正当性要求通过告知、说明、申诉、删除等必要的程序保障行政相对人的权利。一是告知。《个人信息保护法》第11条规定了处理个人信息前的告知义务,且告知事项应包括处理目的、处理方式、个人行使权利的方式和程序等。由于《个人信息保护法》已将国家机关“为履职所必需”的行为从告知义务的适用中豁免,因此,在实践中,行政机关容易利用“妨碍履行法定职责”省略告知义务。告知义务是知情权的保障,知情权是行使拒绝权、变更权、删除权等数据权利的前提条件,故应当严格限定告知义务豁免的事项和期限。二是说明理由。《个人信息保护法》第24条第3款针对自动化决策规定了说明理由请求权。应说明理由的事项的范围和说明理由的方式应满足相关主体的权利保障要求。三是申诉。在自动化行政流程中应设置申诉模块和人工介入模块,在涉及专业技术的争议中引入第三方参与。四是删除和被遗忘。《个人信息保护法》第47条对删除权的适用情形作了规定,但未对被遗忘权进行明确和界定。被遗忘权属于公民主动控制其个人信息的权利。在生成式人工智能模型的训练迭代中,当删除信息存在操作性障碍时,应采用断开、屏蔽相关链接等方式保护信息主体的被遗忘权。

(三)解释法律概念

算法行政行为以数据、算法、平台等为基础,其相关要素与传统法律概念难以一一对应。人权法的解释性适用可在技术概念、行政法概念与数字法概念之间承担话语互译功能。

1. 算法的概念解释

算法是以数学符号和方程式作为基本形式,通过对数据的计算和推理步骤得出结果的过程。英国人工智能委员会将算法定义为用计算机执行计算或解决问题的一系列指令。根据有无机器学习能力,算法可分为学习型算法和固定型算法。学习型算法又分为有监督学习算法和无监督学习算法。不同算法的共同特征在于,存在人类设定的设计目的和部署权限,且具有“可反复适用性”和“普遍约束力”。当算法对外产生权利干预时,其具有法规命令的特征和属性。但在算法的训练和使用的过程中,存在人类不可控的部分,因此,将所有算法完全等同于依赖人的意志制定的法规命令,并不符合实际。在算法研发、使用的过程中,应对算法进行合规管理,即对算法中的可控因素,应根据法律和技术的要求进行管控。在模型训练中,训练数据标准、测试数据标准等就属于算法中的可控因素。应将人权保障标准纳入算法合规体系,并参考算法合规体系划定算法中可接受司法审查的内容的范围,进而参照规范性文件的合法性审查标准进行审查。这具有一定的合理性与可行性。我国《行政诉讼法》第53条规定,对于国务院部门和地方人民政府及其部门制定的规范性文件(不含规章),可在行政诉讼中附带审查。《最高人民法院关于适用〈中华人民共和国行政诉讼法〉的解释》(以下简称《行诉解释》)第148条规定了认定规范性文件不合法的几种情形。当参照规范性文件对算法进行审查时,就法定权限、依据、内容、程序等方面的审查要求而言,算法与普通规范性文件并无明显区别。问题只在于,算法可能存在技术偏差、偏见等算法风险。对此,可将其纳入《行诉解释》第148条第2款第3项规定的“违法减损权益”的情形,以审查算法风险是否构成对权益的实质影响。

2. 算法行政决策的概念解释

2019年修订的《行政许可法》第33条规定,行政机关应该完善有关制度和推行电子政务,但未对自动化行政许可审查要求作出明确规定。2021年修订的《行政处罚法》第41条规定了电子执法的技术审核、设备设置、电子证据固定、当事人陈述申辩等内容。目前,对于算法行政决策的具体行为特征、属性、效力等,我国法律未作出明确界定。算法行政决策分为单一部门决策和跨部门决策。当单一部门决策具有独立的外部约束力时,其可以对应行政处罚、行政许可、行政确认、行政强制、行政给付等传统行政行为。跨部门决策则具备多种行政行为或事实行为的实质效果。例如,行政黑名单制度具有失信惩戒和风险预防的双重功能。用于失信惩戒的行政黑名单制度与行政处罚、行政强制存在功能重叠;而用于风险预防的行政黑名单制度旨在限制信用主体的行为自由,其正当性源于国家的安全保障义务,以及风险预防功能所维系的公共利益。可见,在规制目的、规制方式、规制对象、正当性依据、裁量限制等方面,两种功能存在本质区别。因此,对于跨部门决策在行政法上的概念,应在个案中根据跨部门决策对行为人责任的归责方式和权利限制作出具体判断。

四、算法行政争议的人权司法方法实施路径

完善算法行政司法审查规则与实质化解算法行政争议是人权司法方法适用所追求的目标。在我国的法制体系下,人权司法方法的适用应以人权保障原则的解释性适用为主要路径。同时,在我国的算法行政司法审查中,还须根据宪法、法律及法治传统选择本土化的人权司法方法具体适用路径,包括限定适用范围、完善算法影响评估制度、确定具体司法审查步骤。

(一)人权司法方法在算法行政争议中的适用边界

1. 适用案件范围限定

在算法行政争议中,人权司法方法应当被集中适用于算法争议案件。这类案件的特征在于,争议产生原因、诉讼请求范围均与算法行政行为具有明显相关性。其一,争议产生原因必须涉及算法行政行为的因素,具体表现为,行政主体在行政领域使用算法进行程序分类、预警行政风险、作出行政决策。其二,案件原告提出的诉讼请求必须与算法行政争议有关。其诉讼请求需针对与算法应用相关的事实行为提出,具体包括针对个人信息的采集、汇编、分析、训练等活动,以及根据算法结论作出程序性或实体性处理、发布名单目录或风险报告等行为。

2. 适用争议情形限定

人权保障原则的司法适用,应当被限定在一定的争议情形之内。舒国滢教授界定了法律原则适用的三种情境:穷尽法律规则、旨在实现个案正义、具备更强理由。首先,应当穷尽法律规则的适用,避免司法裁量向一般法律原则适用逃逸。在我国算法行政领域,存在大量立法空白,给人权司法方法的适用留下了空间。例如,我国《行政处罚法》第41条仅规定了利用电子设备的法制和技术审核要求,但并未明确审核内容与标准。其次,当法律规则的适用明显无法达到个案最佳结果时,存在适用人权司法方法的空间。当个案存在明显、重大的价值冲突时,法官需要通过人权司法方法,在多种权利和公共利益之间作出权衡,得出整体利益最大化的方案。最后,在满足适用的案件范围和争议情形的前提下,还需考察人权司法方法的适用是否优于其他法律原则的适用。适用人权司法方法的案件,必须牵涉具体的人权内容。在此,只要原告所诉求的权利能够通过解释活动被还原为既有的人权形态,即可初步认定案件关涉人权内容。算法行政案件是否关乎人权内容,主要考察案件的争议焦点是否涉及行政相对人与行政机关之间的地位不平等。具体的考察标准在于,算法技术是否实质介入了行政机关的外部公共事务,以及其是否足以对行政相对人的权利造成现实影响或显著威胁。

3. 适用过程合宪性控制

尽管人权保障原则为人权司法方法提供了宪法依据,但在适用过程中,仍需通过一系列合宪性控制方案保障其不沦为司法越权裁量的工具。遵循法律保留原则是人权司法方法合宪性控制的技术方案。算法行政对权利的限制须遵循法律保留原则。我国《宪法》第51条作为基本权利概括性条款排除了绝对“无法律保留”的权利。《宪法》文本采用了“单纯法律保留—加重法律保留”的双层构造的法律保留模式,并作出了示例性规定。

法律保留原则不仅能被用来限制人权司法方法的运用范围,还能在人权保障原则与行政法、数字法规范之间发挥连接作用。行政行为一经作出,便具有公定力。因此,只有针对无效的行政行为,人权保障原则才能完整衔接《个人信息保护法》第24条第3款关于“对个人权益有重大影响的决定”的规定。唯有明确算法行政行为的无效认定标准,才能给予自动化决策拒绝权最充分的保障。《行政诉讼法》第75条明确了行政行为无效的“重大且明显违法”之通常标准。在大陆法系国家,判断行政行为无效的通常标准是“重大且明显违法”。“重大”是决定性要件,“明显”是辅助性要件。算法系统的缺陷内嵌于应用场景,难以一望即知,这导致“明显”这一要件的作用受限。《行诉解释》第99条规定了属于“重大且明显违法”的几类情形。其中,对“不具有主体资格”和“客观上不可能”的认定,在一般行政争议与算法行政争议中并无明显差异。但“无法律规范依据减损权利或增加义务”这一标准较为模糊,需结合法律保留原则作出具体判断。法律保留原则要求影响个人基本权利的行政活动必须具备法律依据。法律保留原则的适用可从两个方面展开:其一,将基本权利作为区分重大违法与一般违法的标准,并将信息权解释为宪法上的基本权利。根据《个人信息保护法》第13条、第34条的规定,行政机关在缺少法律、行政法规依据的情况下处理个人信息,构成“重大且明显违法”。其二,确定全自动决策的绝对保留事项,将价值判断和自由裁量作为全自动决策的禁区,明确人类干预在算法决策中的有效性判断标准,维护人在法律判断中的主体性。

(二)算法影响评估在算法行政争议中的功能实现

在算法行政争议中准确适用人权司法方法的前提在于,对算法造成的人权影响的类型和程度进行全面且准确的识别。算法影响评估是指对算法系统的稳健性、公平性和可解释性等进行评估。算法影响评估是评价算法的人权影响的类型与程度、实现算法结构化问责的关键步骤。以算法造成的人权影响为核心的算法影响评估有利于建立“以人为本”的算法规制体系。从世界范围来看,美国与加拿大的算法影响评估制度较为成熟。美国纽约市《算法问责法》规定,应在公正性、可问责性和透明度等层面评估行政机构的自动化决策。加拿大《自动化决策指令》旨在将透明、问责、合法、程序公正等行政法要求嵌入行政机构的自动化决策系统风险治理。我国《个人信息保护法》第55条规定的个人信息保护影响评估借鉴了《通用数据保护条例》第35条规定的数据保护影响评估制度。数据保护影响评估与算法影响评估的不同之处在于:前者重视对个体数据权利的保护;而后者还关注系统风险和社会公共利益及特定群体利益。对于算法影响评估制度,应从如下四个方面进行完善:

1. 明确算法影响评估的功能定位

应当明确算法影响评估在算法行政诉讼中的证据功能定位。我国《个人信息保护法》规定了个人自动化决策拒绝权,其以“对个人权益有重大影响”为行使前提。对于权益受影响的程度,普通个人的举证能力存在缺陷。这是个人自动化决策拒绝权实现的主要障碍。算法影响评估结论是证明算法的使用是否具有合法性的关键证据。在特征属性方面,算法影响评估符合《行政处罚法》第41条关于电子设备审查要素中的法律性和技术性特征的规定。在证明目的方面,作为证据的算法影响评估结论,存在两种不同的证明目的:一是作为证明算法行政方式合法性的证据,被用来证明数据处理和算法设计、运行均符合行政执法的目的,算法风险处于可控、可接受的范围;二是作为处理行政争议的证据,当算法结论是行政处罚等实体处理的依据时,算法影响评估结论应成为支撑算法结论合法性的证据。在举证责任方面,行政机关承担的行政行为合法性举证责任包括内容合法性和程序正当性。在将算法影响评估结论作为合法性审查的内容时,行政机关应承担举证责任。当评估不充分导致算法风险不明确时,行政机关应承担举证不能的后果。

2. 明确算法影响评估的内容范围

算法影响评估的内容范围应涵盖算法系统和数据处理带来的权利影响,具体包括外部风险和内部风险。外部风险包括数据来源瑕疵、算法设计瑕疵、系统部署瑕疵三类。内部风险包括两类:一是不当缩减裁量权,因为裁量的算法化会带来裁量参考因素多样性减损、执法机械化、算法歧视、算法偏见等风险;二是不当缩减程序,因为程序权利保障措施的缩减会给实体权利保障和救济寻求带来实质影响。在评估内部风险时,应采纳“算法中立”和“人在回路”的算法治理原则。一方面,要评估算法的透明度、可解释性和程序正当性,保障“算法中立”,避免人为偏差;另一方面,要考察人类对算法的实际干预能力,评价算法决策对人工干预的依赖程度,保障算法决策中的有意义的人工监督。

3. 明确算法影响评估的规范框架

算法影响评估的规范框架集人权法、行政法、数字法、技术标准于一体,其有助于发挥规范协同作用,形成要素明晰的结构化问责方案。人权法强调国家的权利保障义务,能够为算法影响评估提供价值体系。行政法、数字法能够为算法系统在目的检测和权利保护方面提供具体标准。技术标准能够为权利保护提供有效措施,确保算法的透明性、公平性、可解释性、可人工介入性、可救济性等技术性要求的实现。各国对算法系统的评估标准的设定,主要集中于个体与公共利益平衡、公平、安全、问责、隐私保护、透明度等方面。加拿大《自动化决策指令》将自动化决策对个人或社区的权利、健康、经济、生态的影响程度划分为可修复且短暂、可修复且短期、难修复且持续、永久影响四个等级。参考域外经验,我国可以根据执法场景,将算法可能侵害的自由权、平等权、生存权、发展权、财产权、社会权等作为风险类型要素,将救济措施、安全保障措施、隐私保护、问责便利度等作为风险可修复性要素,并将算法风险的类型、程度、可修复性作为划分算法行政应用的边界的依据。

4. 明确算法影响评估的程序设置

面对技术风险的不确定性,合理的程序设置具有吸纳风险和凝聚共识的功能。算法影响评估的程序性规则决定了公众参与算法治理的范围、方式和时间节点。目前,我国公共机构在运用算法决策方面,在设计、评估、异议和救济等环节,还没有广泛嵌入针对公众参与和程序权利的保障机制。美国国家标准与技术研究院的《人工智能风险管理框架(1.0版)》规定的程序性要求包括建立风险框架、确定目标受众、设置可信度及有效性等。算法影响评估的程序设置可包括三个方面:一是评估启动程序。其可分为算法设计部门自动评估与行政部门、司法部门依职权决定评估。公共部门的算法的设计、开发、运营应以评估为前置条件,并在后续迭代中重新启动评估。二是确定评估方案。在制定评估方案时,应当吸纳技术专家与法律专家参加,且应当公示评估方案的目的、要素、方法、依据、可信度等。在不适宜或不便向公众公布算法参数和原理细节时,可采取结果测试、马甲审计等结果反馈型评估方法。三是评估结论运用程序。评估结论应当是算法系统投入使用的合法性根据,也可作为检察机关发出检察建议和提起行政公益诉讼的依据。在不影响算法效能的前提下,应尽量扩大公众参与的范围。在评估各环节的关键信息时,评估主体应接受公众的监督。

(三)人权司法方法在算法行政争议中的适用步骤

我国《行政诉讼法》第1条明确规定,行政诉讼具有化解行政争议、保护合法权益、监督依法行政三个目的。算法行政争议的司法审查应当围绕行政诉讼的三个目的展开。与一般行政争议相比,算法行政争议的特殊性在于算法瑕疵的隐蔽性、争议内容的技术性、权利影响的复杂性。因此,确立以权利影响审查、合目的性审查、影响相称性审查为内容的三步式审查规则,有助于把握案件争议焦点,简明权衡过程。

1. 权利影响审查

行政相对人权利受到的影响是否来源于算法系统,是区分一般行政争议与算法行政争议的主要依据。评价算法系统风险的主要根据在于算法性质和算法应用方式。一是审查来源于算法性质的影响。欧盟《人工智能法案》明确了人工智能系统的核心特征是其具有推理能力。投放人工智能系统,需满足基本权利保护的要求。学习型算法的风险显著高于固定型算法的风险,因此,对于学习型算法,应建立全链条风险监管体系。对于无监督学习型算法,应禁止其在涉基本权利和人格尊严的场景中的使用;对于有监督学习型算法的使用,亦应将其严格限制于可控制、可接受的范围。二是审查来源于算法应用方式的影响。大陆法系的行政法理论将行政行为分为羁束行为和裁量行为。算法决策行为可分为无裁量权决策、有裁量权决策、决策辅助。无裁量权决策是指,将没有裁量空间和概念歧义的法律判断进行代码转化。例如,德国《行政程序法》第35a条规定,全自动化行政执法仅能用于无需裁量权行使的羁束行为。当存在需要解释的概念或存在裁量余地时,算法决策就需要人工裁量的有效介入,以维护算法决策中人的自主性和法律判断的开放性。在决策辅助方面,算法系统作出的结论会对最终处理结果产生参考依据或证据的作用,也存在机器依赖、简化人工判断和算法卸责等风险,故需要引入行政相对人参与机制和辩论机制。经审查,如果法院认定算法及算法应用方式不合法,则算法系统作出的结论不具有合法性。

2. 合目的性审查

如果算法会对相关主体的权利产生影响,但尚不足以得出其不合法的结论,则需要进一步审查算法嵌入行政行为所产生的作用是否符合该行政行为的目的。禁止不当联结原则是判断行政行为合法性的标准之一。人权司法方法的适用在合目的性审查中应发挥对侵犯基本权利行为的“理由阻断”功能。合目的性审查包括法定职权范围判断和目的相关性判断。在法定职权范围方面,我国《宪法》第三章规定,国家机关职权包含管理职权和发展职权。管理职权属于“限权型”职权,其应严格恪守法律规范的边界。发挥管理职能的算法系统所涉及的执法要素、幅度、方式等均需要符合法律关于管理职权的规定。发展职权属于“授权型”职权,其行使应以人民需求为中心,积极防范社会风险,提供更多、更好的公共服务,其权力来源于人民授权。当立法未及时跟进国家发展需求时,承担发展职能的算法系统应通过保障全周期公众参与取得人民的认同与授权。在目的相关性方面,根据《个人信息保护法》第6条规定的个人信息利用的目的限制原则,当在行政执法过程中处理个人信息时,行政主体不仅要考虑手段与目的的直接相关性,还要保证目的具有明确性与合理性。

3. 影响相称性审查

当算法系统根据行政机关法定职权展开运行时,仍需进一步判断其所追求的公共利益与其所造成的权利影响是否具有相称性。权利影响的相称性是针对算法行政行为的合理性与程序正当性的评价,其要求算法在使用过程中采取的一系列措施符合狭义的比例原则。权利影响相称性审查可考虑三个方面的情形:其一,应保留对人格尊严和自由的基本尊重,当算法被用于决策辅助和风险预防时,仍应采取有效措施降低数据主体的可识别性;其二,当公共利益与个体权利发生冲突时,可参考阿列克西关于权利限制的观点,对所涉公共利益和个人权利进行分级,只有当涉及特别重大的公共利益时,才允许对个体权利进行轻度或中度限制,并将个体的生命权和人格尊严设为权衡的禁区;其三,应采取充分的权利保障措施,以保障算法风险的可逆转性。尽管《个人信息保护法》第35条规定的国家机关告知义务在面对公共利益时会受到限制,但在调查取证等核心执法任务结束后,仍有必要对相关对象进行告知,以便其进行事后救济。在部署算法系统时,应同步部署相关主体行使数据信息查阅权、访问权、请求更正及删除权、撤回权、限制处理权、说明请求权、人工介入请求权等权利的保障措施模块。对于个体信息,应设置最小化保存目录和保存时间。此外,算法行政不仅要在整体上促进行政执法和公共资源分配的公平与效率,还应给行政相对人享受公共服务、行使权利、进行法律监督等活动提供高度的自由与便利。

结语

在数字全球化趋势中,人权司法方法在化解法的安定性与技术的发展性之间的冲突方面,作用越来越凸显。司法实践是一个国家人权保障水平的重要观察窗口。本文期待以算法行政争议化解为切入点,促进关于数字人权保障问题的讨论从抽象的概念争论转向现实层面的保障方式探讨。数字政府的发展依赖于数字技术在行政活动中的广泛运用。在数字政府发展水平较高的国家和区域的司法实践中,人权司法方法逐渐演绎出了独立的路径、原则、模式。当算法行政实践发展过程中的技术运用对行政机关外部主体权利造成的影响越来越广泛且深远时,应吸收全球算法行政规制中的有效经验,结合中国本土数字政府发展趋势,总结符合我国法制体系结构和司法实践条件的人权司法方法。这不仅可以促进算法行政争议的司法审查规则完善,还能通过人权司法实践为数字行政法的发展提供内生驱动力。

(作者:李婷,华中科技大学法学院博士研究生。来源:《法制与社会发展》2024年第6期(第181-203页)。本文转自数字法治微信公众号)

打印|
返回顶部