摘要:联合国教科文组织的《人工智能伦理问题建议书》是第一部规范人工智能科学伦理的全球性国际文书,提出了人工智能伦理要始终以保护人权、人的自由及尊严为核心价值。本文通过对其制定的背景、过程、内容、意义和作用以及亮点的介绍,探究其确立的伦理规范对我国科技伦理治理的启示。研究发现,《人工智能伦理问题建议书》以软法的形式,结合人工智能动态发展的特点,有效地在国际层面整合有关观点,提出人工智能在教育、科学、文化等领域发展的价值观、原则及政策行动,形成了动态且具包容性的人工智能伦理问题框架。我国科技伦理治理的政策实施和立法可借鉴《人工智能伦理问题建议书》进一步细化,实现科技伦理的硬法软法协同治理,促进我国的科技伦理治理体系不断发展与完善。
关键字:联合国教科文组织;《人工智能伦理问题建议书》;人权;人工智能;科技伦理
目录
引言
一、《建议书》的制定背景、过程和适用范围
二、《建议书》的主要内容
三、《建议书》的主要亮点
四、《建议书》对我国科技伦理治理的启示
结语
引言
2023年10月,习近平主席在第三届“一带一路”国际合作高峰论坛开幕式主旨演讲中提出《全球人工智能治理倡议》,体现出国内和国际对人工智能伦理治理,以及构建科技伦理审查及监督制度的关切。2024年7月,中共第二十届中央委员会第三次会议全体通过《中共中央关于进一步全面深化改革推进中国式现代化的决定》,该决定明确要构建支持全面创新体制机制,深化科技评价体系改革,加强科技伦理治理。
发展科技要扬长避短,发展其长处,正视其短处。为此,需要制定相应的政策并进行立法。但是,人工智能、云计算等科技快速发展,各国在相关领域的具体实施政策和立法却差距甚大。这些年,已有一些国家和区域性国际组织出台了有关人工智能的规范准则,但是还缺乏一部在全球范围内规定人工智能发展伦理框架的规范性文书。
2021年,《人工智能伦理问题建议书》(Recommendation on the Ethics of Artificial Intelligence,下文简称《建议书》)的颁布填补了上述国际空白。《建议书》由联合国教科文组织(UNESCO)批准通过。联合国教科文组织是制定科学伦理框架以及协调国际社会各方进行磋商的权威机构,它运用自己的长期经验,充分发挥其全球性、多元化的优势,会集众多国家、国际组织和公共及私营领域众多利益攸关方起草并通过了《建议书》。《建议书》体现了人工智能伦理与人权的紧密关联,能够有效指导各国围绕联合国教科文组织中心领域制定与人工智能相关的政策和法律,鼓励个人、团体、社群、机构和私营部门公司将伦理规范嵌入人工智能系统生命周期的各个阶段,更有效地保护人权。
本文将简要介绍和梳理《建议书》的制定背景、过程,适用范围和主要内容,总结联合国教科文组织《人工智能伦理问题初步研究》(以下简称《初步研究》)和《建议书》确立的人工智能伦理价值观和原则的重要意义、作用及若干亮点,继而根据《建议书》得出若干启示,围绕贯彻落实我国科技伦理的治理进行探讨。
一、《建议书》的制定背景、过程和适用范围
(一)《建议书》制定的背景
1.联合国教科文组织关于生物和科技伦理的研究
联合国教科文组织对生物伦理和科技伦理进行了多方面的思考,在国际标准制定与合作中发挥了重要作用,20多年来,其就科技伦理问题提出了许多规范性建议,例如《世界人类基因组与人权宣言》(1997年)、《世界生物伦理与人权宣言》(2005年)、《与气候变化有关的伦理原则宣言》(2017年)、《关于科学和科学研究人员的建议书》(2017年)等。
2.国内外学者关于人工智能伦理的一些研究
《建议书》出台以前,国内学者已就人工智能带来的伦理问题及其对具体政策和法律实施的挑战展开了研究,回应这些挑战越来越成为探讨的前沿和热点。目前,国内学界一些已有的研究围绕不同视角展开,均涉及人权问题。本文仅择其主要者简述如下。
首先,是伦理与人权的关系。伦理是人权的道德基础,是关于道德规范与人际关系的评价。人权首先是道德意义上的权利,也就是说,“人权是一种在道德上具有强烈正当性的权利,或者说,是一种在道德上具有高度优先性的权利诉求”。有学者指出,随着启蒙时代的“自然权利论”和康德的“理性权利观”作为人权论证的主要方式被提出,人权与伦理学之间实现了逻辑和理论的自洽,人权价值被广泛接受为基准性道德价值,形成了“一种认可每个人价值、尊严和权利的伦理”。根据这些研究可知,一定的伦理形成了相应政策和法律选择背后的价值观,而包括人工智能在内的科技伦理是指运用道德规范和一定的价值观来约束科技的发展和使用。
其次,是人工智能如何影响基本人权,如生命权、健康权、经济权利、政治权利、文化权利和发展权利等。人权的抽象性导致其在约束科技发展中存在一定的局限性,人工智能的发展也带来了人权伦理的困境、冲突和挑战。例如:人权的人格主体向人工智能扩展的可能性,算法决策的歧视和对歧视的救济,个人隐私权、表达自由权利、人性尊严的保障,科学技术的享受权,侵犯发展中国家人民的健康权,等等。
再次,是探求“科技和人权走向伦理和解”的建构路径,即寻求伦理与法律的结合点以解决科技发展中的人权困境。这些观点包括:立法活动中,将伦理学中的道德因素转化为实然法,促进算法的可解释性;司法裁判中避免对人工智能形成依赖,侧重立法中对人工智能的开发与运行程序的事前审查;在人权视角下过滤算法可能会依据的歧视性和敏感性词语,使决策符合伦理;不能忽视多方合作制定人工智能法律与伦理规则的重要性。
最后,国外学者提出的一些观点在我国也有较大影响力。例如,Jobin定义了以下人工智能伦理原则:透明度(transparency)、公正与公平(justice and fairness)、不伤害(nonmaleficence)、责任(responsibility)、隐私(privacy)、利他(beneficence)、自由与自治(freedom and autonomy)、信任(trust)、可持续(sustainability)、尊严(dignity)和团结(solidarity)。上述原则均直接或间接与人权保障相关。
但是,上述研究的缺憾之一是未与人工智能相关的国际规则紧密相连,无法从全球层面提出人工智能伦理困境的解决方法。简言之,这是缺乏国际性和全球性视角,尚未形成解决人工智能伦理问题总括性的、行之有效的全球标准而导致的。因此,在飞速发展的科技时代,亟须从全球视角整合各方观点,制定国际社会能够达成共识以保障人工智能的发展遵循伦理规范的准则。《建议书》在很大范围和程度上弥补了这一缺憾,也提供了人工智能伦理研究的具体指南。
(二)《建议书》采用的人工智能定义及其与伦理和人权的关系
2019年2月通过的《初步研究》,在《建议书》出台之前就对“人工智能”的概念进行了界定,并且考察了联合国教科文组织职能范围内的人工智能伦理问题,继而确定了将要拟订的准则性文书,即《建议书》的性质、内容、通用原则和关注的重点领域。
1.《初步研究》对人工智能的定义及其与伦理关系的论述
《初步研究》指出,人工智能在最宽泛的层面上可以分为 “理论型”或“科学型”,以及“实用型”或“技术型”两大类别。“理论型”或“科学型”人工智能是指“使用人工智能的概念和模型帮助回答与人类和其他生物相关的问题”,涉及形而上学或精神层面的问题,本身具有十分严肃的伦理内涵;“实用型”或“技术型”人工智能则以工程学为导向,创造机器或程序,使其独立执行本需依靠人类的行动。《建议书》是根据《初步研究》关于人工智能“理论型”或“科学型”定义的类别来提出其伦理框架的,本文也主要根据这一“理论型”或“科学型”的人工智能定义来进行阐释论证。
2.《初步研究》对人工智能伦理与人权关系的论述
由于人工智能伦理框架与人权有紧密的关联,所以联合国教科文组织从多学科、普遍性和整体性的角度出发,在《初步研究》中指出了两个可供借鉴的现有人权框架和倡议。
第一个是《日内瓦原则宣言》提出的倡议。该宣言于2003年在信息社会世界峰会上提出,强调“信息和通信技术的使用应符合相关的国际法规,尊重人权和他人的基本自由(包括个人隐私)”。此外,此次峰会还要求政府、私营部门、民间团体等所有利益攸关方进行有效合作。联合国教科文组织采用了这种多利益攸关方的方法,负责实施“获取信息和知识”(C3)、“电子学习”(C7)、“文化多样性”(C8)、“媒体”(C9)和“信息社会的伦理问题”(C10)等行动方针。
第二个是2015年联合国教科文组织大会第三十八届会议批准的“互联网普遍性框架”和相关的 ROAM原则,其涵盖了人权、开放性、可获取性和多利益攸关方参与等内容。此外,教科文组织全民信息计划政府间理事会第十八届会议还审议批准了由全民信息计划信息伦理工作组制定的《信息社会伦理守则》。
《建议书》提出的人工智能伦理以上述两个框架和倡议为基础,结合人工智能技术动态发展的特点,提出了人工智能伦理的原则和基本价值观,并针对数据保护、禁止大规模监控、伦理影响评估以及环境保护等人工智能适用的不同政策领域提出了具体的建议。
(三)《建议书》的适用范围
总体而言,《建议书》述及的是与人工智能领域有关且属于联合国教科文组织职责范围之内的伦理问题。具体而言,《建议书》以整体全面多元且不断发展的文化框架为基础,可以指导社会负责任地应对人工智能技术对人类、社会、环境和生态系统产生的已知影响和未知影响,并且将人工智能伦理作为一种系统性规范加以考量,从而为是否使用人工智能技术提供参考。简言之,《建议书》以人的尊严、福祉和防止损害为导向,并立足于科技伦理。
因此,与联合国通过的其他国际规范性文书一样,《建议书》的适用范围并非地域性的,而是全球的人工智能领域,是联合国教科文组织职责范围内的伦理问题。也就是说,其是仅适用于从属于伦理、科技伦理下位概念和领域的人工智能伦理的文书。
二、《建议书》的主要内容
《建议书》旨在促进和平利用人工智能系统,是基于全球现有的人工智能伦理框架提出的一部全球公认的准则性文书。《建议书》围绕人工智能伦理的价值观和原则,通过规范人工智能具体实践领域的政策进行落实,同时着重强调包容、性别平等以及环境和生态系统保护等问题。由此可见,人工智能伦理与人权具有十分紧密的关系。
(一)《建议书》中体现的人权价值观
《建议书》在“尊重、保护和促进人权和基本自由以及人的尊严”这一主题之中,分层次提出了与人权相关的人工智能伦理价值观,这些价值观均与人权保护紧密相关。
首先,《建议书》重申了与人权保障有关的基本价值观,即人的尊严构成人权和基本自由这一普遍、不可分割、不可剥夺、相互依存又彼此相关的体系的基础。人的尊严系指“承认每个人固有和平等的价值,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何”。因此,尊重、保护和促进包括国际人权法在内的国际法确立的人的尊严和权利,在人工智能系统的整个生命周期内都至关重要。为了保障人的尊严和权利,《建议书》构建了人工智能系统生命全周期的人权保护,明确了人不应受到人工智能的损害或被迫处于从属地位,且使用人工智能的重要目的是改善人类的生活质量。最后,人工智能还应帮助保障特殊群体,既包括弱势群体,也包括处境脆弱的群体的人权。
此外,《建议书》还明确规定:保护和促进环境和生态系统蓬勃发展;依照国际人权法尊重、保护和促进多样性与包容性,其中包括非歧视、宗教信仰自由和言论自由;人工智能自主决策不得破坏社会的和平、包容、正义与公平。
(二)《建议书》确立的原则
《建议书》基于上述价值观确立了一系列原则,其中包括相称性和不损害、公平和非歧视、隐私权和数据保护、透明度和可解释性、责任和问责以及多利益攸关方与适应性治理和协作等。可以说,《建议书》确立的这些原则,都直接或间接与人权保障和法治相关。
由于篇幅所限,本文仅以责任和问责原则,以及多利益攸关方原则为例加以阐释。人工智能产品与服务的开发、生产、销售和使用会涉及多个主体,在整个生命周期的各个环节都会涉及伦理责任。这对责任的认定、分配和承担构成挑战。此外,当人工智能产品用于行政和司法决策等领域,会对个人权利和社会公平正义产生重大影响。《建议书》聚焦基于人工智能系统做出的决定和行动,指出相关的伦理责任最终都应由人工智能行为者根据其在人工智能系统生命周期中的作用来承担。在责任认定方面,《建议书》提出覆盖人工智能全周期的监督、影响评估、审计和尽职调查机制,确保人工智能系统可审计和可追溯。在问责标准方面,《建议书》指出应按照人权规范和标准以及生态和环境保护准则进行追踪和审计,确保人工智能系统的运行符合人权规范,保护生态系统的福祉。本文认为,这一原则为各国人工智能伦理立法融入人权问责标准提供了较为明确的指导,并且强调在人工智能生命全周期进行追溯和监测,提升了责任认定和责任分配的准确性。
《建议书》的多利益攸关方原则提出,在依据国际法尊重隐私权以及其他人权规范和标准的基础上对人工智能利用的数据进行监管时,必须重视不同利益攸关方在人工智能系统整个生命周期的参与。该原则明确了利益攸关方的种类,除了政府、技术界和研究人员,还包括民间社会、学术界、媒体、教育机构、政策制定者、私营部门公司、人权机构、反歧视检测机构及青年和儿童团体等。多利益攸关方进行治理与协作的具体行为标准,应兼顾技术的变化和新利益攸关方的出现,采用开放式标准和互操作性原则,以促进协作。
(三)《建议书》涵盖的政策行动领域
在人工智能伦理的实践层面,《建议书》基于上述价值观和原则,就一些具体的政策领域,包括伦理影响评估、数据政策、环境和生态系统、性别、文化、教育、健康、社会福利、发展与国际合作等提出建议和指导。相关领域的建议有助于指导会员国出台并实施相应的政策或机制,并确保各利益攸关方遵守和落实。例如,可以鼓励所有利益攸关方根据包括联合国《工商企业与人权指导原则》在内的准则制定人权、法治、民主以及伦理影响评估和尽职调查工具。值得指出的是,《建议书》专门提出的关于工商企业与人权的上述例证,即企业社会责任的研究,目前在中国已经逐渐成为一个热点。
同样由于篇幅所限,本文仅以伦理影响评估为例。《建议书》提出,会员国应针对人工智能系统出台伦理影响评估框架,并出台预防、减轻和监测风险的措施以及其他保障机制。此种影响评估应根据《建议书》提出的价值观和原则,确定人工智能对人权和基本自由(特别是但不限于边缘化和弱势群体或处境脆弱群体的权利)、劳工权利、环境和生态系统、伦理以及社会产生的影响,并促进公民的参与。具体来讲有三点。一是在数据保护方面,需要确保人工智能的透明度、行动力和对个人数据的控制来保证个体的权益。二是禁止使用人工智能系统进行侵犯人权和基本自由的活动,例如大规模监控。制定监管框架的最终责任和问责必须始终由人类承担,人工智能技术本身不应获得法律人格。三是要通过伦理影响评估,帮助开发和部署人工智能系统的国家和公司评估该系统对个人、社会及环境的影响。这一工具将有助于提高各国机构应对人工智能不利影响的能力,并确保伦理规范在实践中得到遵守。
可见,《建议书》关注的重点是如何规避人工智能的负面影响,而且要特别关注的是保障某些特殊群体的人权。
三、《建议书》的主要亮点
《建议书》主要有两个亮点。亮点之一是其形式,《建议书》在序言中首先提出要铭记《世界人权宣言》(1948年)、《残疾人权利公约》(2006年)等11个国际人权规范以及其他一切相关国际文书、建议书和宣言;随后提出又注意到《联合国发展权利宣言》(1986年)、《世界生物伦理与人权宣言》(2005年)等13个国际文书、建议书和宣言。《建议书》与前述国际文书、建议和宣言一脉相承,从本质上继承并发展了这些国际文件确立的人权精神和人权理论,同时也使人们注意到其采取的形式的特点和优越性,而且其提及的上述国际文书、建议、宣言都是有国际法约束力的。
《建议书》的制定体现出联合国教科文组织积极履行制定宣言、建议书或公约的职能。从内容上,《建议书》明确倡议各国在人工智能伦理的价值观和原则的指导下,在实践中紧密关注并践行联合国教科文组织所关注的重点领域的人工智能伦理治理。联合国教科文组织的工作组通过初步研究发现,自2018年以来,有关人工智能伦理问题原则的宣言数量日益增多。同时,工作组结合世界科学知识与技术伦理委员会(COMEST)的工作经验,认为相较于上述日渐增多的其他区域性和国际性宣言,制定人工智能伦理问题宣言只能促使会员国就一般性、抽象性的原则达成一致意见,无法将各方所提价值观整合为更具体的指导原则,因此无法达到理想的效果。综合考虑国际社会的政治环境和经济背景,以及其他国际组织(如经合组织)人工智能专家制定的战略,教科文组织决定制定人工智能伦理问题建议书,聚焦文化、教育、科学和传播等领域的人工智能伦理问题,提出具有创新性且实操性强的建议,增强会员国对上述领域人工智能问题的干预。此外,由于人工智能具有快速且非线性发展的特点,所以需要制定可根据人工智能发展进行灵活调整,并符合国际人权标准的具体伦理框架。相较于形式固定且具有法律约束力的公约以及较为概括抽象的宣言,制定建议书更加符合该要求。
亮点之二是《建议书》的软法性质。联合国教科文组织采取建议书而非宣言的形式来规范人工智能伦理主要是考虑建议书虽然不具有约束力,属于国际法中“最软的软法”,但是全球迫切需要寻求一致的立场,解决快速发展的人工智能可能产生的伦理问题,建议书的形式比同样是软法的宣言形式更灵活、具体、具有可操作性,因而也更易于为各国所接受。与前一亮点相联系,软法虽然不具有法律约束力,但被视为生命科技领域国际规范形成的最佳形式选择。通过联合国教科文组织等跨文化国际组织整合倡议,可以为人工智能伦理规则在将来发展为习惯国际法或法律一般原则奠定基础。但《建议书》中某些条款实际上也具有强制性和义务性。例如,它重申了人权法的强制性,并强调了国际法义务,在一般性条款中规定《建议书》的实施不得妨碍国际法和人权义务。当然,相较于国内法,国际法在整体上仍然还是软法。在国内人工智能伦理立法的过程中,可以参照《建议书》将某些具有软法性质的建议转化为具有“硬法”性质的法律,为未来将人工智能伦理规则由鼓励性转向制度性奠定基础。
四、《建议书》对我国科技伦理治理的启示
(一)人工智能伦理与科技伦理
目前,中国在科技伦理治理领域面临的重大挑战之一,是仍缺乏一套成熟的体系来规制科学技术,包括人工智能发展和应用的潜在风险。如前所述,由于人工智能在科技领域极易产生伦理问题,我国一直在推动加强人工智能伦理的法律法规和政策标准的研究工作,并且已出台《网络安全法》《国家信息化发展战略纲要》等法律和规范性文件,对某些人工智能侵犯隐私权的伦理问题进行了规制。但是就人工智能伦理和科技伦理的整体领域而言,具体的政策、立法和规范仍然缺乏。
党的十八大以来,中央组建了国家科技伦理委员会,促进科技伦理治理积极发展。2017年,国务院发布《新一代人工智能发展规划》,明确提出人工智能立法的“三步走”战略。该规划为我国人工智能伦理的立法和政策的出台设立了目标。2021年12月,中央全面深化改革委员会第二十三次会议提出建立科技伦理审查和监督制度,明确要提高科技伦理治理的法治水平,加强科技伦理理论的研究。2022年3月,中共中央办公厅、国务院办公厅联合印发了《关于加强科技伦理治理的意见》(下文简称《治理意见》)。《治理意见》在总体要求、明确科技伦理原则、健全科技伦理治理体制、加强科技伦理治理制度保障、强化科技伦理审查和监管、深入开展科技伦理教育和宣传等方面做出了具体部署,为科技伦理规范的具体标准提供了有价值的政策性参考依据。2023年9月,科技部、教育部、工业和信息化部等部门共同颁布了《科技伦理审查办法(试行)》,该办法明确科技伦理治理应坚持促进创新与防范风险相统一,遵循增进人类福祉、尊重生命权利、坚持公平公正、保持公开透明等科技伦理治理原则,并提出设立科技伦理(审查)委员会,明确了科技伦理审查的重点内容与公平、公正、透明、可靠、可控等审查标准。此外,该办法还明确了审查程序以及科技伦理审查监管的主体和责任。下文将根据《建议书》的启示,对《治理意见》的实施进行探讨。
人工智能伦理是从属于科技伦理的下位概念,也属于后者治理的领域和范畴。《治理意见》明确提出,“十四五”期间重点加强生命科学、医学、人工智能等领域的科技伦理立法研究。所以,《治理意见》中的科技伦理及其治理,在整体上可以涵盖人工智能伦理,而在局部上,《建议书》则可以为细化并落实《治理意见》提供价值观和原则,并以人工智能伦理治理为突破口和重点,就具体措施的确定和贯彻实施提供启示和借鉴。
所以,未来我国在人工智能伦理领域具体政策的制定、实施和立法,应借鉴《建议书》的意见,遵循人工智能伦理的国际法律原则和价值观,以及国家层面的政策制定要求。多边主义以及人工智能具有的特点要求一国在制定相关法律时遵循规范性的全球框架协议,开展国际合作。我国作为联合国教科文组织的重要成员国,应该率先借鉴和实施《建议书》提出的价值、原则、基本政策和具体建议,完善科技伦理治理立法和具体的政策规定,以体现我国负责任的大国形象。
针对具体领域的行动,《治理意见》结合我国的国情,增加了深入科技伦理理论研究、压实创新主体科技伦理管理主体责任、加强科技伦理教育、推动科技伦理培训机制化发展的意见。这也呼应了《建议书》提出的具体政策行动领域,有助于向全球展示我国的科技伦理治理观念和实践成果。所以,在今后的国内立法中,可以根据《建议书》的价值观、原则和具体领域的政策行动完善相应的科技伦理规范,保障治理的有效执行。
(二)细化科技伦理审查的评估标准
目前,《科技伦理审查办法(试行)》第15条规定的科技伦理审查内容和标准较为原则化,且与人权保护的关系仍需进一步厘清。例如,在实践中如何界定科技活动的社会价值,如何对接我国个人信息保护规定与国际原则,如何判断数据收集、存储、加工、使用等方案是否得当等,都可以通过参照《建议书》中的内容,融入人权要素,细化相应的审查评价标准。例如,目前的科技伦理审查内容包括对个人隐私侵害、违反平等权等情形的审查,但未提及侵犯其他基本人权和自由的类别,例如表达自由、宗教信仰自由等。此外,其也未区分人工智能可能造成的特殊伦理问题,例如算法的运用加深了已有的歧视和偏见,同时产生新的歧视情形,应体现如何在治理过程中区分上述两种情形。在数据保护方面,除《科技伦理审查办法(试行)》第15条第5款规定的国家数据安全审查,还应在伦理风险评估方案中考察人工智能的应用是否会造成大规模监控和社会评分等侵害人权的行为。再如,科技伦理审查应考量人工智能等科技的运用对不同利益攸关方的影响,并纳入科技伦理审查的内容。只有做好这一前期准备,才能为利益攸关方后续参与科技伦理治理奠定基础。
(三)推动制定科技伦理治理的问责标准
《科技伦理审查办法(试行)》第47、48条分别规定了科技活动的承担单位,以及科技伦理(审查)委员会违反审查办法的追责情形,但并未明确科技产品或服务的开发者、生产者、销售者和使用者分别应承担何种责任。应制定覆盖科技产品的研发、生产、销售和使用等各个环节的监督和尽职调查机制,确保责任可追溯。在问责标准方面,也应强调人权并将其细化加入条款内容当中,目前的规定仅限于违反程序准则,即科技活动承担单位造假获得科技伦理审查批准,未获科技伦理审查批准或超出批准范围擅自开展科技活动等。应在科技伦理审查办法中引入人权规范和标准以及环境保护和保障人类健康的准则,针对人工智能等对社会正义产生较大伦理挑战的技术运用,还应该结合现有的《人工智能法(学者建议稿)》,提升人工智能产品用于自动化行政、司法决策中的伦理审查标准和责任认定标准。
值得注意的是,《治理意见》和《科技伦理审查办法(试行)》都属于软法。在科技伦理审查制度发展之初,采用软法的形式可以最大程度减少分歧,达成科技伦理治理原则的共识。但由于缺乏强制力,可能无法有效进行问责,也无法督促企业等主体落实针对人工智能等科技的运用开展的伦理影响评估。所以,应推动软法向硬法的转化,逐步出台强制性法律,明确人工智能等科技的伦理问责标准和机制,保障科技伦理主体切实遵循相关义务,避免人权、环境权等遭受不利影响。
(四)加强人工智能伦理和科技伦理领域的国际合作
《治理意见》提出了“坚持开放发展理念,建立多方协同合作机制进行科技伦理治理,贡献中国智慧和中国方案”这一总体的治理要求,这与联合国教科文组织《建议书》中的第四个政策领域即“发展与国际合作”是完全一致的。我国可以借鉴《建议书》的相关建议,努力促进人工智能研究和创新方面的国际合作,鼓励在人工智能领域开展技术交流和磋商,通过向中低收入国家提供资金、技术、知识等,弥合地缘技术差距。在国际司法方面,我国法院也应加强对国际法和未来的科技伦理法律的解释,并争取将我国的司法经验加以推广。
近年来,中国在联合国教科文组织中的影响力日益增大。2014年3月,习近平主席和夫人彭丽媛访问了联合国教科文组织总部。在联合国教科文组织的历史上产生了巨大的影响。不仅如此,随着中国成为世界第二大经济体,从2019年起,中国所缴联合国教科文组织的会费已经排世界第1位,占会员国所缴会费总数的近6%。当然,这也与美国退出联合国教科文组织有关。可以说中国在尊重和保障人权等方面的巨大发展和进步,得到了国际社会的广泛认可。
国际人权规范是各国处理科技伦理问题的根本价值判断标准。人工智能技术以认知能力为基础,且处于动态的发展变化中,为科技时代带来了更深层次的伦理困境,各国和有关组织从国际层面探寻解决困境的方法势在必行。所以,通过借鉴《建议书》,切实贯彻执行《治理意见》,努力使我国的科技伦理治理观念和实践成为全球范围内的模板。
结语
《治理意见》提出,科技伦理体系的构建以习近平新时代中国特色社会主义思想为指导,科技活动应坚持以人民为中心,尊重生命权利(包括生命安全、心理健康、人格尊严、个人隐私等),坚持公平公正,坚持公开透明等伦理原则。《建议书》注重人的尊严和人权保护,确立了性别平等、社会正义与发展、身心健康、多样性、互联性、包容性、环境和生态系统保护等准则。由此可见,《建议书》的基本价值观和原则与《治理意见》的指导思想和伦理原则是基本吻合的。
《建议书》明确了人工智能伦理的根本价值判断标准是使人工智能技术立足于基本人权和自由,并兼顾创新和发展。作为第一部规范人工智能科学伦理的国际性规范文书,《建议书》采取软法的形式,在各国共同目标的基础上构建了人工智能伦理框架,有力维护了多边主义。我国积极响应联合国教科文组织的建议,遵循并实施《建议书》中规定的基本价值观、原则及政策行动,出台多个国家层面的科技伦理治理指导文件,推动科技伦理和人工智能伦理的治理,并以积极、开放和包容的态度在全球范围内开展合作,向世界展现了负责任的大国形象。未来,我国可以借鉴《建议书》中的内容,细化科技伦理审查中的人权要素,加强多利益攸关方合作,细化问责标准,进一步完善科技伦理影响的评估和监督机制,实现科技伦理治理的硬法与软法协同立法,促进我国的科技伦理治理体系不断发展与完善。
(本文是在笔者为中国人权研究会、奥地利奥中友好协会于2022年5月10日举办的“2022·中欧人权研讨会”所提交论文的基础上修改而成的。论文英文版已经于2023年2月载入奥地利Bacopa Verlag出版社的Science,Technology and Human Rights—Collected Papers of 2022 China Europe Seminar on Human Rights一书。本文亦是教育部中国联合国教科文组织全国委员会《联合国教科文组织的公约与建议委员会工作机制和我国关于人权来函的应对策略研究》系列课题(2022—2024年度)的阶段性研究成果,相关前期的中文研究成果已在《人权研究》2022年第4期以《联合国教科文组织〈人工智能伦理问题建议书〉的借鉴启示及其中国贡献——以人权保障为视角》为题发表,特此说明。本文原载《发展权研究》2025年第1辑第99-116页。)
【作者简介:朱力宇,中国人民大学法学院教授,人权研究中心学术委员会秘书长,教育部中国联合国教科文组织全国委员会咨询专家。胡晓凡,中国政法大学外国语学院讲师,美国范德堡大学法律博士(JD)】
(因篇幅较长,已略去原文注释,本文转自华中大Humanrights微信公众号)