智能化革命正在深刻地影响和塑造着人类的生产、生活方式与社会文明发展形态。如何应对人工智能技术发展和应用带来的伦理问题及挑战,成为智能化时代全人类需要面对的重大课题。国际学术界对新技术可能引发的各种伦理问题以及防范等进行了诸多研究,值得我们关注。
对机器能否成为道德主体的看法
人工智能显然超出了传统工具的范畴,具有学习能力,能做决策,并根据环境变化调整行为,进而产生相应的伦理后果。因此,该如何确定或定义人工智能在人类社会中的身份和地位,其能否成为道德主体或法律主体,为自身行为承担责任或获得激励?国外学界认为,对这些问题的探讨最终还是要还原到何为自我意识、自由意志的问题。从1956年图灵(A. M. Turing)提出“图灵测试”设想开始到塞尔(J. R. Searle)的“中文屋”思想实验,再到德雷福斯(H.Dreyfus)的《计算机仍然不能做什么:人工理性批判》等思想成果,早期的人工智能先驱们基于人工智能的本质,及其与人类智能的区别等视角普遍认为,人工智能不具有类人的意识。
近年来,随着以人工智能为代表的新技术指数级的发展,自主性的机器能否成为主体,成为绕不开的话题。其中,大部分学者认为机器智能依赖的是算法程序,很难衍生出像人一样的自我意识和自由意志,因而很难成为道德主体。他们认为人的心灵(mind)是由两个部分构成的,通过形式逻辑、自然因果律等认识、把握、改造对象世界的计算意识,通过对象性活动和交往活动确证主体世界本质与意义的社会情感意识,机器表现出来的自主意识只是对人类计算智能的模拟。如博登(M. Boben)认为人类很难设计出通用人工智能,因为人工智能只专注于智能理性而忽略了社会情感智能,没有智慧(wisdom)。齐泽克强调不应该将计算机想象成人的大脑模型,要将人的大脑想象成“血肉构造的计算机”,而人脑是无法完全还原为计算机构造模型的。但是,一些未来学家认为机器在未来将衍生出不同于人类的意识和超出人类的智能,而一旦出现超级人工智能,人类将很难与其沟通,也很难使其遵守人类的道德规则。如库兹韦尔(Ray Kurzweil)于2005年提出“技术奇点”论,认为在未来人的主体性将受到机器的挑战。安德森(Michael Anderson)夫妇编著了“机器伦理”(Machine Ethics)一书,开启了以机器作为责任主体的机器伦理学研究进路。随着人工智能技术指数级的发展,机器在未来能否突破因果律的限制,衍生出能动意识,需要理论持续的跟进。
西方学者关于机器能否成为道德主体的论争,引发了我们重新关注和审视人工智能趋势下“什么是人”“我们该如何对待人”“技术的本质和限度是什么”等问题的思考。
人工智能产生的道德伦理风险
人工智能技术自发展伊始就与人有着千丝万缕的联系,早在1950年,美国控制论创始人维纳(Norbert Wiener)就认为机器人技术会从善还是作恶充满不确定性,但机器人将代替人类从事工作,或许会造成人脑的“贬值”。西方学者对人工智能可能产生的道德伦理风险,进行了较为深入系统的研究和探索。
第一,对人工智能技术导致劳动者失业,形成新的社会不公、技术鸿沟等问题的探讨。不少西方学者认为人工智能造成大量失业、社会贫富差距增大等风险。如赫拉利(Yuval Harari)认为随着技术的进化,大多数人因自身工作会被人工智能替代而沦为“无用阶级”,只有少数掌握技术和资源的精英阶层会进化成超级人类,社会阶层固化、极化。对如何更好地保障人的生存发展权利,休斯(James Hughes)等学者提出通过税收和财富公共所有权建立全面基本收入制度,以应对智能技术造成的失业和社会不公。
第二,对人工智能技术不确定性伦理风险问题的辩论。“究竟谁应该对机器行为承担责任”成为日益严峻的责任伦理问题。一些学者主张设计者、制造者、编程者和使用者应对机器人的社会后果进行控制监督,强调机器人工程师的伦理责任。另外一些学者主张以道德嵌入的方式来设计算法,使机器成为内置伦理系统的道德体,以防范人工智能在设计和应用阶段产生的伦理风险。2009年,美国学者瓦拉赫(Wendell Wallach)和艾伦(Colin Allen)在合著的《道德机器:教导机器人分辨是非》一书中,对如何设计道德机器做了较为系统的分析。然而,道德算法面临价值选择与冲突。人类社会存在多种道德规范和伦理原则,各体系间难以通约,以何种道德规范设计算法成为问题。此外,设计者的伦理诉求也非一元,在设计道德机器时如何进行价值取舍同样成为问题。基于此,一些学者如布赖森(J. Bryson)等就如何进行价值排序、解决价值冲突、寻求普遍伦理共识作为设计道德机器的理论框架进行了探讨,他们普遍将机器对人类无害且友善作为首要的伦理原则。
第三,对人工智能技术滥觞突破传统人类道德伦理界限的担忧。除了上述问题,一些学者对下述问题表达了担忧。人对智能技术的过度依赖,容易导致技术霸权和技术奴役,造成社会不确定性风险和危机;护理机器人的应用存在物化老人、幼儿,弱化或侵犯其尊严、自由、隐私等风险;自主作战机器人的应用存在打破国际社会法律与规约,增大引发地区性冲突与战争可能性以及大规模杀伤的风险。
人工智能伦理风险防范思路
针对人工智能可能引发的各种伦理问题,西方学者普遍认为应该从机器伦理价值导向设计、行业标准设定以及立法等多途径防范和规避人工智能伦理风险。
在国际学术界有较大影响力的是自上而下的道德编码和自下而上的道德学习的机器设计思路。前者主张将人类社会的道德规则以程序编码的方式嵌入算法中,使机器能够通过计算和推理进行道德决策。后者认为人类的道德行为是在具体道德情景、与他人的互动中习得的,因而无须预先编码,让机器通过道德案例观察、与其他道德体互动学习等成为道德行动者。
这两种设计各有局限,前者存在选择何种伦理价值嵌入以及如何应对复杂道德场景的问题,后者存在没有伦理指导系统,仅凭机器学习,输入机器的道德敏感数据会得出何种结果的问题。考科尔伯格(Mark Coeckelbergh)认为,当前的机器学习实质上是一种统计学加工过程,因而机器很难被训练成完全的道德行动者,他主张从人机互动的关系进路设计道德机器。
通过行业标准设定防范和规避人工智能伦理风险的对策。近年来,欧洲机器人研究网络(EURON),美国国家航空航天局(NASA)和国家科学基金会、韩国贸易、工业和能源部等从国家层面对人工智能伦理研究进行指导。一些行业协会如英国标准协会(BSI)颁布了《机器人和机器系统的伦理设计和应用指南》,美国电气与电子工程师协会(IEEE)提出“合乎伦理设计”(EAD)规范等,以应对因设计者认知偏好引发的算法歧视、社会不公等问题。
通过制度规范化解人工智能伦理风险的做法。2021年4月,欧盟委员会通过了《人工智能法》立法提案,对人工智能的功能和用途等要素做了不可接受的风险、高风险、有限风险和低风险等层级区分,并提出了明确、具体的对应分类治理和监管体系。
国际学术界对“合乎伦理设计”的道德机器可行性探索,为我们开发设计可信赖的人工智能提供了方法论的指引。在疫情难以预料的当下和未来,人类命运休戚与共,加速人工智能与各领域的深度融合,使世界形成一个泛智能化的地球村已是大势所趋。因此,搁置争议,寻求全球共识,设计具有最大公约数的道德机器,共同抵御未来的不确定性风险非常必要、迫切并将成为可能。但这些学者将研究重心集中于如何规避技术风险,忽视了人文价值缺失在技术应用中的极化伦理风险。为了解决这些问题,我们应始终坚持以人民为中心的科技发展规律,在技术的发展和应用中始终将维护人的尊严,呵护人的价值作为根本目标和前置条件。
(作者单位:华南理工大学马克思主义学院;广东省社会科学院国际问题研究所)