查看原文
其他

江溯 | 人工智能作为刑事责任主体:基于刑法哲学的证立




点击蓝字关注本公众号,欢迎分享本文




人工智能作为刑事责任主体:基于刑法哲学的证立


作者:江溯,北京大学法学院副教授、博士生导师。

来源:《法制与社会发展》2021年第3期(第111-127页)。由于篇幅所限,刊物在此推送未加注释版本,请广大读者前往本刊物网站下载全文阅读。(责任编辑:朱振、陈洪磊)

摘 要

 

关于是否应当承认人工智能的刑事责任主体地位的问题,存在肯定说与否定说两种针锋相对的观点。立足于本体论的人工智能法律人格否定论存在严重的缺陷。从社会认可的角度看,我们完全可能承认人工智能的法律人格。从刑法上的行为理论来看,应当认为具备足够决策能力的人工智能可以实施刑法意义上的行为。现代罪责理论由于逐渐开始排斥“自由意志”这样的形而上学概念,因而完全可以容纳人工智能的罪责。在人工智能主体具备足够的理性能力的前提下,对其科处刑罚是有意义的,而且完全符合刑罚目的。


关键词:法律人格;行为;决策能力;刑罚目的



最近十多年以来,随着大数据的出现、云计算能力的不断增强以及算法的不断优化,人工智能获得了前所未有的发展。在不久的将来,人工智能将帮助人类在诸如医疗、农业、教育、交通、金融等各个领域取得突破性进展,为人类的生活带来前所未有的便利。然而,与此同时,人工智能时代的到来也将对人类的社会、政治、经济、文化等各个方面产生重大影响,对现有的政策、法律与伦理制度造成严重挑战。近年来,我国刑法学界对人工智能的刑法问题展开了深入研究,其中的一个核心议题在于:在人工智能对人造成损害的情况下,其是否可以作为刑事责任的主体承担责任?对此,学界的普遍共识是:在当今弱人工智能时代,人工智能仍然只是人类的工具,其无法作为刑事责任的主体承担责任。然而,如果将来出现强人工智能甚至超强人工智能,那么,其是否可以作为刑事责任的主体承担责任呢?一种观点认为,由于强人工智能或超强人工智能既不具有人类的自由意志,也无法承受刑罚,因此,不能承认其具有刑事责任主体地位;另一种观点则认为,应当承认强人工智能或超强人工智能是适格的刑事责任主体。孰是孰非,莫衷一是。本文将从刑法哲学的角度,对人工智能是否可以作为刑事责任主体进行探讨。



一、作为人格体的人工智能


在讨论人工智能的刑事责任主体地位这一问题之前,我们首先遇到的一个问题是:对于智能程度很高的人工智能,难道人类社会就必须承认其具有法律主体地位吗?传统观点认为,即便对于一个具备学习能力的人工智能而言,由于其无法认识到自己是权利的享有者和义务的承担者,无法认识到自己的自由,因此,该人工智能从根本上不具备人格性。例如,以魏根特为代表的德国学者从本体论的角度出发,以自然人具有某种机器不可能具备的特殊性这种想象为基础展开论证,从而否定了人工智能的人格主体性。从启蒙时代起,人的自主性、人对于自我的认识就一直处于人格相关理论的核心位置。然而,越来越多的观点认为,这种本体论的论证思路是不能成立的。例如,德国学者加埃德就指出,本体论的人格体理论基本上是试图通过描述人类的某些自然特征,简单地归纳出结论,然而,这种从自然界的实然简单归纳出道德和法律上的应然的做法是不成立的,本质上就是神创论的一种变体,就如同美国《独立宣言》中所述的那样:人格权是天赋的。如果仔细分析类似理论就会发现,在相应理论体系下,我们能够证明的仅限于某个对象属于智人这一物种,由此,这一对象就必然拥有了人格体或者道德主体地位。然而,即使对完全失去自我认识的植物人或者患有特定精神疾病的患者,我们也不能将他们排除在人格体之外。由此可见,“是否能够认识到自己的自由”根本不是一种对于人格体的判断标准,毋宁说是一种假设的、人为建构出来的判断标准。不仅如此,从人类历史来看,“人格体”的外延也并不是一成不变的。在400年前,特定自然人还是商品的一部分,属于财物。尽管前文提到的美国《独立宣言》中写明了“我们认为这些真理是不言而喻的:人人生而平等,造物者赋予他们若干不可剥夺的权利,其中包括生命权、自由权和追求幸福的权利”,但直到近百年后,非裔自然人才被承认属于人格体。如果以现代意义上的“人的尊严和人格自由发展”为标准,那么,甚至妇女成为完全意义上的人格体的历史也只有百年左右。这意味着,“人格体”的外延和内涵是随着历史发展而变化的。即使承认“能够认识到自己的自由”这样的人格体标准具有合理性,其作为既有标准也只能是参考依据,并不具有决定性。

除了上述从本体论的角度否定人工智能法律主体地位的观点外,还有学者认为,刑法学的范畴应当是由宪法划定的,既然德国《基本法》中已经明确指出了“人(Menschen)”的尊严,那么机器自然不在考虑范畴之内,刑法是为(自然)人制定的法。而且,从德国《道路交通法》的修订来看,针对(尚未出现的)全自动驾驶车辆这样的高度自主系统,立法者也依然维持了自然人的严格责任。由此可见,立法者即使对于高度自主系统也并没有增设一个新的法律主体的意图。然而,援引宪法规范仅仅能说明人享有人权,在同一层面上却无法论证为什么人享有人权或者为什么只有(特定)自然人才享有人权。因此,尚未讨论的问题是,增设人工智能主体是否恰当,或者对宪法文本中的“人”的解释是否应当包含“非裔”“妇女”或者“具有自我意识的人工智能”。由此可见,人工智能的法律主体问题是无法在宪法层面上被加以讨论的,而是需要在更高的社会共识层面上得到检视。

目前,德国学界有影响力的观点认为,如果不以社会为媒介,刑法是无法在任何意义上触及本体论层面的。只有从社会角度出发,才能回答人格问题。例如,德国学者辛格有言:“人只有以他人为镜才会获得自我身份。”这种人格的社会相对性理论认为,即使“意识”“自我感觉”或类似的能力确实是人格体的必要条件,它们也属于社会范畴,而不属于自然科学范畴。因此,我们应当在社会共识的层面上,对“人格”或者“罪责”这样的概念进行目的性的建构。社会认可特定主体的能力或者将某种特定的能力归属给符合条件的主体,并赋予其承担责任的资格,而一个特定的主体之所以能够成为主体,并不是因为其享有特定的身份,而是其被认为有能力作为规范的接受者而满足规范上的期待。在一个规范意义上的社会中,每一个个体都不是以“人”这种物种上的身份存在的,而是以一种被建构出的规范接受者的身份存在的。换言之,所谓的“人格”,是一种用于观察的塑造物,这种塑造又服务于特定目的。我们说人与人是平等的,显然并非是指两个自然人的能力(无论是具体的智力、体力,抑或是抽象的“自我感觉”的能力)是均等的,而是指被塑造出的两个“人格”在法律层面上是平等的,他们应当受到同等的对待。相应地,支撑这种人格塑造的能力也应当是在一定事实基础上的拟制,这种拟制同样服务于特定目的。虽然这样的建构在原则上可以是任意的。既然可以假设智人这个物种具有“自决能力”或者“理性”,那么在相同逻辑下,就可以假设其他任何对象具有这种能力。事实上,这样的假设并不是恣意的,而是需要结合法政策对这一假设的必要性进行判断。

在此基础上,没有任何充分的理由可以排除人工智能作为法律主体的可能性,至少不能排除人工智能作为法律主体的讨论对象的价值。我们完全可以进行这样的思想实验:假设出现了一种高度自主化的人工智能,这种人工智能能够“意识”到其他智慧主体的主体地位,并基于这种“意识”调整其行为模式,那么,在现有法学、法哲学体系下,是否可以承认这种人工智能具有法律主体地位呢?无论如何,我们至少可以藉此反思:我们是否真正理解了“人的尊严”以及由此产生的“享有权利的权利”?毕竟这才是法学、法哲学的研究范畴。人工智能在技术上究竟能否产生这种“意识”,既不是应当由法学家回答的问题,也不是法学家能够回答的问题。很显然,一个在人工智能时代之前没有得到充分解答的问题是,我们究竟能够凭借什么认定,或者说凭借什么识别,另一个对象是一个理性的主体?至少在康德主义看来,人类“能够识别其他有智慧的生物,并将他们对自由的要求纳入我们的自我立法中”。如果我们根本无法识别一种在经验上可以被证明的具有社会化能力的(人工)智慧体,那么实际上我们也将自己排除在理性主体的范畴之外了。我们不可能在承认自己是社会化的理性主体的同时,不考虑其他智慧主体的主体地位。值得注意的是,康德本人也从未将其道德哲学理论局限于自然人主体,而是仅强调了“理性主体”这一概念。因此,如果一个智能主体(即使是人工的)在客观上有能力识别并尊重一个自然人主体作为主体的自由,并相应调整自己的行为,那么完全可以说,这样的人工智能是“道德的”人工智能。从技术角度看,机器甚至无需产生所谓的“情感”就有可能实现这一要求。在这种情况下,承认人工智能的主体地位不仅仅是可能的,而且是对作为理性主体的我们的必然要求。至于在这个思想实验的基础上,能否进一步降低“人格体”的准入门槛,则有待进一步研究和探讨。


二、人工智能与刑法上的行为

虽然从社会共识角度看,我们可能承认人工智能的法律主体地位,但人工智能是否可以成为刑事责任主体?首先需要回答的问题是:人工智能是否可以实施刑法意义上的行为?现代刑法学中的行为理论认为,“行为”必须是意志支配下的活动。自黑格尔以来,行为理论一直极具争议。在承认行为具有作为一个评价阶段这一实质意义的基础上,可以看到,近百年来,关于行为理论的争议多数集中于行为理论的联结功能(Anknüpfungsfunktion)和体系功能(systematische Funktion),即特定的行为概念是否可以作为有效的上位概念涵盖诸如故意和过失、作为和不作为等对立概念,并通过添附修饰语以恰当的体系结构合理地被联结到下位概念中。然而,无论采取何种行为概念,在过滤功能(Filterfunktion)(即将特定刑法评价中无须考虑的举止排除的功能)这一点上,均不存在本质区别。就人工智能而言,是否应当将其举止排除在刑法评价之外?自然行为论认为,行为是承载有人类意志的举止。目的行为论的奠基人威尔泽尔则直接将行为等同于自然人的行为。采取同样观点的还包括社会行为论的拥护者耶塞克,他认为:“行为是对社会具有重大意义的自然人举止。”尽管罗克辛通过“人格的表现”“心理—精神上的本体”这样的概念,将行为理论几乎上升到了形而上学的程度,但其要义也无异于将“非人”的活动排除在刑法的讨论范畴之外。因此,问题的核心在于,将人工智能的举止排除在刑法评价之外是否具有正当性?

毋庸置疑,人工智能是可以活动的。如果以意志支配为评判标准,那么需要回答的问题是,能否认为人工智能的行为是受意志支配的?如果认为人工智能依照自身意志活动,则可以认为人工智能能够实施刑法意义上的“行为”;而如果否认人工智能是依照自身意志活动的,则必须进一步回溯其背后的人类意志。对此,有论者指出,人工智能是完全依照人类预设的程序活动的,其本身仅仅是在执行程序,因而不是在“意志”支配下行动。然而,这种观点存在以下问题:

一则,这种观点有偷换概念之嫌。在人工智能的语境下,我们所讨论的机器设备至少应当是有学习能力的。然而,之所以具有学习能力会导致归责上的问题,恰恰是因为人工智能的举止具有一定程度的不可预见性。换言之,人类不可能预见人工智能的所有行为模式。由此可见,上述观点实际上偷换了比较对象:在提出问题时,以具有学习能力的机器为客体,在进行比较时,又回到传统机器设备,这当然就不可能推导出正确的结论。

二则,抛开偷换概念的问题不谈,认为依照程序行动不属于受意志支配之活动的理论,完全混淆了“意志支配下的活动”和“自由意志支配下的活动”这两个概念。“意志”所指的应当是一种满足特定条件的决策机制,而非道德能力或者形而上学,乃至超自然的物种属性。患有特殊精神疾病者的行为很难说是“自由”的,然而其活动是“人类的行为”却是毋庸置疑的。德国学者希尔根多夫就指出:如果进行人机行为模式的类比,则人类的活动也是服从一定规则的,而如果人和作为讨论对象的机器均是遵循条件逻辑实施行为的,即当出现情形A时,相应以A*的方式活动,那么,我们说人工智能在意志支配下实施了此活动,会造成什么理论上的矛盾吗?正因为如此,即使是坚决否认“非人”行为的学者,也难以提出有效的客观标准排除人工智能主体的行为。例如,德国学者罗克辛在对醉酒驾驶案的批判中指出,只要醉酒者依然能够“基于特定目的,实施有意义的、协调的系列活动”,就应当认为其仍然实施了行为。虽然罗克辛的目的是论证在此条件下行为人仍是有意识的,没有失去实施行为的能力,但如果不考虑活动是由自然人所实施的这一要素,“基于特定目的,实施有意义的、协调的系列活动”几乎就是可以被写进教科书的对于自动化设备功能的描述。如果进一步主张,人的决策具有复杂性,并非单纯的条件逻辑反应,而是自由意志的产物,那么,这样的理论就必然需要面对算法进步所产生的解释需求,即如果传统理论力图在本体论层面上排除人工智能实施行为的可能性,就必须在同一逻辑层面上证立人类基于自由意志实施行为的可能性。然而,事实上,如德国学者希穆勒和马克瓦尔德所正确阐释的那样:人工智能没有自由意志而只有人拥有自由意志这种非决定论的态度基本上是由“个体自由”的主观感觉得来的,因而至少在现阶段无法得到证明。既然如此,如果人类的决策机制是无法通过技术手段得到证明的,那么就不可能在本体论层面上真正证立“人工智能不可能有自由意志”这一命题。然而,如果人类的决策机制可以通过技术手段得到验证,那么这种机制就不能说是完全“自由的”,而是有可能为机器所模拟的。

人格行为论提出了“心理—精神控制中枢(die seelisch-geistige Steuerungsinstanz)”的“准实体”概念,认为只有来源于此的活动才属于对“自我”的表现,才被认为是行为。显然,在这一语境下,缺乏“心理—精神控制中枢”的主体(如法人)就不可能实施行为。问题在于,究竟什么是所谓的“心理—精神控制中枢”?作为纯粹拟制主体的法人显然不具备任何接近“心理—精神控制中枢”的部分(虽然从决策中枢的意义上来说,法人并非完全不可能借助某些组织“表现自己”),但对于任何可以独立决策的主体而言,这个概念就显得十分可疑了。一方面,“心理—精神控制中枢”的主体标准甚至无法排除动物“表达自己”的可能;另一方面,它又不能解释人类具体是通过什么表达人格的。如果“心理—精神控制中枢”指的是“在神经活动和激素变化共同作用下的决策方式”,那么用罗克辛自己的话来讲,“不仅听上去十分可笑,事实上也是”。另一个问题则在于,该理论无法解释为什么“精神”“心理”甚至“人格(无论是哪种意义上的)”应当是行为的判定标准。换言之,这一理论无法回答,作为“表达中枢”的精神和心理以及被表达的人格都扮演了何种角色。如果从事实角度分析,区分行为与不可控的现象的标准应当是某种决策机制的介入,而从规范角度分析,可以作为刑法讨论对象的活动和完全不属于刑法范畴的对象间的区别应当是该对象与刑法目的的契合程度。无论从哪个角度来看,“精神”“心理”及“人格”都不是恰当的行为评价标准。

在司法实践中,为了规避诸如自由意志等“很大程度上掺杂了世界观和宗教动机”的要素,通常采用所谓否定描述(ex negativo)的方式,即仅考虑那些约定俗成的或者说得到公认的行为排除要素,如反射活动、癫痫、痉挛发作等。如果不存在这些要素,则认为行为主体实施了行为。应当说,这种态度是与行为概念的功能相契合的。当然,这样的立场可能招致如下批判:对于刑法而言,这一立场所主张的标准过于宽泛,这使得行为概念几乎无法发挥必要的过滤功能。的确,如果采取上述立场,那么在特定条件下,不仅人工智能,而且法人甚至动物的活动都可能被认为是行为。然而,应当指出的是:第一,如果一种理论的逻辑或事实基础不足以承载其应有的功能,那么,应当加以改变的是该种理论,而不是批判客观现实。第二,即使理论正确或相对具有更强的说服力,也并不意味着其没有改进空间或修正的可能性,特别是在理论的成立存在限定条件且该限定条件可能发生变化的情况下。“认为概念存在确定且始终如一的内涵的观点不符合现代语言研究和学术理论的结果。”法律术语的外延甚至内涵都在不断变化,词汇的概念随着时间变化而会有不同解释,行为概念的发展历史本身即为明证。实际上并不仅仅是行为,本文中涉及的在人工智能问题范畴中可能存在争议的概念,如罪责、人格,都是在发展过程中存在巨大变化甚至与其原本意思相去甚远的概念。第三,如果按照传统理论的观点,直接排除非自然人主体实施行为的可能性,那就意味着直接从上位概念中排除了人工智能主体,继而与其下位范畴(如罪责等)相结合进行的系统讨论就从根本上失去了意义。在行为层面上只应排除那些根本不可能由刑法加以调整的对象,而前文的论述表明,至少对于能够在特定环境下对其活动进行理性决策的人工智能而言,排除诸如反射活动、癫痫、痉挛发作等根本不可能由刑法加以调整的情形是完全可能的。因此,本文认为,对于具备足够决策能力的人工智能实施行为的可能性,并不应一概排除,而应当参照自然人标准加以检验。对于缺乏必要行为排除要素的情形,应当承认人工智能可以实施刑法意义上的行为。


三、人工智能作为罪责的适格主体

从客观评价的角度看,如果认为人工智能可以实施行为,那么,其行为也完全可能是具有违法性的。其中,最具争议的问题在于,是否可以要求人工智能为其违法行为承担责任?否定论者通常主张:一方面,人工智能并非道德主体,其并没有依据道德决定自己行为的能力,其所作的决策通常仅仅是依照既定程序完成既定目标;另一方面,从刑罚目的角度来看,对人工智能科处刑罚并不能起到预防作用,讨论对人工智能的惩罚,无异于卡里古拉式的笑话。

(一)自由意志

传统的观点认为,能够基于“自由意志”和自身道德作出决策,是行为主体具备责任能力的基本前提。早期的心理罪责概念将罪责理解为精神事实,因而不得不囿于自由意志问题,而这一要素在罪责概念中一直得以保留。一个被广泛引用的德国联邦最高法院的判决指出:“行为人本可以作出正确选择,实施合法的行为,却仍然选择不法,实施不合法的行为,此时该行为人应被评价为兼具不法和罪责。此处咎责的内在原因是,人类具有自由的、负责任的且合乎道德的自决权。一旦行为人在道德上已经成熟,而且其道德的自我决定机制没有因为病理过程而暂时瘫痪或被永久性损害,他就有能力作出正确且合法的选择而非错误且非法的选择,他就可以依照法律规定的义务来规范自己的行为,并避免实施法律所禁止的行为。”因此,在否定人工智能具备自由意志可能性的大量论者看来,这基本上排除了人工智能承担罪责的可能性。例如,Gle和Weigend认为,无论人工智能技术向哪个方向发展,都基本上排除了人工智能有罪责的可能性。

虽然这一判决及其蕴含的理论在很长一段时间内得到了德国学术界的广泛认可,但本质上讲,这种理论是将一种形而上学的概念作为其理论基础的,而如前文所述,这种形而上学之假设的来源很大程度上仅仅是一种对“个体自由”的主观感受,因此,该理论的客观性和证明力是存在疑问的。在该判决出现之后的数十年间,这一理论不断遭受脑科学研究成果的冲击。随着脑科学不断压缩自由意志的存在空间,甚至有激进的决定论者认为罪责原则已经过时了。当然,以目前的研究成果而言,决定论也无法提供充足的客观事实以证立其观点。不过,我们可以清晰地看到,受脑科学的影响,罪责的概念不断向一种“去形而上学”的方向发展。例如,德国学者希尔根多夫就直接指出,德国联邦最高法院的这个判决是有特殊的历史背景的:该判决产生时的20世纪50年代是所谓的“自然法复兴(Renaissance des Naturrecht)”时期,基于对纳粹时期理论甚至是对纳粹时期本身的排斥,很多早期的理论体系在这一时期内得以复兴。因此,即使德国联邦最高法院的这一判决与当时的自然科学研究状况无法契合,也依然得到了广泛的支持。然而,随着这一时代背景不复存在,相关法理就不得不退回原点,认为“自由意志”仅仅是个必要的假设。对此,德国学者希尔根多夫进一步追问,如果自由意志仅仅是一个假设,那么有什么理由认为这种假设不能被扩展到人工智能呢?他认为,“自由意志”在法理学分类上属于法政策和法学理论上的假设,而假设是基于特定目的作出的命题。如果在法政策上出现了这样的需求,认为必须假设存在一种“人工智能的自由意志”,那么作出这样的假设是完全没有问题的。当然,他也认为,至少目前还不存在作出这样假设的必要性,只需要认可这一假设在必要时作为一种解决方式的可能性。此外,他还提出了这样的质疑:如果对刑事审判中的检验流程加以分析则会发现,在整个评判流程中很难看到自由意志的痕迹。因此,自由意志这个假设即使在当代刑法的司法实践中,对于自然人而言是否仍有意义,都是不无疑问的。

(二)他行为可能性

虽然如德国学者科尔劳什所言,自由意志是一种被迫的但又必要的假设,但随着脑科学、认识论的发展,自由意志的命题在自然科学上必将得到一个确定的结论:被证实或被证伪。从目前脑科学的进展看来,被证伪的概率似乎更高。如果自然科学真的证明了自由意志并不存在,或者至少充分解析了人类的决策机制(这其实也相当于排除了“自由”意志),那么,刑法学又应作出何种选择?是坚守“高贵的孤独”和“必要的假设”,无视自然科学的结论,将理论的核心继续建立在自由意志的围城中,还是重构理论基础?如果刑法不想成为“逻辑严谨的文字游戏”或者“回字有四种写法”似的自说自话,那么相应的改变是必然的。在理论的选择中,一种中立的、以尽量少的形而上学或不必要的假设为基础的理论必然会占据上风。理论界的一种“去形而上学”的尝试是:剔除“自由意志”这一要素,仅以他行为可能性作为个人可谴责性的认定标准。然而,他行为可能性理论同样面对以下两个问题。

一则是理论本身的问题。技术进步所产生的解释需求是在整个技术法领域中一以贯之的问题。自然科学对人类行为的解构和模拟程度越高,在学理上就面临着越高的解释需求。这意味着,学者们不得不对既有观点进行更深层次的反思和更精细的解释,以维系既有观点理论上的严谨性。基于同样的原因,既有理论存在的特定问题会被放大。他行为可能性理论一直以来就无法妥善解决这样的问题,即如果真的存在一种具体行为中的他行为可能性,那么,这种他行为可能性应当是能够得到证明的。如果无法得到证明,则应当基于存疑有利于被告的原则排除该行为的有责性。这样看来,单纯以消极评价的方式排除特定情形的做法是行不通的。然而,如果将他行为可能性理解成一种一般意义上的、以一般社会伦理为标准的他行为可能性,那么,将在一定程度上悖离罪责作为“个人”可谴责性的本质。罪责本身所考虑的即为个人作为特殊个体在具体情形中的可谴责性,他行为可能性本质上应当是行为人本人的他行为可能性,而不是社会平均水平或类似标准下的他行为可能性。如果理论以一种具有高度不确定性的内核为基础进行建构,这种不确定性将会被解释需求所放大。如果理论本身无法解释对自然人而言什么是他行为可能性、应当以什么标准认定他行为可能性,那么,自然无法排除(也许决策机制与人类不同的)人工智能的他行为可能性或者断定人工智能不可能拥有所谓的他行为可能性。

二则,由于决策机制上的差异,故存在一种事实上的他行为可能性,然而,这对于机器而言,未必是恰当的可谴责性认定标准。例如,在对计算机诈骗罪的研究中,学者们就注意到了这样的事实:由于计算机和人类的运作机制存在差异,因此,使用“单纯拟人”的机械类比可能会导致错误的结论。在对《德国刑法典》第263a条第1款规定的第3种情形“无权使用数据”的解释中,占有支配地位的“欺诈相当性解释(täuschungsäquivalente Auslegung)”理论主张,仅当行为针对自然人发出,会被认定构成默示的欺诈或不履行说明义务的不作为欺诈时,才构成无权使用。事实上,该理论本质上是以结论为导向的想象的结果。在默示欺诈的情形中,错误信息隐于未被提及的部分,而这部分隐藏的信息导致了认识错误及财产处分。然而,(至少目前的)计算机的做法是积极处理被输入的信息,而并不会处理任何未加表达的信息。因此,如果套用默示诈骗的理论,以隐藏数据为行为欺诈性质的认定标准,那么,相当于排除了对数据的操纵和欺诈行为间的相关性。在人工智能主体的罪责判定中也可能存在这样的问题。在运作机制上,自主的人工智能会对已知的选择进行分析,并藉此作出决策。相较于自然人而言,机器的他行为可能性反而是可证的。然而,虽然人工智能原则上完全可以掌握任何道德标准并以此为理念实施行为(在学习大量边沁的著作后,完全可能出现“功利主义的人工智能”,或者通过学习成为“儒家的人工智能”,然而,这可能会放大任何道德体系的不确定性及不合理性),但无论如何,目前来看,人工智能所作的判断不是“道德的”,而是“理性的”。换言之,人工智能在决策中试图寻找“最优解”。然而,是否能够对已经寻求到对其自身而言“最优解”的人工智能加以非难是存在疑问的,毕竟“超出能力则无义务(ultra posse nemo obligatur)”。此外,当在德国联邦最高法院的上述判决中并列的两个概念“正确的选择”和“合法的行为”本身在理性层面发生冲突时,会产生更大的法律悖论。

(三)机能罪责理论和交谈的罪责理论

在“去形而上学”道路上走得更远的是机能的罪责理论和交谈的罪责理论,二者都试图对罪责本身进行更为客观的解读。例如,德国学者罗克辛认为,虽然自由意志作为整个法律体系的基础是毋庸置疑的,但显然没有必要去“信仰”自由意志。换言之,并不一定要坚信自由意志确实存在,才能以此为基础讨论法律问题,因此,完全没有必要去证明是否存在自由意志。他认为,只要行为人在实施行为时,精神和心理状态达到了能够作出正确决策的水平,且在物理上行为人仍具有控制自己行为的可能,那么,行为人就具有规范上的可交谈性。换言之,行为人具有自由意志。在交谈理论中,人依然必须是自由的,因为秩序的基础是主体间相互承认并尊重其他主体的自由。然而,在该理论体系下,这种自由是可以在客观上被证明的。因此,从本质上讲,罗克辛所代表的交谈理论塑造了一种规范上的自由意志,这种规范的自由意志并不直接与自然科学的结论相关联,而是一种社会共识的结果。就这一点而言,机能的罪责理论实际上与交谈的罪责理论采取了相近的思路。机能的罪责理论完全无视自由意志的命题,同样认为,什么是罪责、谁应当承担责任都取决于社会,而非取决于本体论层面的特殊属性。如果从一般预防的角度而言,对主体科处刑罚是必要的,那么就可以认定该主体是有罪责的。

当然,在学理上,人们对机能的罪责理论和交谈的罪责理论均存在争议,二者彼此之间也并非没有矛盾。例如,以“一般预防”或者“保障规范有效性”为目的的机能的罪责理论就被认为在一定程度上有违法治国原则之嫌。然而,我们可以看到这两种理论在简化不必要前提方面的努力。只要接受这种社会认可论的立场,认为可以通过一种社会共识规定罪责的主体和罪责能力的标准,那么就会发现,无论接受何种具体的理论体系,都不会与可能的人工智能罪责能力发生冲突。例如,就机能的罪责理论而言,当具有自主决策能力的人工智能大规模介入人类生活以至于由其导致的责任真空过于巨大,法律本身的稳定性已经受到动摇时,就可以甚至必须承认人工智能的罪责能力,由其独立承担法律后果。目前,大多数承认机器具有归责可能性的学者都是从这一角度展开论证的, 并认为,陷入修补他行为可能性理论的漩涡或者追随决定论的脑科学研究基本上没什么意义,因为个体自由一般来讲是不可证的,对刑法而言也并不重要。无论是自由意志理论,还是罪责理论,都是“对真实世界的社会性重构”,既然社会可以构建人类的自由意志,当然也可以构建人工智能的自由意志。如果从交谈理论出发,只要认为人工智能在客观上具备规范上的可交谈性,那么就应当认定其具备责任能力。具体而言,认定人工智能是否在物理上具备控制自身行为的能力并不困难。至于何时应当认定人工智能的“精神”或“心理状态”足以支持其作出正确决策,仍是值得作为法学和自然科学交叉学科的人工智能法学长期探讨的问题。例如,曾有不少学者试图以通过图灵测试为必要标准,但近来也出现了不少反对的声音,认为图灵测试并不是决定性的标准。然而,无论如何,构建一个既符合人工智能决策机制又符合法律规制要求,而且能为社会所认可的标准,在逻辑上是完全可以成立的。因为只要存在客观上的(以自然人为依据构建的)能力标准,那么这种标准就必然不与任何客观规律发生冲突。因此,人工智能实现这种标准(无论是否通过和自然人相同的途径)只存在技术难度上的障碍,而并非从根本上不可能。当然,值得一提的是,对自然人罪责的判断是以成年自然人通常具备规范上的可交谈性为前提进行的消极判断。这里的标准首先应当发挥证立功能,即应当先以此标准认定人工智能在客观上具备规范上的可交谈性,而当人工智能在客观上可以满足该标准时,则应认为所有同类人工智能均可满足该标准,并同样以此为基础进行消极判断。


四、人工智能的刑罚预防必要性

(一)惩罚人工智能是否符合刑罚目的

在认为刑罚可以产生效果的基础上,另一个观察的维度是,是否有必要动用刑罚回应行为人(机器)使规范上的期待落空的行为。对此,德国法学界在法人犯罪的命题下已经进行过长期类似的讨论。对于法人犯罪,尽管从应对日益增长的经济犯罪、环境犯罪、有组织犯罪等方面考量,增设一个法人人格,对其科处刑罚是有意义的,然而,这样做是没有必要的,因为法人的任何“行为”都可以回溯到自然人的决策,继而可以对自然人进行归责,而这同样可以起到预防的效果。此外,虽然对法人犯罪存在一定争议,但至少还可以适用德国《秩序违反法》对法人科处罚金。然而,人工智能所引发的问题与法人不同。如前所述,如果认为控制决定责任,那么随着人工智能自主性的不断提高,对人工智能主体背后的自然人进行归责的正当性便会不断降低。在这样的语境下,对自然人科处刑罚唯一能产生的效果就是禁止自然人使用具有自主性的系统。然而,在人工智能深入且广泛地与人类工作、生活交互的前提下,如果放弃对可能的损害结果进行归责,则对规范稳定性的动摇无疑会比任何现存的犯罪类型对规范稳定性的动摇都更加强烈。

从一般预防的角度来看,对人工智能施加刑罚,既可以起到吓阻潜在罪犯的消极一般预防效果,也可以起到确证规范有效性的积极一般预防效果。这样至少可以宣告,即使有人工智能的介入,规范依然是有效的。无论是人还是人工智能,违反规范的行为都是不值得效仿的。唯一的问题在于,从特殊预防的角度来看,目前刑罚对人工智能而言没有意义。本文基本认同这一观点,以目前的技术水平而言,尚且无法对人工智能形成规范上的期待。受时下软件和硬件条件的限制,现在的人工智能尚处于控制条件下自主决策的程度,这意味着自然人仍处于支配地位。事实上,就当前的技术而言,直接修改程序就可以轻易地消除人工智能的再犯可能性,这反而比通过刑罚更为简单有效。然而,从机器学习的本质来看,即使当前的机器是通过“负反馈—修正行为”的机制进行学习的,这也没有背离特殊预防的理念。随着技术水平的上升,应当认为,当人工智能可以在自由环境下自主决策时,只要其能够达到一定的决策水平,就完全可以将其拟制为独立的法律主体进行归责。然而,如果人工智能的理性水平(或者采用更加形而上学的说法“道德能力”)进一步上升,甚至达到可以认识且尊重自然人智慧体及其他人工智能智慧体的自由并自主修正其行为模式的程度,直接修改人工智能的程序就完全背离了理性主体之间相互尊重的道德准则,因此,应当承认人工智能为一般人格体,其罪责与自然人的罪责将不会有任何区别。唯一值得补充的一点是,对人工智能科处刑罚所产生的一般预防效果并不是必然的,而应以社会对人工智能的普遍认识为前提条件。当社会对人工智能的认识仍处于“物”的阶段时,很难说对人工智能科处刑罚能起到一般预防的效果。因为在这种条件下,社会的规范上的期待并非指向作为“物”的人工智能,而更多是指向其使用者、制造者,即使这样的期待很可能会落空。因此,一方面,对法律有效性的动摇并不直接来自于机器本身,而另一方面,在此情形下处罚机器也并不会产生积极的效应。然而,即使就当前而言,社会也并不排斥对于纯粹拟制主体(例如法人)加以处罚。从法人犯罪就可以看出,可以预见的是,随着机器拟人程度、自主程度及道德能力的提高,当机器在技术上达到足以拟制其法律人格的水平时,社会的接受程度绝不会滞后于法律的接受程度,而法律上的认可又必定会进一步推动社会的认可。当规范上的期待可以在一定程度上作为一种“社会现实”指向作为个体的人工智能时,对人工智能进行归责就是有意义的了。

(二)人工智能是否具有受刑能力

在考察人工智能的罪责之时,一个正确的逻辑应当是,首先评判社会是否认可对机器进行归责,然后考察将责任归属于机器是否可能,是否必要,是否符合刑罚目的。在此基础上,再通过罪责原则对刑罚加以限制,以防止国家无限扩大刑罚范围,保护人工智能主体免受无节制的刑罚的侵害。对此,首先需要面对的问题是:对于人工智能施加恶害是否有意义?是否存在一种有效的恶害可以作为施加在人工智能之上的刑罚?这一问题可谓目前关于人工智能责任的讨论中出现频率最高、被认为是最理所当然的问题。正如德国学者沃勒斯所言,只有当刑罚能作为对个体的恶害时才有意义。然而,由于人工智能自身性质的原因,无论是将其监禁,还是将其拆解,都无法对机器形成有效的恶害(Übel)。换言之,“铜皮铁骨”的机器并不“在意”这样的“刑罚”,因此,对其科处刑罚既不能算是一种恰当的报应,也并不能对其他人形成威慑,或者以任何形式产生预防效果。

然而,必须指出的是,不论这样的说法在事实上是否成立,其从逻辑上来看都是错误的。首先,这里的论证完全建立在循环论证的基础上,先以人工智能不能受到“恶害”为由排除其拥有主体地位的可能,然后认为,因为其没有主体地位,所以必然不能受到某些恶害。必须指出的是,现代刑罚早已不是纯粹的施加肉身上的痛苦,它在很大程度上是一种道德层面上的非难,或者说是人格层面的否定。这种人格层面的恶害在现代刑事法看来是极其严重的、根本性的、必须加以限制的恶害。当前人工智能法讨论中的一个常见话题是人工智能的“黑箱”问题,即人工智能的决策过程愈加难以理解,这使得事后的评判难以明晰其是否出现了错误,在哪里出现了错误,因此,必须提高人工智能决策过程的透明度。然而,这种说法的前提是已经充分论证相应系统并非人格体(当然,现阶段作出这样的默认基本是没有问题的),否则,对人工智能决策机制进行扫描、备份、分析,无疑是严重侵犯其人格尊严的行为,已经构成对人工智能施加的一种非必要的恶害。人类自身无疑就是一种黑箱系统,通过脑科学手段对人类的想法进行刺探,在技术上并非不可能,然而,在刑事程序中采取这样的方式是被绝对禁止的。这种人格层面的恶害并不是一种可感知的、可具象化的恶害,在睡眠中对犯罪嫌疑人进行脑部扫描并不会对其造成任何实质上的损害,但是会造成一种从智慧主体之间的相互尊重而推导出的、对于被拟制出作为观察对象的人格体的侵害。因此,当强调即使对机器进行拆解或者重新编程也并不会对其造成什么恶害时,实际上已经默认了人工智能并不具有主体地位这一前提。

其次,这种说法再度混淆了“现在没有”和“根本不可能”这两个范畴,这也是在人工智能法讨论中频繁出现的问题。在相关讨论中经常可以见到这样的格式化推论:因为即使现在最先进的人工智能也不能……因此,创设一种“人工智能刑法”并不是明智的选择。论者经常会以一种蒸汽机水准的机械设备作为对象讨论可能性,而不是以一种具有高度自主性、已经具备潜在人格体资质的人工智能为目标对象。对于前者而言,权利、义务、刑罚当然都是没有意义的,这根本无需论证,也没有任何讨论价值。然而,无论是引入一部全新的人工智能刑法,还是引入适用现有刑法的人工智能主体,所谓的“人工智能刑法”探讨的范畴都是,当人工智能具备特定能力、能够与社会进行某种程度的交互时,是否可以采取上述两种引入方案,以及这样做的条件和后果有哪些。任何对于“应然法(Sollen)”和“未来法(lege ferenda)”的讨论,都是基于事实对可能性进行的逻辑推演,无论讨论对象是引入新罪名的可能性,还是引入新主体的可能性,都没有区别。因此,只要前提成立,逻辑正确,即可以认为存在可能性。在此基础上,可以进一步讨论必要性和成立条件,而只有从“根本不可能”中才能推导出否定的结论。然而,事实上,“没有适合人工智能的刑罚”这个命题并不是基于逻辑推演对可能性的判断,而仅仅是一种主观上对其他(水平极低的)主体主观感受的猜测。这种逻辑推演的依据基本上是:由于机器并不具备情感机制,因此,机器不会对刑罚产生主观上的反应,不会有“痛苦”这种感觉。然而,即使不考虑为人工智能增设新的刑罚形式,现有刑罚对人工智能而言,也未必是“无效”的。对此有论者指出,我们暂时无法确认人工智能主体是否会产生情感,但是我们至少不能排除人工智能主体会存在需求,最简单的设想就是对电力的需求。如果人工智能主体存在需求,那么一种悖离相应需求的做法是否就可以被认为是“恶害”呢?自然人存在对自由的需求,因而剥夺自由的自由刑被认为是有效的恶害。自然人对于财产存在需求,因而罚金刑被认为是有效的恶害。在这种意义上,如果人工智能主体拥有财产权(这一定是先于人工智能主体成为刑法主体出现的,又存在藉由这部分财产追求其他利益的目的),那么,甚至可以说,不需要对人工智能进行特别立法,现行的罚金刑对于人工智能主体而言,都可以是有效的恶害。至此,甚至不需要引入“人工智能已经存在知觉”这一前提,也完全不需要存在一种所谓的“强”人工智能。

最后,对于“受刑能力”是主体归责的必要前提,德国学者希穆勒和马克瓦尔德直言,如果受刑能力是刑罚的必要前提的话,那么,大量国家可以直接从刑法典中删除法人犯罪。实际上,刑罚是作为一种象征性的回应而发挥作用的,而不是必须对于具体个体产生什么效果。现行刑法并不是为自然人量身打造的,甚至现在的刑罚对自然人究竟有没有效果,在犯罪学上仍是有待厘清的问题。刑罚是对规范上期望落空的回应,是一种对违反法忠诚的“否定之否定”。例如,对于某些累犯甚至某些主动求刑者而言,刑罚明显对其没有产生任何影响。然而,我们依然认为刑罚是有效的。理由就在于,刑罚实际上是一种宣誓、一种国家对法律有效性的确证。以此而论,如果并不要求受刑对象对刑罚作出回应,那么其对于刑罚的感觉究竟是什么样的也就并不重要了。由此可见,这种理论试图从根本上排除受刑能力的作用。然而,这样的观点是站不住脚的。即使从象征性回应的视角来看,国家也是基于特定理由才会使用某种刑罚作为回应手段。如果认为刑罚只起到宣誓效果,那么公开批评教育就足够了,完全没必要对行为人科处更重的刑罚。无论是从报应还是从预防的角度来看,国家之所以采用某种刑罚作为回应手段,仍然是以受刑主体并不期望其发生为前提的,这里的主体应当是被拟制出来的、作为观察对象的抽象主体。对于被拟制出来的基本人格而言,自由刑是一种恶害,因此是有效的。而对于法人而言,罚金也是其不愿发生的后果。如果认为任何刑罚对于抽象的主体而言都是无效的,那么就应当认为该主体不具受刑能力,对其施加刑罚就没有意义。应当承认,作为受刑主体的人工智能必须具有一定程度的感知能力和理性能力。当然,上述理论从法人的受刑能力推导出人工智能有受刑能力,并不必然等同于主张人工智能有“知觉”或“情感”,这一观点是完全没有问题的。


五、结语

人工智能主体广泛介入人类社会,既是一种社会现实,又是一种必然的趋势,其广度和深度均远超此前任何非自然人主体对人类社会介入的广度和深度。对于人工智能的责任归属问题进行研究,一方面可以提供检验现有理论合理性的试金石,另一方面也具有解决现实问题的实际价值。随着人工智能自主性的增强,自然人的支配力不断下降,必然会导致归责上的障碍,这使得归责于“使用人工智能工具”的自然人并非理所当然地具有正当性。在对直接由人工智能主体导致的损害结果进行归责时,一种正确的逻辑是,首先对人工智能主体是否能作为独立主体承担责任进行判断。就人工智能主体的可归责性而言,现有行为理论直接排除人工智能主体实施行为的可能性的做法并不具有正当性,应当认为,具备足够决策能力的人工智能可以实施刑法意义上的行为。人工智能的行为是可能具有违法性的,而即使没有人工智能问题的介入,当前的罪责理论也已经呈现出明显的“去形而上学”趋势。如果排除了“自由意志”这样的形而上学概念,那么可以说,现有的罪责理论并不排斥人工智能的罪责,甚至可能发展出一种合理的客观标准作为人工智能罪责能力的判断依据。在此基础上,至少将人工智能主体作为一种拟制的法律主体置于刑法的范畴之内是没有问题的,甚至将其作为道德主体的可能性在事实和逻辑层面也是可以成立的。在人工智能主体具备足够的理性能力的前提下,对其科处刑罚是有意义的,完全符合刑罚目的。



《法制与社会发展》2021年第3期目录摘要



本刊近期相关主题文章:

王   莹 | 法律如何可能?——自动驾驶技术风险场景之法律透视
黄伟文 | 从独角兽到AI:人工智能应否取代法律职业?
高   翔 | 人工智能民事司法应用的法律知识图谱构建——以要件事实型民事裁判论为基础

点击二维码关注法制与社会发展微信公众平台

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存