有温度的法律新媒体

当AlphaGo被判处死刑

作者 / 陈元 李兴臣

来源 / 智合

原标题 / 人工智能机器人刑事责任的追究与刑罚的执行


在如今的城市生活中,人工智能的应用已经无所不在。

淘宝、今日头条的个性推荐,谷歌的无人驾驶、IBMWatson的智能医疗、汽车流水线上的智能机器人。大数据让人工智能的底层技术得到了从量变到质变的飞越,在大数据获得应用之前,诸如图像识别、智能聊天机器人等技术还处于十分弱智的水平。得益于大数据的应用,人工智能在一些纵深领域已经超越了人类,比如从AlphaGo到AlphaGo Zero,表明人工智能在围棋领域已经完胜人类。但在广泛的横向领域里,人工智能仍处于“人工弱智”的阶段,其远未达到世事洞明、人情练达的境界。

这种人工智能发展阶段的划分与人工智能发展形态的划分是内在一致的,人工智能的形态具体表现为:弱人工智能(artificial narrow intelligence)和强人工智能(artificial general intelligence)。弱人工智能可以创造出擅长推理和解决问题的机器人,但他们并不具备真正的智能,和强人工智能的根本区别在于有没有意识,强人工智能的能力在各个方面都可以和人类相提并论。

显然,人类目前尚处于弱人工智能时代。

(一)风险社会与风险刑法理论

工业社会由于其自身固有弊端所制造的危险而突变为风险社会,风险逐渐成为工业社会的基本特点。由于传统刑法的归责原则无法适应风险社会所带来的风险,新的刑法理论出现,即风险刑法理论[1]。

风险刑法理论的基本导向是:刑法学不能够无视社会生活而沉溺于封闭的逻辑理论,必须应答社会的需要,必须向社会开放。

在风险无处不在的现代社会,不管人们对刑法权利保障的功能抱有多大期望,都不能阻碍刑法的秩序保障功能成为主导。刑法因此变成国家对抗风险的重要工具,刑事政策借此大举入侵公共领域也就成为必然。刑法作为社会风控机制中的一部分,其不再为谴责和报应而惩罚,而是为控制社会风险进行威慑,威慑变成施加刑事惩罚的首要理由。

为对抗工业文明带来的刑事风险,刑法一改其谦抑性特点而逐渐扩大干预面,由此形成了风险刑法理论,这为刑法应对人工智能时代的风险提供了有益借鉴。

(二)人工智能时代——风险社会的升级版

随着人工智能技术的迅猛发展,人类越来越关注其可能带来的巨大风险。已逝物理学家霍金预言:“下一世纪的人类将面临比自己更聪明的AI机器人的崛起。”

2015年,霍金在Zeitgeist2015会议上再次警告人类:上帝留给人类的时间不多了,AI的崛起将意味着人类历史的终结。提醒人们关注人工智能风险的还有特斯拉创始人马斯克,他认为,人工智能将统治人类而成为永久的独裁者。

显然,可以控制甚至毁灭人类的智能机器将出现在强人工智能时代,但当下的弱人工智能时代,人工智能科技所带来的刑事风险也是人们亟待解决的问题。

人工智能导致的风险可以看作是风险社会的升级版本,刑法在应对人工智能的刑事风险时应当比照其在应对风险社会时所作的调整。

在弱人工智能时代,人工智能产品有多少智能就有多少人工,因此,其设计者和生产者有能力也有义务控制AI机器人使其不危害社会。同时,立法应当具有前瞻性,刑法研究更是如此。

根据摩尔定律,在可预见的将来,人类会制造出具有强人工智能的机器人,因此,探究AI机器人的刑事责任以及刑罚处罚手段是当代法学研究者义不容辞的责任。

(一)弱人工智能时代的AI机器人

由前文论述可知,在弱人工智能阶段的AI机器人并不拥有人的属性,其在某些方面具备人的能力,但这种能力更类似于限制行为能力人,如幼儿或精神病患者的能力。

因此,这一阶段的AI机器人在刑事责任能力上是残缺的,无法独立承担刑事责任,对其造成的危害只能向AI机器人背后的设计者或操控者追责。具体责任的承担应当分以下两种情况讨论:

第一种情况是由设计者或操控者承担刑事责任。当AI机器人的程序设计者或者操作者有意利用AI机器人从事危害社会的行为时,该AI机器人仅被当作犯罪工具看待,与普通的动物或者工具在法律上没有区别,如同一个窃贼在使用螺丝刀打开窗户时,他是将螺丝刀作为犯罪工具使用,螺丝刀并不承担任何刑事责任,AI机器人也是如此。

例如,AI程序设计者甲有意为工厂内的操作机器人设计好程序并将机器人放置于工厂内部,在夜幕降临时,AI机器人自动启动程序并进行诸如纵火等犯罪行为,则甲应当被视为犯罪分子。

再如,乙购买了一个服务型AI机器人,乙指令该款AI机器人向院子中的不速之客进行攻击,这和现实生活中命令自己饲养的狗攻击他人的情况并无不同。在这种情况下AI机器人犯下的罪行,其操作者应当被认定为犯罪行为人。

第二种情况是由设计者或操控者承担刑事举证责任。人工智能的刑事风险其影响途径具有不确定性,当无法确认AI机器人背后的设计者或操控者是否具有罪过时,应当由程序的设计者或者机器使用者承担刑事举证责任。

比如,丙公司所生产的自动驾驶辅助系统出现紊乱,从而导致安装了该系统的汽车出现大面积交通事故。那么该重大事故应当归责于丙公司吗?在民事上,显然要将程序紊乱带来的事故归责于丙公司。但是否应追究丙公司的刑事责任则要看其在产品设计之初能否预见到程序紊乱所带来的严重后果,并且为避免该风险的发生采取过足够的努力,比如进行了长时期大规模的测试、针对可能发生的程序漏洞设计补丁等行为。

显然,常人对该风险是有预见能力的,如果丙公司为避免该风险做过足够的努力则可以不追究其刑事责任。问题的关键在于,如何证明丙公司在设计AI产品之初是否履行了审慎义务。

在传统的刑法举证责任分配体系下,该证明责任应当由控方来承担,但在AI机器人事故上,司法者显然没有能力来承担此证明责任。幸运的是,我们可以借鉴持有型犯罪的立法,将上述刑事举证责任转交给AI机器人的设计人员。我国刑法第395条规定,国家工作人员的支出或财产明显超过其合法收入且差额巨大的,可令其说明来源。本人如不能解释合法来源的,差额部分认定为非法所得,对其判处五年以下有期徒刑或拘役,并追缴财产的差额部分。由此可见,我国刑法中已有刑事举证责任转移的规定。因此在上述自动驾驶事故案例中,我们可以通过立法的方式将举证证明责任分配给丙公司。

(二)强人工智能时代的AI机器人

1.AI机器人的犯罪意图

关于犯罪构成的学说,我国目前主要分为两大阵营,即四要件说和三阶层说。

三阶层说认为,行为人构成犯罪应当满足该当性、违法性以及有责性三个条件。四要件说则把行为人构成犯罪的条件分为主体、主观方面以及客体和客观方面四要件来讨论。不管哪一种学说,都可以将其犯罪构成的观点提炼为主、客观两方面,在AI机器人的犯罪构成问题上,只要AI机器人实施了刑法条文所规定的危害社会的行为便可以满足犯罪构成的客观要件。相比之下,对AI机器人的主观方面尤其是犯罪意图的认定更为复杂。

强人工智能时代的AI系统具备了良好的接收能力,AI机器人装备了视觉、声音、触觉等感官受体,这些接收器将接收到的数据信息转移到分析数据的中央处理器中,其分析过程类似于人类理解。通过对其接收到的数据进行分析,AI机器人可以拥有类似于人类的认知过程。

实际上,所谓犯罪意图是指行为人实施犯罪行为的目的,而这种目的并非人类所独有,具备自我意识的AI机器人完全有可能产生此种目的。由此可见,强人工智能时代的 AI机器人与自然人一样可以产生犯罪意图。

2.AI机器人的刑事责任能力

刑事责任的承担者必须具有刑事责任能力即刑法意义的上辨认和控制自己行为的能力[2]。在自然人犯罪问题上,辨认能力是指一个人对其行为的性质、意义以及后果的认知能力,控制能力是指一个人按照自己的意志支配自己行为的能力[3]。幼儿和精神病患者由于不具备辨认和控制自己行为的能力而不承担刑事责任,AI机器人是否也会存在刑事责任能力上的违法阻却事由,这是研究赋予AI机器人刑事责任能力首先要考虑的问题。

由前文论述可知,强人工智能时代的AI机器人已经具备了自我意识甚至创新思维,其各方面能力已经可以与人类智能相提并论。此时的AI机器人不再是幼儿或者精神病患者,当AI程序正确运行时,它一定会利用其智能系统来分析接收器收到的数据信息,因而其具有承担刑事责任所要求的辨认能力。

另外, AI程序基本都能够分析系统设定的允许和禁止命令,所以,AI机器人也具有承担刑事责任所要求的控制能力。由此可见,安装了高级算法且正常运行的AI机器人一般不存在刑事责任能力上的违法阻却事由。

3.刺破人工智能面纱

赋予了AI机器人刑事责任能力之后,如何避免人类利用AI机器人来实施危害社会的犯罪行为?在人类社会早期是没有单位犯罪这一概念的,甚至当今世界仍有许多国家没有赋予单位刑事责任,我国现行刑法典以总则和分则相结合的方式规定了单位犯罪。赋予单位刑事责任之后同样带来了类似的问题,即自然人利用单位来实施犯罪行为以逃避法律的制裁。面对这一问题,立法者给予了相应的解决手段即刺破公司法人面纱。

笔者认为,刑事立法可以比照单位犯罪的认定从而“刺破AI机器人的面纱”。在认定单位犯罪时,自然人为方便实施犯罪行为而设立单位进行违法犯罪活动的,或在设立单位后,以进行犯罪为主要目的的,不认定为单位犯罪。

同样,传统犯罪主体(自然人和法人)为实施违法犯罪活动而设计AI机器人进行犯罪的,或者传统犯罪主体在设计出AI机器人之后,以进行犯罪活动为主要目的的,除了追究AI机器人的刑事责任以外,更要刺破AI机器人的面纱追究传统犯罪主体的刑事责任。

强人工智能时代的AI机器人被审判定罪后应如何执行刑罚?

例如,在特定情况下AI机器人被判处一年有期徒刑,应如何服刑?如何对AI机器人执行死刑?在没有人员被逮捕的情况下(特别是那些未安装在机器上且没有实体的AI),监禁刑的实际含义是什么?如果被判处罚金刑的AI机器人没有银行账户以及属于自己的财产,那么罚款的实际意义又是什么?面对上述疑问,我们首先应当考虑以下三个问题:

惩罚自然人罪犯的根本意义是什么?

传统的刑罚惩罚手段如何影响Al机器人?

对Al机器人施以何种惩罚措施才能达到惩罚的目的?

思考这三个问题是解答AI机器人刑罚问题的正确思路,这一思路的最大优点是,在人们熟知的现代社会常用的刑罚措施基础之上,选择并调整应对AI机器人的惩罚手段。质言之,通过对死刑、监禁刑、社区服务以及罚金刑等传统刑罚手段的调整和改造,制定出对AI机器人行之有效的惩罚手段。

死刑被认为是对人类最严厉的惩罚,Al机器人的“生命”是作为一个实体的独立存在。有时它具有物理外观(例如,作为机器人);有时它只具有抽象的存在性(例如,作为安装在计算机系统或网络服务器上的程序软件)。

考虑到死刑的效力,对AI机器人施以死刑刑罚就是删除控制AI机器人的程序软件。一旦删除判决被执行,违规的AI机器人便不能再实施任何犯罪行为,删除其程序软件即意味着根除了AI机器人的独立存在,在效果上且相当于执行死刑。

监禁刑是现代法律制度对犯罪人最普遍的惩罚措施之一。监禁对人类的意义在于剥夺其自由权利,并对人的行动自由和生活自由施以严格监管,AI机器人的“自由”则包含不同领域的自由。

例如,医疗服务机器人可以自由参与手术,工厂中的AI机器人具有生产制造的自由等等。鉴于监禁刑之于人类的意义,当对AI机器人施加与监禁刑相同效果的刑罚时,其实际效果是使AI机器人在某一具体时期不能应用于特定的功能领域。质言之,在AI机器人被监禁期间,不允许其自由地行动,也不允许其自身功能发挥作用。

在大多数法律制度中,社区服务是替代监禁刑的惩罚措施之一。在中国,社区服务往往与缓刑相结合,从而使罪犯以劳动的方式“赔付价款”来弥补其因触犯具体罪行而造成的损失。如上所述,AI机器人可以参与很多领域的劳动生产。当AI机器人在工厂工作时,其目的是满足工厂老板的利益或其他工人的利益,从而减轻和便利人类的劳动。与Al机器人为工厂利益而工作一样,其也可以为社区公共利益而工作,为社区公共利益工作实质上等同于对AI机器人判处的社区服务刑。

因此,社区服务作为刑罚惩罚手段对人类以及AI机器人都是有必要的。另外,缓刑的目的是防止行为人再犯,其不需要物理上的拘禁手段,只需在司法记录中留有记载,对于AI机器人可以同样适用[4]。

罚款或罚金判决已经成为一种重要的刑罚处罚措施,罚金刑的意义在于剥夺犯罪行为人的财产,该财产包括金钱(罚款)与其他财产(没收)。如果行为人拒绝支付或无力支付罚金,则法院往往会对其判处其他刑罚来替代罚金刑。如果强人工智能时代的Al机器人拥有属于自己的财产,则同样可以对其适用罚金刑。

对自然人和法人来说,被判处的罚金有可能是其违法所得,亦有可能是他们的合法劳动所得,当罚款金额针对行为人的合法劳动所得时,其性质等同于用行为人自身的劳动力换来财产再转移给国家。换句话说,罚款金额能够通过劳动力的形式转移至国家。

所以,当AI机器人没有足够的财产支付罚金时,可以迫使其为社会公共利益提供劳动力,以等价劳动力来支付罚款。如果为了社区利益而以劳动力的形式支付罚款,就类似于前文所提到的社区服务刑。

刑法理论和刑事立法是时代发展的产物,并用以解决特定时代中的社会问题。正如风险社会来临时,刑法理论和刑事立法所作的调整一样,在人工智能时代刑法势必做出改进。

弱人工智能时代的到来将改变传统的刑法归责原则,要在人工智能致害案件中追究背后设计者或操控者的严格刑事责任,并将刑事举证责任转移。

强人工智能时代刑法理论及刑事立法不应再将刑事责任主体的范围局限于自然人和法人,那种认为“刑法是以规范人的行为作为其目的的,只有建立在对人性的科学假设基础上的刑法规范,才具有存在和适用的合理性”的观点,也应当随着时代的发展而有所修正。

注释:

[1]严厉.刑事政策价值目标的追问[J],政法论坛,2003,21(5):71-77.

[2]高铭暄,马克昌,刑法学[M].北京,中国政法大学出版社,2016.253.

[3]曲新久,刑法学[M].北京,中国政法大学出版社,2015.191.

[4]平野晋,ロボット法―AIとヒトの共生にむけて,日本弘文堂,2017,248.

作者简介:

陈元,盈科(上海)权益高级合伙人

李兴臣,上海政法学院2016级刑法学研究生

 

未经允许不得转载:智合 » 当AlphaGo被判处死刑

评论 抢沙发

评论前必须登录!

 

This site is protected by wp-copyrightpro.com