编者按:人工智能已经逐步从科幻电影走进了我们的日常生活,而在其为我们的生活带来巨大的改变与便利的同时,我们却不得不开始思考人类与人工智能之间的关系,以更好地面对这一科技巨变所带来的冲击。本文作者从规范论的角度出发否定了当前人工智能犯罪主体的地位,具有相当的思辨性,文章本身也体现出作者较为广博的阅读基础,值得各位读者阅读与思考。
作者简介
黄发辉,苏州大学王健法学院 2019 级硕士研究生。
摘要:人工智能不仅是一次技术层面的革命,未来必将与重大的社会经济变革、文化变革等同步,我们需要尽早理清人类与人工智能的关系以应对即将到来的冲击。对于刑法而言,一个首要的问题是人工智能是否会动摇“人类中心主义”的刑法理论体系,根据规范论的考察,人工智能犯罪这一命题是存在重大疑问的,可以被刑法评价之行为的事实条件与规范条件人工智能均不具备,意志自由也无法得到体现。在可预见的未来,围绕人工智能发生的法益侵害行为在现行刑法理论体系下可以得到妥当的解决,人——人工智能的主客体关系不应改变,赋予人工智能犯罪主体地位为时尚早。
关键词:规范论;人工智能;犯罪行为;意志自由
一、引言
人与科技的问题贯穿人类社会发展始终,同时科技的发展也不断调整着人类看待世界的角度和方式并催生着科技乌托邦和科技现实主义的矛盾。如今随着信息技术的发展,科技无疑已经对法律再次构成重大挑战,人工智能①这种新兴技术即给刑法带来了解释论的难题。如果人不再是这个星球上唯一具有高度智能的实体,法律应当如何回应呢?不仅是刑法,几乎所有法律都有一个共同的假设:所有决定是由人类作出的。但人工智能技术正在改变着人类对机器的传统认知甚至重建人类与机器之间的相互协作关系,“人工智能的发展和传播会促使我们改变法律,因为这些法律中很多不能充分地规范人工智能产品如何与我们互动,也不能规范人工智能之间的互动”。我国在《新一代人工智能发展规划》中大致勾勒了人工智能发展的政策框架,在国家层面进行积极战略部署,一方面积极鼓励技术研发,另一方面也提到了法律应当在人工智能的发展过程中起到作用,对于人工智能应用所带来的法律风险、技术风险等应当未雨绸缪,除了科研人员在技术层面上的努力,社会治理制度也应当为化解技术风险矛盾提供支持。本文基于规范论的立场进行了一些简单探讨,希冀对于人工智能的刑法评价提供一个思路,刑法对于先端技术,不应该过于积极地介入,刑法更不应该对于先端技术的发展产生使之萎缩的危害 效果。但是反言之,刑法也有保障国民自由安全的使命,因此为了技术发展而导致社会不安定显然也不是社会所期待的。刑法作为回顾性法律,在奇点没有真正到来之前,仍然需要借助刑法解释学把其纳入到规制轨道中来而非贸然尝试动摇刑法的体系。
① 目前通常将人工智能分为弱人工智能、强人工智能和超强人工智能三个层次,其中弱人工智能本质与机器无异在学界已基本达成共识,而超强人工智能过于科幻,均不在本文讨论范围之内,本文将讨论仅限定于强人工智能范围之内。
二、人工智能刑法规制的理论争讼
在关于人工智能的刑法理论中,人工智能是否可以成为承担刑事责任的主体,是否具有刑事责任能力这一问题成为刑法学领域无法回避的问题,这是因为这一问题是从根本层面对以“人”为主要刑事责任主体的传统刑法格局提出的质问和挑战,这一问题具有基础性,将会从全局上影响其他后续刑法问题。目前在刑法学界的争论的焦点之一就是能否赋予人工智能刑事责任主体资格的问题,或者说人工智能是否可以作为犯罪主体而存在的问题,国内有肯定论和否定论两种对立观点,此外还存在阶段说、拟制说等观点,但本文认为阶段说和拟制说本质上仍然属于肯定论的范畴,故而不单独论述,一并归入肯定论的范围。
肯定论从应然层面将人工智能作为犯罪主体,并提倡针对其特点设立特殊的刑罚处罚方式;否定论则否认人工智能的犯罪主体资格,倾向于借助传统刑法理论对其进行规制。它们对立的核心基本在于传统“人类中心主义”的刑法能否被突破,人工智能是否具有意志自由以及刑罚对于人工智能的适用可能性等几方面。
肯定论认为人工智能与自然人一样具有辨认和控制能力并且比单位更接近于自然人,更有理由成为刑事责任主体;人工智能能够接受刑罚处罚,因现行刑罚种类在强智能机器人身上完全无法奏效而否定其刑事责任主体地位的逻辑陷入了由果溯因的逻辑怪圈;否定论的立场是将机器人所惹起的损害,让机器人自身承担责任的可能性,先验地予以完全排除,行为、责任这样的基本概念并非只限于人类,作为责任主体的人的概念,并非没有扩张的可能性;即使认为不能不能对人工智能的犯罪主体资格一以概之的话,可以参照自然人的刑事责任年龄制度对人工智能的主体资格根据智能的程度进行划分。否定论针锋相对予以回击,认为人工智能不具有真正的辨认和控制能力,将人工智能的运作机理机械地与自然人类比不过是自说自话;对人工智能进行刑罚处罚达不到刑罚的目的,即使对机器人能够进行刑罚,其手段也不是正当的;意志自由即使是一种社会虚构,但没有这种社会的虚构的话,“社会就无法存续,结果、责任和刑罚,如果没有将自由意思假设作为前提的话,也会成为无法存续的制度。”人工智能天然不具备人类自由意志产生的社会基础。
可以说,关于人工智能犯罪主体资格有无的争论目前在刑法学界如火如荼,并在犯罪论与刑罚论两大领域展开论战。本文欲探讨的问题是人工智能犯罪是可能的吗,换句话说,“犯罪”能够用来形容人工智能吗?这个问题不解决,后续的所有讨论都将会是建立在一个虚假的前提之上,只有从刑法解释学的角度对犯罪概念进行厘定,才能真正判断是否存在“人工智能犯罪”,如果“人工智能犯罪”不过是一个伪概念,刑法的体系中没有它的容身之所,那么人工智能仍然是技术问题的领域,充其量称之为人工智能侵害而不可能进入刑法的领域。因此首先需要明确“人工智能犯罪”是否可行,这对于判断人工智能是否可以具有犯罪主体地位以及是否可以承担刑事责任的研讨具有重大意义。
三、规范论视野下人工智能犯罪概念之解构
犯罪是行为,而不是思想或其他什么纯粹内在的东西,我国刑法第 13 条对犯罪概念的界定也明确宣示了“犯罪是行为”这一点,从而将自然现象、反射动作或单纯的思想等置于犯罪概念之外。可以说刑法是一种人类行为规范,它要调整人类的行为,犯罪即是以人类意志行为的事实条件为前提并经由规范建构的产物。犯罪本质可以从两个角度来认识,一方面,行为的主体能够实施被刑法评价的行为(事实条件),另一方面,该种行为需要被评价为犯罪(规范条件)。但是何种行为是具有法律意义的,何种行为值得被刑法评价是需要探讨的,换句话说,是否可以被刑法来评价的是行为论的范畴。
(一)行为概念的事实要素 之于人工智能的分析
有学者认为,裸的行为论其实没有重要意义,如张明楷教授认为“通过否认行为性而宣告无罪的现象极为罕见……一个行为是否属于构成要件的行为,并不是行为概念本身可以解决的”,在这里,构成要件的该当性取代了行为的地位而成为了衡量不法是否成立的直接标准,但这是就现行刑法这种实在法内部而言的,对于指向人之行为的构成要件所具有的规范意义通常来说不具有太大疑问,但如果不明确人的行为究竟是一种什么存在,对于人工智能的行为就缺乏了对比的前提,而仅是将人工智能的外在行动与人的行为进行形式的类比,这是过于机械的做法。
在犯罪论体系中,行为是不法阶层的内容。一般意义上,违法性是一种客观的无价值判断,因为它是从法秩序的角度出发,对符合构成要件的举动所作的判断,构成要件该当性与违法性某种程度上被视为没有差别的两个概念,但违法性并非只涉及行为的客观部分,一个具有法律意义之行为的产生,既要有客观的法律规范作为依据,也要有行为人的意志行为作为基础,法规范能够要求或禁止的并不是单纯的因果进程,而只能是受到意志操控的作为或者不作为,违法性的客观只是意味着“它是一种普遍的价值判断,但它的对象即行为,却是客观与主观要素的统一体”,正如雅各布斯教授所说,在刑法归责中,纯粹机械性的操控只具有教学上的辅助性,因为其不是任何“对意义的表达”,将无法答责之物冠之以“不法”明显不当。
使用人工智能犯罪的概念也正是存在此种误区,以人工智能可能造成符合构成要件的法益侵害为前提,证明人工智能存在不法行为是把结论当作了前提,只有说明了人工智能的举动属于刑法意义上的行为或者说首先是规范性的行为才具有进行非难的意义,才能认为人工智能满足不法。然而人工智能能够具备这种“行为”吗?行为可以说是先于法而存在的,无论在犯罪还是合法的日常生活中,我们都可以建立起人的行为的概念,但是在这一概念中,“人的”这个词语所指向的并不是单纯机械性的事物而是在交往方面具有重要意义的事物,这样可以说,行为的价值“不再取决于‘我’,它实际上深深植根于‘本体之中’,即植根于社会的存在及其‘生活方式和世界观’之中”,这样一来,即便是行为的概念也应当添入了社会的含义,“人类是社会内的存在,社会是相互作用的系统,如果将行为理解为其交流手段的话,就无法排除其行为的社会意义的判断”,根据社会行为论,行为的社会意义就成为了核心要素,只有在人类社会的共同体的语境下行为的概念才具有实质意义。按照客观属性,犯罪是具体的人对社会中确立的人与人之间、共同体与个人之间关系秩序的侵害,是人们感到“岂有此理”的愤怒,这么说来,犯罪就是一种不健康的社会心理现象,是“人们缺乏正确进行心理互动的必要条件的结果”。
那么人工智能是否能够融入人类社会的共同体或者能够建立自己的共同体?现在来看这无疑是一种幻想,简单来说,作为共同体的一员,也是权利义务的统一体,然而人工智能的权利问题是一个难以自圆其说的问题,人工智能是否可以摆脱“物”的范畴,需要关注的不只是其能否承担义务,人工智能自身是否应该以及如何像人类那样被作为权利主体看待同样主要。
人工智能被创造伊始就是作为服务于人类而存在的工具,达特茅斯会议的召开是希望借助计算机技术创造出更加像“人”的机器,也即是让机器“像人一样思考和行动”,因为这样可以让这些机器承担更多本来只能由人来做的工作,故而人工智能的权利最初就不应在考虑范围之内。因为那样一来,如何处理人类与人工智能在法秩序中的关系会变得相当困难,试问,倘若人工智能被赋予了法律人格,那么人类与人工智能之间的主客体关系还有可能存在吗?人工智能的民事权利是否应当承认?进一步讲,如果人工智能不是“物”,那么设计者、使用者对人工智能的支配、使用从法律上来讲就不可能,因为“人”只能是目的而不能被当作工具使用。倘若认为人工智能可以犯罪,那么对人工智能判处刑罚是否需要人工智能“意志”认可的审判程序,如果说无视人工智能的“意志”而由人类直接施加“永久销毁”、“修改程序”等所谓人工智能的刑罚,那么人工智能有何权利可言,连基本权利都不具备更遑论成为人类社会共同体的一份子。
一个事实就是,在由人类建构的社会秩序中,只有人能够作为主体存在。赋予人工智能等同于自然人的法律权利在可见的未来仍然是不可想象的,那么只让人工智能作为义务主体也是不符合法秩序要求的。比如肯定论者的理论虽然主张赋予人工智能法律人格,详细分析人工智能的构造比之自然人的行动模式何其相似甚至有过之而无不及,但却有意无意地忽略了人工智能的权利地位。换言之,在肯定论那里,人工智能应当承担属于它们的义务,但却不享有任何实质的法律权利,并不是有了法律人格就有了权利,而是先具有了权利才谈得上法律人格的问题。简单来说,现代的人权概念脱胎于启蒙运动,“天赋人权”的旗帜下人的权利被认为是不证自明的普世价值,可是有谁说过“天赋机器人权”或者这种观念对于人类而言能够被普遍承认吗?要知道,即使在如今仅是处于弱人工智能阶段的人类社会对于人工智能的“威胁论”就颇有市场了。至于说所谓的超强人工智能,那是科幻作家的领域而不是刑法的。
(二)行为的规范要素之于人工智能的分析
何种行为可以被刑法评价是一个规范的价值评判的过程。“犯罪”这种否定评价只能与违法行为有关,犯罪的本质论是规范论的问题,“行为规范指向一般人,由于违反了该行为规范,该行为就成为违法行为”,但是并非任何一个违法行为均应处罚,立法者正是从几乎不可能一览无余的违法行为方式中,将一些特定的行为筛选出来,并以此方式构成了应受刑法处罚的具体犯罪的犯罪构成,刑法只会将值得科处刑罚的行为纳入自己的体系,在行为成为构成要件要素之前已然经历了一次价值评判的过程,那么何种破坏法益的行为应当被刑法处罚呢?李斯特认为“国家将刑罚的预防功能适用于私法之赔偿功能所不能及的领域”,也就是人工智能的“行为”私法是无法解决的,必须用刑法打击遏制人工智能,但李斯特的“所不能及”是一个有些含混的概念。刑法是否需要修改以及刑法的体系是否需要大变革不是看支持者的逻辑是否严密,论证是否精彩,而是此种刑法体系是否仍然运行于国民的“一般意愿”之上。
按照西原春夫教授的观点,制定或修改刑法的标准是一般的平均水平的国民对不良行为的状况和对此而制定刑法的意义有了正确认识。若认为现行刑法体系已经不能规制人工智能而需要对其进行重大变更的话——承认人工智能也会犯罪从而其也取得了类人的主体资格,这需要社会公众对人工智能具有主体地位并且这种主体性已经足以威胁人类社会的存续以致于必须动用刑法规制达成一个基本共识,换言之,人工智能可以犯罪不会是逻辑论证的结果,而只能是规范意识的产物,而根据前文的论证可知,人工智能从规范的角度进入人类社会共同体仍是天方夜谭。更何况,自然人之所以会存在犯罪行为背后多存在生理或社会文化需求,对于人工智能而言,存在生理需求是无法想象的,社会文化需求也是存疑的,因为人工智能是作为工具而非目的存在,那么人工智能的自我认同或社会认同这种观念基于人类的立场是不存在的,由此一来人工智能的所谓行为只是机械因果关系下的无目的行动,与自然灾害、动物攻击没什么本质区别。即使基于社会防卫的需要,也可以采取民法救济或者行政措施进行处理,而不是将人工智能的举动评价为犯罪而动用刑法这种昂贵且低效的规制手段。
再一方面,某种行为之所以被刑法规制往往是这种不良行为已经发展到了国民普遍不安的地步,换言之,是人工智能的“犯罪行为”已经让社会感到不安了,可以假定这种情况的前提是人工智能侵害的高发化、普遍化,这样是不是可以说人工智能这种技术是存在严重问题的,那么我们责难的对象不应该是人工智能这种技术而是其背后的开发者、设计者或者使用者,就好比一条恶犬多次咬人,人们不会质问狗为什么咬人而是狗主人为什么不把狗看好的道理一样。人工智能侵害公民或者社会利益的举动虽然表面上看的确是人工智能作出的,但实际上仍然要归咎于人的过失甚至故意。
(三)意志能力之于人工智能的分析
刑法根本上是调整人类行为的规范,那么其所创设的权利义务若要在生活中得以实现,其承载者也必须具备意志能力。对于违反行为规范是一种“应为却不为”的当为的无价值判断,然而仅有违法性并不能构成“犯罪”这种否定评价的理由,犯罪还是一种有责的行为,也即犯罪人相对于外部世界的有意识的行为,与意志无关的事件不能实现犯罪构成,也就是说必须“进一步追问行为人是否可能遵循该‘当为’而实施相应行为”以对其进行非难,这则是义务规范的范畴,从这种义务规范中派生出“当为”的意思决定义务,意思决定义务表明了在行为人的罪责中,行为人的内心世界与将该行为评价为非法的法律规范之间具有联系。现今的刑法体系是以“人”为中心建立起来的,犯罪的实体是不法与责任,不法的实质是规范违反,责任的本质是非难可能性,非难可能性则是一种主观判断,“违法性讨论的是因果的责任问题,有责性讨论的是道德的责任问题”人和非人都能对某一事件负有因果关系的责任,但只有人才能负起道德的责任,因为“只有当一个人是出于自己的自由意志来做一件事情, 我们才能说他对他所做的事情在道德上负责任”。
基于意志自由的角度,这当然是一条可行的途径,但是并不绝对,因为意志自由是形而上学的概念,至少至今为止未被自然科学所证明,而在科学主义的当今,任何未被自然科学所证明的事物都天然地存在可辩驳性,事实上也是如此,即使在刑法学的内部,也存在着决定论与非决定论的争论并持续至今,并引申出了刑法学与犯罪学的二律背反:自然科学每前进一步,意志自由的领地便要后退一步。这也是肯定论者猛烈抨击否定论之处。有学者认为形而上学的意志自由是不存在的,应当采用客观标准,把刑法上的意志自由理解为以辨认和控制能力为基础的为或不为合法行为的责任能力。
肯定论者声称“人类所具有的思想产生于人的生命体,智能机器人所具有的“思想”则产生于人类设计和编制的程序”,借助“电子眼”、“电子耳”还有算法,人工智能具有和人类等同甚至高于人类的辨认能力与控制能力。在肯定论者看来,自由意志是大脑广泛整合外界信息的基础上形成的,其基于大脑获得的各种信息。“智能机器人不具有自由意志”的论断无法得到证明。智能机器人具备与作为物质实体的“大脑”相类似的装置(多数情况下表现为程序和算法)智能机器人可以以绝对领先自然人的速度,在繁杂的数据中获取有用的信息,并进行深度学习,从而完成相应任务。这是把意志自由理解为了纯粹生理学的概念,认为人工智能超出人类设计的程序进行选择就是自由意志,这是把意志自由等同于偶然了。把模式识别对标辨认能力,程序运作对标控制能力,好像人类只是机械的造物一般,完全抹杀人之所以为人的理性之光,人类所创造的文化成了偶然的结果与可笑的笑话。
拉基莫夫教授认为,人是生物人、社会人、理性人三位一体的存在,也是一个由低级到高级的过程,人当然无法完全摆脱生物的本能,但生物学因素从规范的角度而言已经不具备多少意义了,假如一个人的思想和行为带有先天的、遗传程序的性质,那么一个非理性的人很难完成无限发展进步的、有思想的行动者角色。探求刑法的根基②就会发现“作为生物的人类已经到了不能有所作为的地步”。此外这种侧重实证主义的说法,反而使得人工智能的责任能力陷入二律背反的处境,如果人工智能有超越自然人的辨认与控制能力,按照肯定论者的观点,人工智能几乎不会出现“情绪犯罪”,那么人工智能就应当知道何为刑法所禁止,那么理论上人工智能从一开始就不会出现犯罪;反之,当人工智能出现犯罪以后却又主张通过“修改程序”等手段帮助其认识刑法规范岂非本末倒置,并且如果事后纠正是能做到的,那么事先预防也是有可能做到的,这样既然事先预防可行的情况下为什么非得等到事后惩治呢,与由于伦理的巨大风险故而对于自然人的基因编辑无论技术上可行与否都应当被绝对禁止不同,毕竟人工智能是人造的机器,其不同于自然人,在其被制造投入使用之前植入绝不犯罪的程序并没有什么道德风险,如果说“天生犯罪人”的观念对于作为生物的自然人而言还具有可能性,那么“天生犯罪人工智能”就绝不能被承认。可以认为,如果具有辨认控制能力的人工智能出现犯罪,要么这是人工智能程序设计的缺陷,要么人工智能的模式识别根本不算辨认控制能力,其本质与机器无异,但无论是哪种情况,即使从实证的角度而言,人工智能的犯罪能力也是不能被承认的。
虽然无可否认的是意志自由的确仰仗于数千年以来哲学家们的假设,若是单纯的把意志自由作为责任的前提,那么刑法学便要在犯罪学的阴影下瑟瑟发抖。但是本文仍然认为承认意志自由的概念是有必要的,诚如张明楷教授所说,刑法上的责任概念不以行为人具有自由意志为前提就难以存在,责任与自由意志不可分离,没有自由意志就没有选择,没有选择就没有责任。但是在讨论人工智能的犯罪问题时却不能简单地将意志自由的有无作为理由,要知道人类有没有意志自由还是个疑问呢。对于意志自由的问题,西原春夫教授提供了一个绝佳的思路,即我们需要关注的不是有没有意志自由或者意志是否自由的问题而是普通人是否认为自己以及其他正常人有无意志自由的问题。刑法不仅具有评价规范的功能,还具有规定规范的功能,法律正是通过将某个行为评价为合法,将另一个行为评价为违法的方式告知人们应所追求的东西,公民必须——如果视其为为褒义词的话——守本分地行为。当然人的意识世界目前同样是不可知的,事实上司法实践中对于犯罪人的主观归责也并非真的能够查明其意识状态,这种判断与其说是一种客观确证更接近是自由心证,通过对犯罪人的动机、手段以及事后行为来看,法官能够对犯罪人犯罪时的心理状态得出一个大致的结论,而且根据规范责任论“非难可能性”可以说是一种社会判断,也可以说是一般人的判断,在特定情境下社会期望其实施或不实施某种行为,这种期望建立在犯罪人能够知晓并理解社会规范的基础之上,换言之,犯罪人有能力在伦理参照系中对自身以及自己的决定作出评价,这样一来,与犯罪人处于相同伦理系统的法官和公众才有自由心证的可能,但是对于缺乏人类情感与伦理的人工智能,这种自由心证的大前提并不存在。
人工智能无疑是具备智能的,但是智能不等同于意识 ,刑法作为社会规范其最早的萌芽是宗教或者伦理观,并没有实证科学的基础。在由个人与共同体所构成的社会中,产生各种各样的利益对立与纷争是理所当然的事情,为了调整这种冲突以保证个人、共同体、社会乃至国家的有序,就有必要控制冲突的规则,这种规则的总体就是规范,刑法规范则是其中一种。刑法所禁止的事物大多为伦理上的恶,是被社会共同体所排斥的负面价值,而价值自身不具备任何技术因素。肯定论者认为“人工智能体通过算法、大数据和深度学习等方式在某一特定领域已经具备超越人类大脑的水平”,虽然人工智能不是有血有肉的自然人,但也超脱了“物”的范畴,进而肯定人工智能“主观意识”的可能。然而 刑法理论中的主观要素并不单单是某种智力测试的概念,事实上在无意识的识别能力上人工智能早就远远超越了人类,但这种外部信号反射式的事实判断对于刑法理论中的有责性也即价值判断而言没有参考价值。
人工智能得以产生和运作的核心是“人工”,也即人类为其设计的程序,所谓智能不过是程序运作所呈现的外在表征。人工智能的设计思路是试图模拟人类的思维模式,但人类的思维能力并非若干线性思维结构,人工智能技术本质上是借助算法模仿了人类部分的逻辑链条,是一种机械的物理的因果法则,对于人工智能的行为而言,只能认可“因果性”而无法承认“可谴责性”,正如“在人的态度中可划出因果律支配的部分,因与自然现象相同而不在法律规范之内,剩下的部分即可为意志支配的部分·······应在法律规范之内”,那么 这种将人工智能基于数据算法的模式识别与人类基于规范意识的自我决定相等同,是对罪责概念的机械理解。
②此处概念参考了日本学者西原春夫的著作《刑法的根基与哲学》一书,这里刑法的根基可以理解为刑法的基本要素。
四、结语
只要我们还想站在人的角度评判人工智能,那么现在的犯罪概念对于人工智能就是无法适用的。犯罪的实体是不法与责任,犯罪的本质是侵犯法益,或者是规范违反,然而无论是哪一种,最后的问题几乎全部集中在了规范的问题上,更进一步讲,是一种行为是否值得非难的问题。同样造成了危害,但是若是由自然灾害或者动物引发的,没有人会认为那会是一种犯罪。说到底,犯罪行为究竟为何,从外在来看已经无法得出更多有益的理解。何为犯罪是需要被规定的,是人类价值的产物,明确了这一点,对于“人工智能犯罪”的评判方向就变得明确了,“人工智能犯罪”不是一个客观的概念,而是一个假定的概念,而在与其相应的规范意识产生之前,其事实上就是一个伪概念,只能看作是学者们为了方便讨论这样一个未来的或然现实而使用的。
很多人总觉得“人类中心主义”是一个纯粹贬义词以至于想方设法的打破它,但是本文认为应当辩证来看,在人与自然的关系上,应当摒弃这种将人与自然对立起来的观点,但是在社会科学的领域,该概念毋宁看作是尊重人之主体地位的同义替换,事实上,在哲学社科的领域,人类中心主义的确立也不过寥寥百年,人作为主体的尊严和价值而得到承认不过是近两百年以来的事情,人的“主体性”严格来说不是刑法学研究的对象而是哲学的领域,我们现在在通常意义上使用的主体概念是在康德那里确立的,即使是这样,人的异化也是现代社会学最高频的词之一,我们何以将人的理性如此贬低呢,康德有句名言:“有两样东西,人们越是经常持久地对之凝神思索,它们就越是使内心充满常新而日增的惊奇和敬畏:我头上的星空和我心中的道德律”。在如今的时代,平静的水面之下净是惊涛骇浪,也许在未来的某一天科技将会彻底颠覆现在的认知,虽然科技的进步是解决发展问题的良药,但同时也必须明确科技始终是为人服务的而不可本末倒置,至少目前让我们更加谨慎一些,步子迈得再小一些,更多地关注人之于科技而不是科技之于人的问题。
[1] 刘宪权:对强智能机器人刑事责任主体地位否定说的回应,载《法学评论》,2019 年第 5 期。
[2] David R Lawrence, Margaret Brazier, Legally Human?‘Novel Beings’and English Law, Medical Law Review, Volume 26, Issue 2, Spring 2018, Pages 309–327。
[3] Joshua Gacutan, Niloufer Selvadurai, A statutory right to explanation for decisions generated using artificial intelligence, International Journal of Law and Information Technology, Volume 28, Issue 3, Autumn 2020, Pages 193–216。
[4] 国务院:《新一代人工智能发展规划》,中国政府网:http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm.2021 年 7 月 5 日访问。
[5] 刘宪权:人工智能时代的“内忧”“外患”与刑事责任,载《东方法学》,2018 年第 2 期。
[6] 刘宪权:人工智能时代刑事责任与刑罚体系的重构,载《政治与法律》,2018 年第 3 期。
[7]周详:智能机器人“权利主体论”之提倡,载《法学》,2019 年第 10 期;
[8]马治国、田小楚. 论人工智能体刑法适用之可能性,载《华中科技大学学报(社会科学版)》,2018 年第 2 期。
[9]陈叙言:人工智能刑事责任主体问题之初探,载《社会科学》,2019 第 3 期等。
[10]张明楷:《刑法学》(第五版),法律出版社,2016 年版。
[11]王耀彬:类人型人工智能实体的刑事责任主体资格审视,载《西安交通大学学报(社会科学版)》,2019 年第 1 期。
[12] 彭中礼:人工智能法律主体地位新论,载《甘肃社会科学》,2019 年第 4 期。
[13] 时方:人工智能刑事主体地位之否定,载《法律科学(西北政法大学学报)》,2018 年第 6 期。
[14]刘艳红:人工智能法学研究的反智化批判,载《东方法学》,2019 年第 5 期。
[15]储陈城:人工智能时代刑法的立场和功能,载《中国刑事法杂志》,2018 年第 6 期。
[16]赵秉志、詹奇玮:现实挑战与未来展望: 关于人工智能的刑法学思考,载《暨南学报(哲学社会科学版)》,2019 年第 1 期。
[17]叶良芳:人工智能是适格的刑事责任主体吗?,载《环球法律评论》,2019 年第 4 期。
[18]冀洋:人工智能时代的刑事责任体系不必重构,载《比较法研究》,2019 年第 4 期。
[19] [德]汉斯·韦尔策尔:《目的行为论导论:刑法理论的新图景》(增补第 4 版),陈璇译,中国人民大学出版社 2015 年版。
[20] 李俊丰、姚志伟:论人工智能的法律人格: 一种法哲学思考,载《华侨大学学报(哲学社会科学版)》,2018 年第 6 期。
[21] [日]高桥则夫:《刑法总论》,李世阳译,中国政法大学出版社 2020 年版,第 69 页。
[22] [日]西原春夫:《刑法的根基与哲学》,顾肖荣等译,中国法制出版社 2017 年版。
[23] [阿塞拜疆]拉基莫夫:《犯罪与刑罚哲学》,王志华、丛凤玲译,中国政法大学出版社 2016 年版。
[24]卢勤忠、何鑫:强人工智能时代的刑事责任与刑罚理论,载《华南师范大学学报(社会科学版)》,2018 年第 4 期。
[25]储陈城:人工智能时代刑法归责的走向——以过失的归责间隙为中心的讨论,载《东方法学》,2018 年第 3 期。
[26]张明楷:以违法与责任为支柱构建犯罪论体系,载《现代法学》,2009 年第 6 期。
[27]刘宪权、胡荷佳:论人工智能时代智能机器人的刑事责任能力,载《法学》,2018 年第 1 期。
[28]张志伟:主体概念的历史演变,载《教学与研究》,1996 年第 4 期。
[29][德]康德:《实践理性批判》,邓晓芒译,人民出版社 2003 年版,第 220 页。
[30][德]李斯特著,施密特修订:《德国刑法教科书》,徐久生译,法律出版社 2006 年版。
[31]蔡曙山:哲学家如何理解人工智能——塞尔的“中文房间争论”及其意义,载《自然辩证法研究》,2001 年第 4 期。
原文链接:https://www.bilibili.com/read/cv12408680/