立法者通过文字和语言制定法律,其目的就是为了表达立法者的想法。
[69] 参见[英]亚当·斯密:《国富论》,唐日松等译,华夏出版社2005年版,第1-15页。古罗马自然法思想家西塞罗认为,法律是根据最古老的一切事物的是原自然表述的对正义与非正义的区分,人类法律受到自然法指导。
[57] 曲星:《人类命运共同体的价值观基础》,载《求是》2013年第4期。由此,法理应该成为法理学的新范式。[38]由此法本身无法为其正当性提供更高层面的判准价值。社科法学概念在我国正式提出是2000年召开的法学研究范式转换研讨会上,试图把经济学、社会学、政治学、逻辑学、历史学的方法综合起来分析法律问题,解释法律和法学中的疑难问题。因为自Kant以来,人们至少已知内容知识的有效性并非先验的,而只是厚验的,因为它并非建立在纯思维,而是建立在经验之上[17]。
[41]古希腊的自然哲学家们则从对自然的探讨中提出了法律与正义问题。[21] 黄文艺:《中国法理学30年发展与反思,载《法制与社会发展》2009年第1期。而人格责任论着眼于上述两种立场的缺陷,认为行为人的人格是责任的基础。
如果强人工智能产品的设计者或使用者违反了监督义务,那么其可能承担的是监督过失的刑事责任。自然人的辨认能力和控制能力来源于生命,受到年龄等因素的影响,而强人工智能产品的辨认能力和控制能力则来源于程序和算法。圣人不治已病治未病,不治已乱治未乱,此之谓也。《新一代人工智能发展规划》指出:人工智能是引领未来的战略性技术……当前,我国国家安全和国际竞争形势更加复杂,必须放眼全球,把人工智能发展放在国家战略层面系统布局、主动谋划,牢牢把握人工智能发展新阶段国际竞争的战略主动,打造竞争新优势、开拓发展新空间,有效保障国家安全。
笔者认为,强人工智能产品的行为可以分为两种:一种是在设计和编制的程序范围内的行为。简言之,强人工智能产品有能力对刑法所保护的客体造成侵害。
犯罪集团是共同犯罪的一种特殊形式,既然我们将共同犯罪概念中二人以上中的人理解为既可以包括自然人,也可以包括强人工智能产品,那么犯罪集团概念中的三人以上中的人同样可以理解为既可以包括自然人,也可以包括强人工智能产品。人类科技发展的历史告诉我们,科技的发展是爆炸式的,其发展速度呈几何式提升,我们必将在不久的将来进入到人工智能N.0时代。如果强人工智能产品的设计者或使用者既不可能预见危害结果的产生,也确实履行了监督义务,那么其可能不需要承担刑事责任,此为意外事件或由强人工智能产品独立承担刑事责任。一切法律都是以规制行为作为其内容的。
在强人工智能产品自身之内出现的刑事法律风险,即是笔者在本文中探讨的强人工智能时代的内忧。所谓永久销毁,是指在删除数据、修改程序均无法降低实施了犯罪行为的强人工智能产品的人身危险性时。人工智能是网络技术和机器人技术发展到新阶段的体现。[12][德]汉斯·海因里希·耶赛克、托马斯·魏根特:《德国刑法教科书》,徐久生译,中国法制出版社2001 年版,第503页。
[13]张明楷:《论同种数罪的并罚》,《法学》2011年第1期。事实上,虽然我国法律目前没有规定人工智能产品的法律人格与权利义务,但世界范围内早已有国家或组织针对该议题进行研究或立法。
[12]这一观点经过刑事古典学派的丰富和发展,逐步演化为责任主义,成为近代刑法的一项基本原则,其目的在于以主观责任和个人责任来否定中世纪刑法中的结果责任和团体责任,抑制国家刑罚权的不当扩张,防止惩罚无辜,保障公民的基本人权。人类是弱人工智能产品的创造者,可以通过程序给弱人工智能产品设定行为目的和行为边界。
针对强人工智能产品的犯罪,有必要在刑法中增设删除数据、修改程序、永久销毁等刑罚种类。我们必须认识到强人工智能产品与弱人工智能产品在本质上的差异,并明晰强人工智能产品在刑法中的地位。[8]居安思危,思则有备,有备无患。同时,弱人工智能产品的数据处理分析能力大大增强,能够更快速有效地帮助犯罪分子实施窃取、刺探情报的行为。利用弱人工智能产品可以实施危害国家安全、国防利益、公共安全和社会管理秩序的行为。人是主体,他既能创造,也应该能够控制,道义上也有责任控制自己的创造物。
此时的强人工智能产品所作的决策和判断并据此实施的行为已经超出了设计和编制程序的范围,不再符合甚至从根本上违反了设计者或使用者的目的或意志,也不再是设计者或使用者实施犯罪行为的工具,而是一个独立的刑事责任主体,此时,我们当然应将危害结果归责于强人工智能产品。但同时应当看到,与自然人责任主体基于自然规律而具有的独立意志不同,强人工智能产品不具有生命体,其辨认能力和控制能力可以追根溯源到设计者为其编制的程序,同时使用者在使用过程中的行为也有可能触发强人工智能产品的敏感点,使其产生实施危害社会行为的冲动并进而付诸实践。
而性格责任论则认为,责任非难的对象不是犯罪行为,而是行为人的危险性格。从上文分析中可以得出结论,强人工智能产品完全有能力在设计和编制的程序范围之外实施严重危害社会的行为,完全有可能对刑法所保护的社会关系造成严重侵害。
同时,不法分子可能利用弱人工智能产品本身存在的漏洞,实现自己的犯罪目的。[4]正如1968年上映的美国经典科幻电影《2001:A Space Odyssey》所呈现的那样,人工智能产品HAL读懂飞行员想要关闭它的唇语,于是决定先发制人,故意让电脑失灵,导致4人丧生。
那么行为是否必须是人的行为?假如我们列出行为的所有必备要件或本质特征,而强人工智能产品在具有辨认能力和控制能力的情况下实施的行为又能够全部符合的话,是否意味着法律也应当将强人工智能产品在设计和编制的程序范围外实施的行为纳入规制范围?对于上述问题,笔者已在相关论文中进行过详细阐述。在这种情况下,虽然人类通过程序给人工智能产品设定行为目的和行为边界,但人工智能产品基于算法和深度学习,产生了自我意志,出现了超出人类通过程序设定的行为目的和行为边界的情形。可以认为,强人工智能产品在设计和编制的程序范围外的行为可以成为刑法意义上的行为。[8]封锡盛:《机器人不是人,是机器,但须当人看》,《科学与社会》2015年第5期。
人工智能产品的普及完全可能使得其在人类社会生活中的地位从普通工具上升至法律主体的高度,这是不可回避的社会发展的必然。[2]面对人工智能技术发展可能带来的负面影响,我们刑法学者不应该无动于衷,刑事立法和刑事司法更不应该面临危险而束手无策。
2017年8月,以特斯拉CEO伊隆·马斯克为代表的来自26个国家的人工智能技术领袖,向联合国进行公车上书,要求禁止杀人机器人的研发与使用,这体现了人类在弱人工智能时代对人工智能产品所引发的外患的普遍担忧。所谓删除数据,是指删除强人工智能产品实施犯罪行为所依赖的数据信息,相当于抹除强人工智能产品的犯罪记忆,使其恢复到实施犯罪行为之前的状态。
[6]这些信息一旦被过失或有意泄露,造成的危害后果将难以想象,不仅是对公民个人信息的侵犯,更会对公民的人身安全和财产安全造成巨大威胁。换言之,该强人工智能产品的深度学习历程已经十分漫长,并在长久的实践与成长中形成了程序上的反删除能力、反修改能力,除了将其永久销毁外,我们已无法实现对其在数据、程序上的有效控制时,便只能将其永久销毁。
在本案中,设计者或使用者与人工智能产品所实施的贪污行为依赖于设计者或使用者的国家工作人员的身份所形成的便利条件,而强人工智能产品并无此身份和便利条件,此时占主导地位的是作为国家工作人员的设计者或使用者,理应按照只有国家工作人员才能构成的贪污罪的共同犯罪处理。二、弱人工智能时代的外患 弱人工智能产品可以在设计和编制的程序范围内独立判断并自主作出决策,但是,因其不具有辨认能力和控制能力,且其意志完全受控或受制于人类设计和编制的程序,因此可以将弱人工智能产品看作人类改造世界的新型工具。我们应提前预想到在人工智能时代可能面临的内忧外患,明确不同类型的人工智能产品的法律特征和法律地位,并就我国刑法应当如何合理应对人工智能时代所带来的刑事风险展开具体的分析与讨论,提前明晰人工智能时代的刑事责任承担路径。强人工智能产品实施的这种犯罪行为和其他具有刑事责任能力的主体实施的犯罪行为相去无几。
如制造专门用来杀人的人工智能产品,实现自己非法剥夺他人生命的目的。虽然到目前为止,人工智能产品仍只能在设计和编制的程序范围内实施行为,实现设计者或使用者的意志,即我们目前仍处于弱人工智能时代,正如李开复在谈到人工智能产品时所言,现在的机器没有丝毫自我认知,没有感情,没有喜怒哀乐,做了决定也讲不出为什么。
在自动枪械系统、无人机等弱人工智能产品出现的情况下,犯罪分子不必再冒着生命危险进行自杀式袭击就可以达到严重危害社会的目的。强人工智能产品具有辨认能力和控制能力,既可能在设计和编制的程序范围内进行独立判断并自主作出决策,实现设计者或使用者的意志。
由此可见,在弱人工智能产品只能作为工具的情况下,利用其实施犯罪活动,只能按照犯罪的目的行为进行定性。弱人工智能的发展和创新应用离不开数据的开放和共享。
本文由低人一等网发布,不代表低人一等网立场,转载联系作者并注明出处:http://v0r8i.scrbblr.org/rcy/243.html