刘宪权:人工智能时代的刑事风险与刑法应对 |《法商研究》2018(1)

发布时间:2018-03-15浏览次数:1896


刘宪权

(华东政法大学法律学院教授、博士生导师)

摘要  人工智能时代的到来必将带来风险,其中的刑事风险包括可能使得部分传统犯罪的危害性发生“量变”,可能会导致新的犯罪形式产生,以及人工智能产品可能因为种种原因脱离人类控制,进而实施严重危害社会的犯罪行为。我国现行刑法体系对于人工智能时代有关主体刑事责任的追究具有一定的局限性和滞后性。人工智能产品的研发者或使用者故意利用人工智能技术实施犯罪行为时,人工智能产品只是一种“智能工具”,刑事责任应由研发者或使用者承担。人工智能的研发者或使用者对于人工智能产品造成的危害结果,可能承担过失犯罪的刑事责任,判断标准则是根据研发或使用当时的人工智能技术发展水平,考察研发者或使用者对危害结果是否负有预见义务。面对人工智能时代已经或可能出现的刑事风险,需要对刑法进行一定的修正和完善。增设滥用人工智能罪、确立研发者或使用者的严格责任以及确立智能机器人刑事责任主体地位,是完善我国刑事立法的当务之急。

关键词  人工智能  刑事风险  刑事责任  严格责任

    人工智能的概念其实早在20世纪50年代的达特茅斯会议上就已经被提出,并且在该次会议召开之前的十几年间,人们就已经对此进行了一定范围的研究。应该承认,对人工智能的研究曾一度停滞不前,主要原因在于人工智能无法实现人类对其能够自我学习、自我创造的预想。但是,2016年谷歌公司的阿尔法狗在人机大战中最终以4:1的总比分战胜了围棋世界冠军李世石,人工智能技术正式崛起,并掀起了新一轮人工智能技术发展的高潮。正如几十年前,人类无法预想今天的我们已经完全置身于互联网时代之中一样,现在的我们可能也很难想象未来我们将身处于一个全新的时代——人工智能时代。如今,世界各国都把发展人工智能作为战略发展重点,我国更是提出要举全国之力,抢占人工智能全球制高点。然而,在人工智能快速发展的同时,风险也随之而来。国务院最新印发的《新一代人工智能发展规划》中明确指出,人工智能发展的不确定性可能带来安全风险与挑战,可能会冲击现有的法律与社会伦理,还会带来侵犯个人隐私等问题。针对这些安全风险与挑战,我们需要尽快建立关于人工智能的法律法规、伦理规范和政策体系,全方位形成对人工智能技术的安全管控能力。笔者认为,一个全新时代的到来,对传统的法律理念和原有的法律法规无疑冲击最大,而我们面临的人工智能时代,同样也会给我们带来一系列的法律应对和完善的问题。时下,法学界已经有学者开始对人工智能带来的知识产权、民事责任等问题展开研究,但是对于可能出现的刑事责任问题则几乎无人问津。事实上,面对研发和使用人工智能程序中研发者和使用者实施的或者智能机器人超越人类智慧独立实施的严重危害社会的犯罪行为,刑法绝对不应该无动于衷甚至束手无策。在目前我国刑法尚未考虑到人工智能的发展所带来影响的情况下,笔者希望能够就我国刑法应当如何合理应对人工智能时代所带来的刑事风险展开具体的分析与讨论。

一、人工智能时代的刑事风险


   人工智能时代以人工智能技术的应用为核心,人工智能技术通过模拟人类的神经网络,让计算机系统对数据库进行深度学习,使得计算机系统能够进行分析、判断以及决策。这种高级“智能”在改变人们生活的同时,也必然会引发我们对传统犯罪行为的重新思考。毋庸置疑,人工智能技术研发和应用的过程存在一定的伦理风险、道德风险和法律风险,而对于其中可能存在的刑事风险,我们不能也不应该视而不见。具体而言,笔者认为人工智能时代的刑事风险可以分为3类:其一,可能使得部分传统犯罪的危害性发生“量变”;其二,可能会导致新的犯罪形式产生;其三,人工智能产品可能会因为种种原因脱离人类控制,进而独立实施严重危害社会的犯罪行为。

    (一)人工智能可能使得部分传统犯罪的危害性发生“量变”

    科技的发展给人类社会带来的变化往往具有一定的相似性,这种相似性表现在科技发展在改善人类社会生活的同时也增加了社会的风险。工业革命既使得人类社会大大提高了效率,又使得犯罪工具更加先进。互联网时代的来临同样如此。笔者曾在相关论文中论述过,互联网技术的快速发展虽然不会使得所有传统犯罪都“升级”,但是确实会使得部分传统犯罪的危害性发生“量变”。从工业革命时代到互联网时代,每一次人类社会生活时代的更替都可能使得部分传统犯罪插上科技的“翅膀”。我们完全有理由相信,人工智能在带给人类社会方便快捷高效新生活的同时,也必将增添人类社会的风险系数。一方面就犯罪危害性的“广度”而言,人工智能技术可能使得犯罪行为的危害性覆盖面更“广”。快速发展的人工智能技术已经在社会生活各领域广泛地被应用,越来越多的行业中出现了人工智能的身影。可以预测,在不久的将来人工智能将部分甚至完全替代人类进行某些工作。人工智能在很多方面已经表现出与人类一样甚至超越人类的能力:在医疗领域,人工智能已经可以精准判断肿瘤的位置和大小,并提供相应的治疗方案,并且已经有外科手术机器人参与具体的手术过程;在艺术创作领域,人工智能可以自我创作旋律,使美妙的音乐渗入人类的生活,人工智能创作的诗歌也能慰藉人类的心灵;在工业领域,人工智能早已掀起一场空前的革命,人工智能可以大幅度提高生产过程中的效率,同时人工智能可以充分运用大数据了解客户需求,就连产品本身也处处蕴含人工智能科技,如无人驾驶汽车已经可以行走在大街小巷之中。根据相关部门的规划,未来我国将实现智能制造、智能农业、智能金融、智能商务、智能家居等全方面智能化社会。这些规划无疑让人兴奋、令人鼓舞,但同时也会使人们产生些许担忧并引起我们的警惕。人工智能技术覆盖面如此之广,一旦出现问题,很有可能会造成“牵一发而动全身”的危险局面。如果我们没有准备,那么其后果将是不堪设想的。另一方面,就危害的“深度”而言,人工智能技术可以使得产品全面智能化,也可以使得犯罪工具以及犯罪手段更加智能,因此犯罪行为所造成的社会危害性可能更“深”。例如,不法分子可以通过人工智能学习其他公司的核心技术,进而彻底颠覆该公司的运营。这与传统的侵犯商业秘密类犯罪所造成的危害后果在深度上有着巨大的差距。又如,在证券市场上,如果行为人利用人工智能对数据的深入研究与学习分析能力,快速掌握有利信息,如掌握像高频交易一样的某种技术优势,再利用这种优势造成证券市场秩序的混乱,那么完全可能造成比一般的市场操纵行为更为严重的危害社会后果。

   (二)人工智能可能会导致新的犯罪形式产生

    可以预见,人工智能技术的快速发展除了会使得部分传统犯罪的危害性发生“量变”外,还完全有可能会因新结合点的出现而导致新的犯罪形式产生。

    首先,与大数据滥用结合的新犯罪形式。人工智能的基本原理是利用人工构造的神经网络系统以及一系列编码程序,对大量数据进行深度学习,从而掌握识别甚至决策等技能。从中可以看出,在整个人工智能系统深度学习的过程中,对大数据的利用无疑是非常重要的一部分。由于数据对于人工智能而言犹如水对于人类生命而言重要,因此对人工智能的滥用很有可能就是对大数据的滥用。过去我们一般认为,对数据的利用可能涉及的犯罪类型是非法获取计算机信息系统数据。从最高人民法院、最高人民检察院出台的司法解释可以看出,我国刑法及司法实践侧重于保护用于维护信息系统自身功能的、以访问控制为主要考虑的数据,没有关注数据自身内容属性上的价值与保护的必要性。但是,人工智能时代可能带来新的滥用数据的风险,产生新的滥用数据的犯罪形式。数据的集中本身就是一种风险,因为数据越多包含的信息量就越大,不法分子攻击一次数据库就能获利颇多,从而降低犯罪的成本。更令人胆战的是,人工智能技术往往可以得到超出人类预期的结果,一些数据从表面上看可能不包含关键的敏感信息,但是通过人工智能技术分析海量数据,以及对多个数据库进行综合分析,最终完全有可能通过推演得到关键的敏感信息,甚至包括一些威胁国家安全的重要信息。与此同时,由于目前对数据的安全防护手段无法跟上人工智能技术发展的速度,因此也就无法及时针对新的犯罪形式做出预警反应。

    其次,与“欺骗”人工智能系统相结合的新犯罪形式。一方面不法分子可以通过干扰人工智能系统得以逃脱监控或制裁。人工智能具有识别和决策功能,一旦不法分子改变或控制人工智能中的算法,完全有可能使得人工智能系统发生识别或决策错误。未来警方会在很大程度上依赖人工智能技术来侦破案件,“人工”的参与度将大大下降,而不法分子只要能够采取一定的手段“欺骗”人工智能系统,就能使自己逃脱法网,从而给社会安全带来更大的隐患。另一方面,不法分子完全可以通过“欺骗”人工智能系统让自己非法的行为“合法化”。我们完全可以想象,未来人类的社会生活是在人工智能系统的覆盖下进行的,人工智能依赖于计算机的算法,而计算机的算法总会存在漏洞。在过去,黑客对系统进行攻击往往可以通过反复调整同一封邮件或图片来“骗过”安全过滤系统,那么在未来,不法分子也完全可以通过“骗过”人工智能系统来从事非法甚至犯罪活动,如开展非法的政治活动等。

    (三)人工智能产品有可能脱离人类的控制而实施严重危害社会的犯罪行为

    智能机器人是人工智能产品的代表。美国科幻作家阿西莫夫曾提出“机器人三原则”,即“机器人不得危害人类、必须服从人类的命令、在不违反第一条和第二条的情况下必须保护自己”。但是,这样的原则真的能保证智能机器人不伤害人类吗?就连阿西莫夫自己在多部作品中都塑造过智能机器人脱离人类控制的场面。在著名科幻电影《2001太空漫游》中,机器人设计杀死了飞船上的科学家们,这种场景很有可能在未来会真实地出现在人类的社会生活中。一旦智能机器人因为深度学习而产生自主意识和意志,并在自主意志支配下实施不在人类设计和编制的程序范围内的犯罪行为,那么智能机器人可能就需要面临刑事责任的承担问题。在现行法律体系下,需要承担刑事责任的只有一般自然人和单位。与自然人相比,智能机器人虽然没有生命,但是却拥有和人一样的辨认能力与控制能力,完全有可能成为刑事责任的承担主体。同时应当看到,智能机器人有一定的特殊性,即具有两面性:一方面在设计和编制的程序范围内实施行为,其实现的是人类的意志,无法决定自己的行为目的,对自己实施的行为不需要承担相应的责任;另一方面,智能机器人在设计和编制的程序范围外实施行为,实现的是自己的意志,与其他具有刑事责任能力的主体实施犯罪行为的情况并无二致。一个自然人从出生到死亡可以看做是一种“纵向”的刑事责任能力递增的过程,即不满14周岁的不具有刑事责任能力,已满14周岁不满16周岁的具有限制刑事责任能力,已满16周岁的就具有完全刑事责任能力。而智能机器人从设计和编制的程序内到程序外可以看做是一种“横向”的刑事责任能力的转化过程,即智能机器人在设计和编制的程序内实施行为不需要承担刑事责任,而在设计和编制的程序外实施行为则需要承担相应的刑事责任。笔者认为,人工智能的普及完全可能使得智能机器人在人类社会生活中的地位从普通工具上升至法律主体的高度,因此未来人类社会的法律制度需要针对人工智能技术的发展做出相应的调整。

二、人工智能时代相关主体行为的刑法规制


    虽然以智能机器人为代表的人工智能可以通过深度学习产生自主意识和意志,并在自主意识和意志的支配下实施严重危害社会的犯罪行为,此时智能机器人已经具备刑法中犯罪主体的主要条件,确实需要承担相应的刑事责任,但是无论是从刑法的目的分析还是从刑罚种类分析,通过我国现行刑法对智能机器人直接加以惩罚是难以想象的。同时,在大多数情况下,人工智能是在人类设计和编制的程序范围内进行有关操作,体现的仍然是人类的意志而非自主意志。如果其最终产生危害结果,那么承担刑事责任的似乎应该是人工智能的研发者或使用者。笔者认为,就目前我国刑法而言,可以从故意犯罪和过失犯罪两个方面考虑对人工智能研发者或使用者的行为加以规制。

   (一)行为人故意利用人工智能实施犯罪行为

    科技的发展在造福人类社会的同时也为不法分子带来可乘之机,因而不法分子很有可能利用人工智能技术实施犯罪,如具有犯罪意图的研发者完全可以在设计和编制程序的时候植入自己的犯罪计划,使得以智能机器人为代表的人工智能产品帮助自己实现犯罪目的。这种情形属于行为人故意利用人工智能实施犯罪的情形。笔者认为,对于故意利用人工智能技术研发或使用相应产品实施严重危害社会犯罪的,应当将人工智能产品看作行为人实施犯罪的“智能工具”,所有刑事责任应当由人工智能产品的研发者或使用者承担。以智能机器人为例,不法分子为了实现自己的杀人意图,设计出一个“智能杀手”,“智能杀手”可以通过深度学习,从而自主判断和决定杀人的方式。如果“智能杀手”最终实施了杀人的行为,那么此时全部的刑事责任都应当由“智能杀手”的研发者来承担。其理由是:此时“智能杀手”实现的是研发者的意志而非自己独立的意志。我们承认,智能机器人可能通过深度学习产生自主意识和意志,但即使是在产生自主意识和意志之后,也不是每个行为都能体现自主意志。如果智能机器人是在设计和编制的程序范围内实施行为,那么应当认为此时该行为体现的是研发者的意志。刑法要求犯罪主体具有刑事责任能力的原因在于,拥有刑事责任能力的行为人在实施行为时具有相对的意志自由,即行为人在面临多种行为选择时,可以依靠辨认能力和控制能力具体分析进而做出选择、实施行为。智能机器人在设计和编制的程序范围内实施行为时并没有选择行为目的的自由,“智能杀手”自“出生”的那一刻起,存在的意义就是为了杀人。而有行为选择自由和能实现自主意志的是智能机器人的研发者,其能选择设计和编制不具有非法意图的程序,使得智能机器人不实施严重危害社会的犯罪行为。如果研发者设计和编制了具有非法意图的程序,使得智能机器人实施了严重危害社会的犯罪行为,那么该犯罪行为实现的显然是研发者的意图,因而刑事责任承担的主体也应为研发者,智能机器人本身不需要承担任何刑事责任,此时对于智能机器人在性质上的定位应当是研发者实施犯罪行为的“智能工具”。

     行为人利用智能机器人实施严重危害社会的犯罪行为,可以理解为行为人借助智能机器人的“手”实施了犯罪行为。因为行为人不是“亲自”实施犯罪行为,所以容易发生认识错误的情况。那么,对于此类认识错误如何理解呢?笔者认为,有必要对以下两种情况进行比较和讨论:第一种情况是智能机器人最终无法实现行为人的犯罪计划。笔者认为,此时应当属于行为手段的认识错误,即行为人意欲犯罪,但其使用的手段或精心选择的作案工具无法实现自己的犯罪意图。例如,行为人利用“智能杀手”去杀害甲,但是最终因为程序设计失败,“智能杀手”没有完成杀害甲的任务,此时行为人应当构成故意杀人未遂。这种情况类似于行为人欲毒害他人,但错将白糖当作砒霜,最终没有产生危害结果,应以犯罪未遂加以认定。第二种情况是智能机器人实施的行为与行为人预想的结果有偏差。此时的“错误”属于哪一类错误呢?笔者再以“智能杀手”为例,行为人利用“智能杀手”去杀害甲,其设计和编制的所有程序都是针对杀害甲的计划进行的,但是因为种种原因,“智能杀手”误以为乙是甲并将乙杀害。笔者认为,在这种情况下,这种对于对象的认识错误并不发生在行为人自己身上,而发生在智能机器人身上,此时的情况就好比行为人放狗去咬甲,但狗误以为乙是甲,故将乙伤害的情况。由于产生“误解”的是狗而不是人,因此这种情况不应属于对象错误。“智能工具”产生的认识错误类似于狗产生的“误解”,应该归结于行为人的行为误差,属于打击错误。对于打击错误,笔者认为,在一个行为过程中,如果行为人主观上既存在故意的因素也存在过失的因素,那么应当以故意吸收过失,即以故意犯罪认定。当然,行为人利用智能机器人实施犯罪行为还有可能发生行为对象的认识错误和因果关系的认识错误。由于这两种情况与一般传统犯罪发生认识错误的情况并无二致,因此在此不做赘述。

    可以看出,上述针对行为人故意利用人工智能实施犯罪行为的刑事责任分析,都是建立在人工智能对于行为人而言只是一种“智能工具”的情况下进行的。但是,“使用”人工智能本身可能就存在刑事风险,“使用”过程可能存在的违法行为无法在现行刑法体系下得以规制,如滥用数据的行为。这无疑会成为人工智能时代刑事风险防控中的一个“缺陷”。

    (二)人工智能研发者和使用者的过失责任

    如前所述,由于智能机器人可以通过深度学习产生自主意识和意志,因此智能机器人完全可能实施人类不可控的行为。对此智能机器人的研发者和使用者是否构成相关过失类犯罪呢?过失犯罪以不履行一定的义务为前提,如果不履行预见义务,即“应当预见但没有预见”或“已经预见但轻信可以避免”,那么成立过失犯罪。我国刑法以惩罚故意犯罪为原则,以惩罚过失犯罪为例外,即所有过失犯罪的认定均以刑法规定为限。因此,在现行刑法体系下,对人工智能的研发者和使用者过失实施犯罪行为的刑事责任追究,也必须以刑法有关过失犯罪的规定为依据。

    笔者认为,在人工智能环境下,判断人工智能的研发者和使用者是否对危害结果负有预见义务,需要考虑研发或使用当时的人工智能技术发展水平。其理由是,判断人的能力和行为需要一个相对清晰的标准。可以认为,研发和使用当时的人工智能技术发展水平是一个相对清晰的标准,利用这个标准来判断研发者和使用者是否具有预见义务也相对客观。如果研发者和使用者完全可能利用当时的人工智能技术预见危害结果的发生,那么人工智能的研发者和使用者就负有预见义务。危害结果最终发生的,应当认为是研发者或使用者没有履行预见义务,并且这种不作为与危害结果之间存在因果关系,研发者或使用者成立过失犯罪。人工智能的行为与研发者对程序的设计编制和使用者的使用情况紧密相关。人工智能的研发过程是复杂的,需要经过种种测试与试验才能保证最终产品符合安全标准。如果在检测过程中,研发者“已经预见”人工智能在未来使用过程中可能导致危害结果的发生,但可能因为试验显示该情况的发生概率较低等原因,研发者轻信这种情况可以避免,那么研发者成立“过于自信的过失”。如果在检测过程中,研发者因为没有全面检测等原因“没有预见”危害结果的发生,但实际上如果全面检测是可以发现人工智能存在缺陷的,那么研发者成立“疏忽大意的过失”。同样地,如果使用者在使用人工智能的过程中没有按照相关说明操作,最终导致危害结果发生的,那么应当按照具体情况认定成立“过于自信的过失”或“疏忽大意的过失”。

    与此同时,法律不强人所难。囿于一定地域内社会历史发展阶段与水平的限制,人类所掌握的人工智能技术完全可能无法彻底消除人工智能的安全风险,亦即人工智能的安全系数与标准的提高还有赖于人工智能技术的进一步成熟。在这种情况下,我们就不应当追究研发者和使用者的刑事责任。对于最终导致的危害结果,可以按刑法中的意外事件处理。人类社会应当鼓励创新。如果因为人工智能技术的相对不成熟就放弃对人工智能产品的研发,那么对于人类社会的进步而言显然是弊大于利的。《中华人民共和国产品质量法》第46条规定:“本法所称缺陷,是指产品存在危及人身、他人财产安全的不合理的危险;产品有保障人体健康和人身、财产安全的国家标准、行业标准的,是指不符合该标准。”国家允许生产机器人并将其投放市场,必须制定人类现有科学技术水平所能够企及的国家标准或行业标准,符合标准的便不属于缺陷产品,其所导致的危险便不属于“不合理的危险”。因此,可以遵循这样的逻辑,即既然对于产品投入流通时的科学技术水平无法发现缺陷的“缺陷产品”尚不能追究其生产者的民事责任,那么,更无从追究其生产者的刑事责任。

    这里还需要探讨的是,如果说人工智能产品具有特殊性的话,那么人工智能产品的研发者和使用者是否因其所处的特殊地位而对人工智能产品的安全负有特殊义务?如果因为没有履行这些特殊义务,并且不存在主观故意,最终人工智能产品造成了严重的危害结果,那么其研发者和使用者是否负有一定的过失责任?研发者和使用者与人工智能产品之间的关系类似于监督与被监督的关系,因而可能有人会考虑以监督过失责任来追究研发者和使用者的过失责任。但是应当看到,我国刑法规定的监督过失责任的一类主体是具有领导职责的负责人。例如,1997年《中华人民共和国刑法》(以下简称《刑法》)第134条规定的“重大责任事故罪”、第135条规定的“重大劳动安全事故罪”中,如果发生重大伤亡事故或造成其他严重后果的,相关主管人员和直接责任人员需要承担刑事责任。监督过失责任的另一类主体是负有特定职责的国家机关工作人员。例如,1997年《刑法》第408条规定的“环境监管失职罪”、第409条规定的“传染病防治失职罪”中,负有“环境保护监督管理”及“从事传染病防治”等职责的国家机关工作人员,因严重不负监管责任,最终导致重大责任事故发生的,国家机关工作人员需要承担相应的刑事责任。一般认为,监督过失责任是一种严格责任(推定责任),只有当存在足够的证据能够证明监督责任主体已经履行相应的监督义务时,才可以免除其刑事责任。因此,追究行为人的过失责任需要以法律的明确规定为前提。根据我国刑法目前的规定,人工智能产品的研发者和使用者似乎不符合关于监督过失责任主体的规定,人工智能产品似乎也不是被监督的主体,因此研发者和使用者不应被追究监督过失责任。由此可见,人工智能产品的研发者和使用者在我国现行刑法语境下似乎不存在过失责任问题,但这可能是刑法在人工智能刑事风险防控方面存在的一种缺陷。

    从上文关于人工智能时代刑事责任的分析可以看出,面对人工智能时代的多重刑事风险,我国现行刑法显得力有不逮。其具体表现包括:无法规制智能机器人的犯罪行为,对研发者和使用者故意或过失犯罪的责任追究也均存在一定的缺陷。我国现行刑法目前存在这些缺陷的原因在于没有考虑(事实上在立法的当初确实很难考虑)人工智能技术快速发展可能带来如此多的安全风险问题,因此按照我国现行刑法的规定,人工智能产品的研发者和使用者的某些行为因不在规制范围之内而很有可能 “逍遥法外”。为确保人工智能技术的安全性,使得人工智能技术真正服务于人类社会,笔者认为,我国刑法很有必要针对人工智能时代所带来的各种新情况做出回应。

三、人工智能时代的刑法完善

  

   为了防止未来出现人工智能脱离人类控制的局面,我国刑法应该重视风险防控。诚如前述,我国现行刑法体系显然无法适应人工智能技术的发展水平,对于人工智能时代可能出现的刑事风险的责任追究具有一定的局限性和滞后性,亟待改造与完善,但是我们也应当看到,刑法的规制对于人工智能技术的发展而言是一柄“双刃剑”:如果过多地干预人工智能的研发或使用,那么可能会阻碍人工智能技术的创新和发展。由于刑事立法活动需要尊重客观规律,因此刑法对于人工智能产品研发或使用行为的规制应当保持一定的谦抑性,既要严格防控人工智能技术被滥用的风险,又不能阻碍人工智能技术的创新和发展。笔者认为,未来我国刑法可以考虑从以下几个方面进行改造。

    (一)从源头防控风险:增设滥用人工智能罪

    对人类社会而言,人工智能时代的到来同时也意味着人类已经开始面临人工智能的安全与风险问题。就风险防控而言最佳的选择就是从源头进行防控,亦即杜绝一切滥用人工智能技术的行为。笔者认为,可以适时增设滥用人工智能罪,以加强对滥用人工智能行为的刑法规制。其理由如下:

    首先,滥用人工智能行为已触犯公民最宝贵的核心利益,即人类社会的安全问题,刑法需要对其加以特别规制。笔者在上文已多次提及,人工智能技术在拓宽人类视野,给人类社会带来福音的同时,也为人类社会装上了一颗“不定时炸弹”,即人工智能产品存在脱离人类控制的风险。排除这颗“不定时炸弹”最好的方式就是不让其有随时爆炸的风险。就人工智能技术而言,就是让人工智能产品的研发与使用过程始终在安全边界范围内进行。人工智能可能使传统犯罪活动发生危害上的“量变”,也可能导致产生新的犯罪形式,甚至智能机器人可能脱离人类的控制而实施严重危害社会的犯罪行为。毫无疑问,如果有行为人对人工智能加以滥用,那么这种行为的社会危害性完全可能是难以控制的,小至公民的财产权被侵犯,大至国家、公共安全受到威胁。笔者认为,在人工智能时代,滥用人工智能行为的社会危害性可能远远超过许多传统的犯罪行为的社会危害性。既然智能机器人可能在自主意识和意志的支配下实施行为,那么也完全可以实施绝大多数严重危害社会的犯罪行为,甚至还有可能颠覆人类社会。尽管这些情形可能只是在滥用人工智能最为极端的情况下才会发生,但是也恰恰说明滥用人工智能的行为可能将人类自身置于十分危险的境地。然而,我国现行刑法对这些严重危害社会的滥用人工智能行为却无动于衷甚至束手无策。为了防止这种情况的发生,我们能做的就是将滥用人工智能的行为尽快纳入刑法规制的范围内,从源头上杜绝人工智能威胁人类社会情景的发生。

    其次,只有刑法的规制才能真正减少滥用人工智能行为的发生,刑法以外法律法规的规制不足以威慑人工智能产品的研发者和使用者,无法起到对人工智能风险的防控作用。刑法对犯罪人权利的剥夺往往是不可逆的,能起到明显的警示作用。因而刑法必须对滥用人工智能的行为加以规制,人工智能风险才有可能得以有效防控。众所周知,刑法是最后一道屏障,立法者应该谨慎扩大犯罪圈,对于某种危害社会的行为,只有在其他法律不足以规制和调整的情况下,刑法才能将其归入调整的范围内并规定为犯罪。我们可以想象,滥用人工智能的行为必然会造成严重危害社会的结果,如果仅仅依靠其他法律法规来规制这种行为显然存在不足,而刑法的介入则成为必要。一旦将滥用人工智能的行为入刑,那么人工智能的研发或使用过程必然变得更加严谨,相应的监管过程也必然更加严密,人工智能的风险问题也会相对缓解。笔者在此强调将滥用人工智能的行为纳入刑法规制的范围,并不意味着可以忽视其他法律法规的作用。事实上,其他相关法律法规也应该针对滥用人工智能的行为做出及时的调整,包括规定人工智能技术的操作规范,滥用人工智能的表现形式等,并在相关法律法规中明确规定,滥用人工智能行为情节严重的,按照刑法的有关规定处理,以实现合理的行刑衔接和民刑衔接。只有这样,对于滥用人工智能行为的规制才能形成一个较为完整和协调的法律体系。

    最后,笔者认为,将滥用人工智能行为纳入刑法规制的范围属于适当的前瞻性立法,是在充分考虑人工智能时代所带来的种种变化后做出的恰当选择。法律只有保持一定的稳定性,才能使得公民对法律权威保持信仰,因而立法活动需要具有一定的前瞻性,即立法活动需要顾及未来人类社会的基本发展情况,从而避免在出现新情况之后朝令夕改的局面。正如上文所述,滥用人工智能行为的客观表现形式多种多样,包括制造危害社会的人工智能产品、滥用大数据、侵犯他人隐私等,涉及人类社会生活的许多方面,未来还将出现其他立法者囿于人工智能技术发展状况而无法全面考虑到的情况。因此,就目前人工智能产品的研发和使用情况而言,直接将滥用人工智能技术的行为作为规制的对象并规定相应的兜底条款是较为妥当的做法,未来可以通过司法解释等作出更加具体的规定,以实现刑法规范稳定性与前瞻性的平衡。

    (二)确立严格责任:增设人工智能事故罪

    除了对故意利用人工智能技术实施犯罪的行为需要加以刑法规制外,笔者认为,由于人工智能可能造成的社会危害性大,并且研发者和使用者在大多数情况下对人工智能产品具有一定的把控能力,因此可以考虑在刑法中确立人工智能产品研发者和使用者的严格责任。承担严格责任以负有一定的特殊义务为前提。由于目前人工智能产品研发和使用过程中的义务体系尚未建立,因此确立研发者和使用者严格过失责任的前提是完善人工智能产品研发和使用过程中的义务体系。虽然科技的发展速度远远超过人类的想象,但是如果尽早做好准备,对其研发过程进行控制,明确生产者和使用者在生产和使用过程中的权利与义务,那么在一定程度上可以避免产生巨大的安全隐患。笔者认为,人工智能产品的研发者和使用者的义务应包含以下几个方面的内容:

    首先,在研发人工智能产品的过程中必须将人类社会中的法律以及道德等规范和价值嵌入相应的系统之中。换言之,必须让人工智能在自主学习的过程中也“学习法律”,从而让其知道什么可为什么不可为。人类创造人工智能的目的是更好地为人类社会服务,为了实现这个目的,我们有必要采取一定的措施使人工智能系统能够更好地融入人类社会之中,而其中最为必要的就是让人工智能在一定的指导下学习人类社会的法律以及道德等规范。一方面人工智能必须掌握人类社会的基础性法律,如刑法能够使人工智能产品有效区分犯罪行为与非犯罪行为。刑法中规定的犯罪行为都是具有严重社会危害性的行为,如果人工智能不能认识到犯罪行为的社会危害性,那么可以想象其在自主意志支配之下很有可能在“不经意间”实施严重危害人类社会的犯罪行为,造成严重的危害后果。另一方面,人工智能还需要掌握与其从事业务密切相关的法律规范。一般而言,人工智能产品具有一定的专业性,即通常用于专门从事一类业务,如外科手术机器人专门用于辅助外科手术过程,翻译机器人专门用于识别和转换各类语言,因此就像专业的业务人员需要了解自己所从事业务中的行业规范一样,人工智能产品既然能够自主判断、操作业务,那么也必须掌握自己所从事业务的法律规范。这一点类似于各行各业新进人员的“岗前培训”,这样的岗前培训有利于人工智能更加专业,并且能在法律规范允许的范围内从事相关业务。换言之,我们需要打造一个真正专业、规范的“业务人员”。应当看到,法律具有一定的行为指引作用,法律规定能够提供一个既定的模式,从而引导人们在法律允许的范围内从事社会活动。因此,让人工智能产品在研发过程中“学习法律”,可以指引其实施正确、合法的行为。

    其次,研发者和使用者需要在研发和使用人工智能产品的过程中履行数据保护义务。人工智能产品的背后有数据库的有力支撑,而数据的集中容易带来数据被滥用的风险,因而作为人工智能产品的研发者和使用者必须尽到一定的数据保护义务,才能避免数据被滥用的风险。人工智能产品的研发者和使用者往往都不是单独的个人,而是公司或团队。对此,笔者认为,在研发和使用人工智能产品的公司或团队中,需要有“数据保护官”,亦即需要有专门的人员从事数据保护的相关工作。如果无专门的人员从事数据保护的相关工作,那么研发和使用人工智能产品的公司或团队可以考虑引入第三方机构来从事专门的数据评估和安全保障工作。

    最后,人类必须能够完整控制人工智能自主武器系统。人工智能自主武器系统是指部分人工智能产品所配备的不需要人类的直接监督和决策即可自动锁定目标并使用潜在武力予以致命打击的系统。正因为人工智能自主武器系统不需要人类对其下达命令即可对外实施武力行为,所以一旦人工智能的算法出错或算法结果不在人类预测的范围内,人工智能自主武器系统实施行为的后果将不堪设想。笔者认为,对人工智能自主武器系统能够做到完整控制需要满足以下几个条件:一是开启人工智能自主武器系统需要得到人类的允许。即使人工智能自主武器系统能够自主实施行为,开启该系统也必须得到人类的允许。亦即只有在特定场合和情形下,人类才允许人工智能自主武器系统使用武力。二是人工智能自主武器系统不能主动伤害人类。如果人工智能自主武器系统能够主动伤害人类,那么就意味着人类随时都有受到攻击的可能。人工智能有深度学习能力,其实施的行为完全可能不在人类的预期范围内。例如,根据阿西莫夫的小说改编的电影——《我,机器人》——中描述过一个场景:智能机器人面对同时落水的一个成年人和小女孩选择救助成年人,因为智能机器人计算出该成年人存活的概率大于小女孩,即使成年人要求智能机器人放弃救自己而去救小女孩,智能机器人依然选择根据计算结果进行救助。由于人工智能做出的判断大多依赖于计算机算法,不包含道德伦理要求以及人类所拥有的情感,因此人工智能产品极有可能机械地根据计算机算法得出人类认为不合理的结果,并根据这个结果选择主动伤害人类,而这是人类不希望看到的。只有人类在研发人工智能的过程中为人工智能自主武器系统设定行为边界,即不允许其主动伤害人类,才能从根源上防止人所不能控制的意外危害结果发生。三是可以随时关闭人工智能自主武器系统。即使人工智能自主武器系统的开启必须得到人类的允许,并且人类设定的程序使得人工智能自主武器系统不能主动伤害人类,也无法完全杜绝不法分子利用人工智能自主武器系统实施犯罪行为。因此,人工智能自主武器系统必须有能够被及时中止的设置,一旦出现危险情况,他人可以立即中止自主武器系统,从而避免危害结果的发生。

    笔者认为,如果人工智能产品的研发者和使用者没有履行上述几种义务,那么人工智能产品的研发者和使用者需要承担相应的严格责任。当然,严格责任确认的前提是前置法律法规已将这部分义务规定在条文之中,而刑法则可以规定不履行相应法律法规中关于人工智能产品研发和使用过程中的规定,造成严重危害结果的,有关研发者和使用者需要承担刑事责任。这种严格责任与滥用人工智能故意犯罪的刑事责任相比应当是较为轻微的。笔者认为,可以通过增设新罪名对人工智能产品的研发者和使用者的严格责任加以确定,如增设人工智能产品事故罪。综上所述,增设滥用人工智能罪是从故意犯罪方面对研发者和使用者的行为予以刑法规制,而增设人工智能产品事故罪是从过失犯罪方面对研发者和使用者的行为予以刑法规制,两者相辅相成,最终可以实现对滥用人工智能行为刑法规制的立法完善。

    (三)适时考虑赋予智能机器人刑事责任主体的地位

    笔者在上文已经提及,智能机器人完全可能具有与人一样的辨认能力和控制能力,也完全可能通过深度学习在设计和编制的程序范围外实施严重危害社会的行为。目前我国刑法规定的刑事责任能力主体只包括自然人和单位,并不涵盖智能机器人。笔者认为,未来在必要的时候,刑法可以考虑赋予智能机器人刑事责任主体的地位。其理由如下:

    首先,智能机器人在设计和编制的程序范围外实施行为实现的是其自己的意志,而意志存在与否对于刑事责任能力的认定有着重要的意义。以单位犯罪为例,一直以来,对于单位应否成为刑事责任主体争论的焦点就在于“单位是否能够像自然人一样,可以实行犯罪行为,可以有犯罪的意识和意志,是否有受刑能力”。德国刑法学界的主流观点认为,由于单位不存在自己的意志,因而不应成为刑事责任承担主体。例如,德国学者费尔巴哈曾指出:“只有个人才能成为犯罪的可能的主体,而法人(如公司、大学或者学院等)决不可能成为犯罪的主体。”然而,也有一些国家认为单位有自己的意志,其意志表现为单位内部所有人的共同意志,因而可以成为刑事责任承担的主体。与单位进行比较可以发现,智能机器人的意志自由程度比单位更强,智能机器人完全可能脱离人类产生独立的意志。对于人类来说,智能机器人是人类模拟自身神经网络创造出来的事物,比世界上任何事物都更类似于人,刑法应当尊重其自由意志,适时考虑赋予其法律上的主体资格。

    其次,智能机器人的行为完全可能成为法律意义上的行为。传统上关于行为的理论包括自然行为论、因果行为论、目的行为论、社会行为论、人格行为论等。这些行为理论无一例外地认为只有“人”的行为才可能成为法律意义上的“行为”。但是,这些理论产生之时,人工智能技术尚未出现,当时的学者无法想象人工智能时代可能出现如此类似于“人”的智能机器人,它们和人类一样可以在自主意识和意志的支配下实施行为。理论随着时代的推演而继续发展,行为理论也应如此。我们应该根据新时代的要求来对智能机器人的行为进行定位。对于一个基于普通故意伤害的被害人而言,被自然人故意伤害与被智能机器人故意伤害并没有什么本质的区别。我们绝对不能认为,被智能机器人伤害的被害人没有受到伤害。笔者认为,智能机器人与自然人的区别仅仅在于自然人是生命体,而智能机器人是非生命体。由于这一区别并不会改变行为的性质,因此在未来的刑事立法中确立智能机器人的刑事责任主体地位并非天方夜谭。

四、结   语


    综上所述,笔者认为,人类既然有能力发明人工智能,那么也应当具有控制人工智能的能力。为了避免出现科幻电影中人工智能脱离人类控制的局面,我们必须重视人工智能的风险防范问题。防范人工智能风险的关键在于把控人工智能产品的研发和使用。目前人工智能产品的研发和使用过程存在多重刑事风险,从源头上对这些风险加以防控或许是一个较为明智的选择。因此,刑法需要在其他法律法规对人工智能产品的研发和使用过程作出具体规定的基础上,将其中严重危害社会的行为纳入规制的范围

[载《法商研究》2018年第1期。编辑时隐去了注释,完整版原文请于CNKI数据库下载]


(责任编辑   田国宝)


法商研究微信公众号