[6]其实,相关立法把机动车撞伤作为工伤标准,本身也存在问题。
虽然尊重和保障人权已经入宪,但还需要解释主体发自内心地接受人权价值体系,将人权价值体系融入对法律的体系思维之中。对已有的研究成果分析之后,笔者认识到,国家尊重和保障人权不仅需要体制、机制、规范等,还需要作为意识形态的人权话语权体系以及尊重和保障人权的思维和解释方法。
![国家射击队奥运场馆“试枪”[组图]](http://qf2qa.onlinekreditetestsiegergerade.org/images/802113.jpg)
法治的核心就是要维护和保障人权。[29]参见张豪:《民事裁判中人权保障》,《北方法学》2007年第2期。这一模式的构成基础包括:(1)在形成方式上,坚持阶段性与演进性的统一。法律的应用就是法律解释。福柯最喜欢使用的一个词是话语构型(discursive formation),其中最深刻的含义也正是需要我们在迷宫般的物化丛林中,用话语来构造出一片天空。
[22]然而,在当前我国的司法、执法活动中,还有一些相关工作人员没有正确理解尊重和人权保障原则的意蕴。言语交际的双向性、动态性使话语权既包括话语言说权,也包括话语解释权。主体与客体之区分即人与物之区分是传统民法理论的基本支柱。
[22][德]卡尔·拉伦茨:《德国民法通论(上册)》,王晓晔等译,法律出版社2003年版,第46页。人工智能终究是人类设计而非自然孕育,没有自身目的,其存在目的由创造它的人来决定,人类根据自己的需要设定人工智能的算法,提供特定的学习数据,规定人工智能的行为模式,人工智能成为达致其创造者目的的工具。人是主体,人工智能是人类追求更美好生活的工具,人工智能科技的发展必须符合人类普遍伦理,尊重人类的主体性,维护人是目的的价值体系,唯有如此,才能实现人类发展人工智能科技的目标。[36]杜严勇:《论机器人的权利》,《哲学动态》2015年第8期。
如此,人类成为认识主体,万物成为人类认识的客体,人认识世界的过程是人的主观意识作用于客观存在的过程,客体唯有被纳入主体意识之内,才能被认识,为此,人具备为自然立法的能力。[8]笔者于本文中仅在私法范畴内讨论法律主体资格(又称私法主体资格)问题。
![国家射击队奥运场馆“试枪”[组图]](http://qf2qa.onlinekreditetestsiegergerade.org/images/7834451.jpg)
第二,人不得被自己和别人当作手段。人具有独立性,不允许他人侵犯和奴役。人的目的不是追求世俗生活的幸福,而是追求天国里的永恒幸福。现代社会诸多风险是被制造出来的风险,[38]正如马克斯·韦伯形象地指出的那样,人类将注定会生活在技术知识的囚室。
作为法律主体,人工智能将与生产者、销售者、使用者等主体共同分担责任,但是它们不会出现人类意义上的过错,需要通过技术鉴定明确其行为性质,而人工智能的运行系统、行为模式等各类参数都是由生产者设计的,这为生产者规避责任提供了机会,可能助长生产者的投机心理,将未经过充分测试的人工智能投入市场,引发恶性竞争,既不利于人工智能产业的发展,也不利于产品使用者的权益保障。戴维斯教授认为,人工智能与法人类似,既然法人可以拥有法律人格,人工智能也应当拥有法律人格。归根到底,目前的人工智能不管怎么说还是程序,这个程序可以编写,可以删除,不同于人类。[26]参见马俊驹《法人制度的基本理论和立法问题之探讨(上)》,《法学评论》:2004年第4期。
人工智能是人类改造世界的高级工具,将其作为法律客体符合人是目的,物是人实现目的的手段与工具的基本定位,有利于人类能动地支配人工智能实现自身目的。[60]法律主体意味着法律权利的享有者和法律义务的承受者,姑且不论人工智能是否实质具有这种能力,享有权利就意味着人工智能可以提出要求,人类必须满足其权利范围内的要求。
![国家射击队奥运场馆“试枪”[组图]](http://qf2qa.onlinekreditetestsiegergerade.org/images/7834452.jpg)
康德道出了人与其他生灵和物质的区别——人具有理性。[19]人因为具有自由意志而具有区别于其他生物的自由,人在每个时刻都可以自由选择,人因此区别于物。
[11]笛卡尔将我思(自我意识)作为认知的起点,将人置于认知主体的位置,凸显了人在认知关系中的主体性。[34]Pompeii Estates, Inc.v. Consolidated Edison Co.,397 N. Y. S.2d 577,580(N. Y. Civ. Ct.1977). [35]参见钟义信:《人工智能:热闹背后的门道》,《科技导报》2016年第7期。[29]王利明等学者指出:社会组织在商品经济社会的实际作用,乃是它们在法律上的主体资格即法人的本质所在。法国哲学家拉·梅特里(La Mettrie)明确地说:人的身体是一架钟表,不过这是一架巨大的、极其精细、极其巧妙的钟表……[2]按照这一逻辑,既然同属于机器,人类具有主体资格,人工智能也应当具有主体资格。康德认为:有理性的生灵叫做‘人,因为人依其本质即为目的本身,而不能仅仅作为手段来使用。人格(persona)是古罗马法创设的概念,具有面具的意思,是罗马社会用以对人进行分阶层以配置社会资源的产物。
[31]参见[德]迪特尔·梅迪库斯:《德国民法总论》,邵建东译,法律出版社2000年版,第814-815页。立法者借此通过对古罗马法人格理论的改造,将人格面具戴到某些‘适于成为交易主体的团体的脸上,使之与其他团体相区别,[33]从而创设了赋予团体人格的法人制度。
团体何以成为法律主体?其与本身即为目的的自然人不同,团体是社会的产物,它被塑造成法律主体并非因为自身是目的,而是作为实现自然人目的之工具,真正的目的仍然在于自然人格。基于这种道德能力,赋予诸如婴儿、胎儿及精神障碍者主体资格理所当然。
人工智能不具有人类情感。[43]同前注[37],司晓、曹建峰文。
因此,讨论人工智能的法律地位,可以从其是否具备主体资格着手。[54]另有学者则指出,对于人工智能独立意志情形下产生的侵权行为,不能完全苛责新兴技术的创造者。人的伦理属性使其享有其他生物不可能享有的自由,人之自由的根本在于意志自由。[16]邓晓芒:《〈纯粹理性批判〉讲演录》,商务印书馆2013年版,第196页。
[55]因此有学者认为,应当借鉴欧盟的立法建议,在法律上承认高度自主智能机器人为电子人,着眼于如何让一台机器为其行为或者疏忽部分或者全部地承担责任。鉴于人工智能的智能性和自主性,可以将高度智能化的人工智能作为客体中的特殊物,予以特殊的法律规制。
[14]人类知识的形成是先天的形式和后天的质料共同作用的结果。现实中,人与物的界限愈发模糊。
[57]俄罗斯《格里申法案》设置了类似法人的机器人-代理人地位,并构建了登记制度使其获得权利能力,但是在责任承担上,明确规定,因机器人-代理人的行为产生的责任由其所有权人或占有人承担(第127.4条第1款)。欧盟和俄罗斯的立法建议稿都提出了分类规制的建议。
在此层次上,人工智能系统会对人类的自主性、自由乃至生存造成更为直接的威胁。只有在商品经济有了一定发展之后,团体才真正有被赋予主体资格的必要。欧盟和俄罗斯均在其关于机器人立法的建议稿中提及赋予高度自主人工智能法律主体地位,但是均未进一步解决作为主体的人工智能如何承担责任的问题,而是将最终的责任承担归于相关人类。[45]在英国,1988年《版权、设计和专利法》明确将无人参与的计算机生成内容视为作品(computer-generated works),不过此类作品权利归属于使计算机获得独立生成内容之能力的主体。
这一判断彻底地将人从上帝那儿解放出来。[27]参见尹田《民事主体理论与立法研究》,法律出版社:2003年版,第151页。
人的存在与发展,具有最高的价值。人工智能不具备人类理性,不可能与人类形成共同的实践理性,不可能理解人类的法律,也不会利用法律。
一旦人工智能有了思维,有了情感,有了自由意志,那么他们算不算人类已经不重要。中世纪,人的存在是为了显示上帝的伟大。