人工智能,从技术角度看,具体指使计算机程序表现出人类智能的技术;从客观角度看,泛指能表现出人类智能的机器和设备。一般认为,智能机器人是人工智能最先进的形式,但并不局限于人形机器人,电影《流浪地球》中的MOSS、2023年引起全球关注的ChatGPT等也都是典型的智能机器人。随着大数据技术的发展,以深度学习、机器学习为基础的传统人工智能技术发展迅速。在此背景下,学界就人工智能能否成为法律主体展开了激烈的争论。对此,笔者持积极观点:无论从哲学、伦理学还是法学角度看,人工智能成为法律主体并不存在理论障碍。
哲学视角
首先,人工智能成为法律主体,并不与马克思主义哲学对“人”的本质界定相矛盾。诚然,马克思主义哲学将人的社会属性界定为社会实践活动,人的主体地位体现在人的社会属性中,但这并不意味着不属于社会关系总和的人工智能不能成为法律主体。由于马克思主义哲学对人的社会属性界定是针对自然人的,人工智能所能享有的法律人格并不与自然人完全相同——以自然人的社会属性为依据就断言人工智能不能享有法律人格,这种说法是难以令人信服的。而且,人工智能的程序运行本身也可以看作是人的活动的延续和表现,其不具备人的价值和实用性的说法值得商榷。
其次,人工智能成为法律主体与哲学领域对人的主体性的理解并不矛盾。人是一个情感、理性、多元要素的复合体,在哲学上,人的主体性被定义为基于需要和自我意识而形成的价值观念。人工智能只能模拟人的某些特定功能,而不能模拟现实中的人,二者有着本质的区别。但也不能以人工智能不具备自我意识为由判定其不能成为法律主体,因为将人工智能的法律人格等同于自然人的法律人格,否定人工智能成为法律主体的合理性,本身就是一个错误的论证。从目前学界的争论来看,正方理论派并不主张将人工智能完全等同于人,即便是理论假设中未来可能出现的具有自我意识的强人工智能,也不能等同于人。尤其值得注意的是,哲学层面对人的主体性的理解,其实仅限于正常的人类。精神病人、植物人和其他无民事行为能力人处于患病状态时,很难认定他们具有心理意识和自我意识,具有遵守法律规范的意志,但这并不影响无民事行为能力人的法律人格。
伦理视角
首先,人工智能成为法律主体并不违背伦理。诚然,以人为本是最高的伦理原则,但赋予人工智能法律人格也并非不道德,因为赋予人工智能法律人格并不影响人的主体地位,更不是把人当成客体,因此不存在所谓的伦理困境。换言之,人工智能成为法律主体的地位,并没有混淆主体与客体,丝毫不会动摇“人是主体”的理论。而且,法律上“人”的主体资格,本质上是一种社会人格,体现的是法律对于特定“人”群体权力与地位的尊重。即便人工智能的这种社会人格是通过算法程序、代码规则来实现的,也是可以被法律肯定的——法律上的“人”本身并不都要求有生理特征,与现实社会中的“人”是两个不同的概念。现代民事立法对法人人格的承认,足以证明民事主体理论已经突破了伦理人的范畴。
第二,人工智能成为法律主体并不会贬低人的主体地位。如前文所述,赋予人工智能法律人格的根本目的是更好地为人类服务,并不意味着具有人类智能的机器应该与“自然人”划等号,因此不会导致人的主体地位贬值。赋予人工智能特定的法律人格是基于功利的考虑和追求人类利益最大化,并非将人工智能从哲学层面上升为“人”,也并非要求人工智能的智能水平和产品外观等同于自然人,而是源于前述社会现实所要求的社会人格,这在一定程度上可以凸显人的主体地位。而且,基于价值的权衡,未来立法可以充分肯定人工智能享有法律人格的同时,肯定人类仍可对人工智能本身享有所有权,从而将其视为客体。
法律视角
首先,人工智能成为法律主体与法律人格理论并不矛盾。法律人格理论自诞生以来,始终以人为本的思维方式,因此自然人的内涵和外延无法涵盖人工智能,而法律人与其背后的自然人息息相关。而且,具有人类智能的机器,确实只是人类活动的结果,并不具备与自然人相似的由内在感知、观察、判断、选择等一系列复杂行为构成的意向能力,也不具备责任主体所必备的道德良知、伦理道德、规则习惯,更不具备生命力。同时,由于“技术黑箱”的存在,人类确实无法解释相应编码与决策结果之间的因果关系。但上述结论并不意味着赋予人工智能法人资格违法,也不意味着混淆了自动化科学中的工具自动化决策与人的主观性的区别,混淆了人的主观性的本质与人所创造的工具的工作能力表象的区别。因为人工智能的自动化决策是大数据与被人类“喂养”的计算机程序共同作用的结果,两者都是人类智慧的延续与“纵容”,而相应的结果可以解释为“喂养者”和程序员的普遍意图。因为被“喂养”的大数据所蕴含的价值理念是自然人的智慧、心灵、精神性的外在体现,而人类所创造的程序所产生的数字化操作也是源于人类意志的意图表现。从这个角度看,法人的本质是自然人的集合,其所作出的决策是人类意志的直接体现;而且人工智能作出的决策也与人的意志密切相关,这与现有的法律人格理论并不矛盾。
其次,人工智能成为法律主体,并不违背“法律基于人的理性而制定”的法律原则。否定论者认为,人作为利益承载者,会因自身的情绪而做出非理性的错误决策,法律因此而必要;但人工智能不会犯类似的错误,它不具备价值观和道德感的判断能力,其所谓的错误只不过是“执行算法”中出现的“程序漏洞”而已。笔者认为,上述观点将法律视为防止人类犯错的工具,过于片面。例如,法律确认权利归属的功能,与人的错误无关。而且,人工智能的发明本身就是人类理性的体现,法律调整人工智能所产生的相应法律关系,本质上调整的仍然是人与人之间的法律关系,仍然以人的理性为基础。
第三,人工智能成为法律主体与民事主体责任能力理论并不矛盾。消极论者认为,人工智能的责任最终承担者是自然人,赋予其法律人格纯属多余。这种观点显然是错误的:一方面,赋予人工智能法律人格与人工智能能否独立承担责任之间不存在因果关系,不能以人工智能不能独立承担责任为由否定赋予人工智能法律人格的合理性。从现行法律看,个体工商户、合伙企业、个人独资企业等都是法律主体,但其最终承担者并非主体本身。另一方面,从实践看,人工智能并非不能独立承担责任。未来立法完全可以借鉴法人注册资本制度,在赋予人工智能法律人格的同时,通过构建强制责任保险制度,为人工智能独立承担责任奠定财产基础。
第四,赋予人工智能法律人格与现有的法律制度和结构很难说存在严重的冲突。一方面,否定派认为,如果将人工智能视为主体或具有人格属性,那么就必须从根本上改变民法中人与物二分法的基本制度,为人工智能创设除调整现有的人与物之外的第三条基本规则,以调整人工智能的存在。但即便承认人工智能具有相应的法律人格,也并不否定人类本身对人工智能拥有所有权的事实;换言之,法律在肯定人工智能可以享有民事财产权的同时,并没有改变人工智能本身相对于人类的客体属性。这种制度构建并不具备系统性作用,不会对现有的法律制度和结构产生严重冲击。另一方面,一个国家的法律制度和结构本身也处于不断完善的过程中。以维护现有法律体系和结构的稳定性为由否定法律发展的合理性,存在逻辑缺陷,缺乏因果关系。
值得注意的是,否定派也认为人工智能引发的问题在现有法律体系中完全可以得到解决,没必要通过将人工智能框定为法律主体来应对。客观上,通过重构著作权法和侵权法理论,确实可以解决人工智能产品能否获得著作权保护、自动驾驶责任如何承担等问题。但这种理论重构本身,与肯定人工智能可以成为法律主体一样,是对人工智能发展带来的法律问题的一种可选解决方式,前者的合理性并不能否定后者。换言之,在未来立法中赋予人工智能特殊的法律人格,也是社会的现实需要。这种可选路径本身的合理性,不能因为还有其他解决方式而否定。而且,以是否可行需要论证来替代概念的逻辑,本身就是一个逻辑问题,两者之间缺乏因果关系。
综上所述,人工智能成为法律主体并不意味着必须像自然人一样,只能享有有限人格。即在承认人工智能可以享有财产权、可以成为创造主体的同时,仍应承认其属于人类的客观属性。基于特殊的政策考虑,必要时可以参照企业法人资本制度,通过在工厂设置强制责任险的方式来保护人工智能的责任财产。这一立场尊重人工智能的发展趋势,符合未来社会的客观需求,具有法律正当性和立法方案的可行性,本质上是为了人类利益的更好实现。
光明日报(2024年8月16日第11版)