当前位置: 首页 >  首页图片 > 人形机器人不宜被赋予法律人格

人形机器人不宜被赋予法律人格
作者:张艳     时间:2025-09-08

            

 

人形机器人是面向各种非结构化场景时连接数字世界和物理世界的通用终端。这类具有人类外形特征、能够模仿人类行为并实现“情感交互”的智能体,已经引发了关于其法律地位的广泛讨论。

 

 

目前,关于是否应赋予人形机器人法律人格这一问题,学界主要存在肯定说、否定说与折中说三种观点。本文将从宏观维度(人类中心主义视域下的人工智能工具论),中观维度(人形机器人自我意识与意思自治的缺失),以及微观维度(人形机器人享受权利、履行义务与承担责任的法律困境)出发,系统论证否定说的正当性,即:人形机器人不宜被赋予法律人格。

 

人形机器人工具论之探

人类中心主义视域下的人形机器人工具论涉及人类自我理解的命题。赋予人形机器人法律人格本质上是对人类主体性的消解。坚持人形机器人的工具论不仅是对技术本质的清醒认知,更是对人类文明独一无二价值的守护。

无论人形机器人的智能化程度多高、功能如何先进,其本质上仍是人类创造的工具。一旦赋予人形机器人法律人格,将模糊人与机器人的本质界限,动摇人类在社会中的主体地位,进而可能使人类面临被边缘化的风险。从人类根本利益出发,人类中心主义要求所有技术发展与应用均以服务人类为根本宗旨。从这个角度来看,人形机器人的研发与推广旨在提升人类生活便利性、工作效率,以及丰富人类体验。若赋予其法律人格,可能引发资源分配失衡、权益保障错位等问题,进而损害人类自身利益。

从哲学本体论的视角来观察,理应明确人形机器人“为谁存在”这一问题。尽管人形机器人已彰显出“拟主体性”的表象,然而,我们应该始终清醒,人形机器人存在的目的只有一个,即:助力人类享受更加美好的生活。因此,人是目的,而人形机器人只是工具与手段,人形机器人不应当被赋予与人类相同的主体地位。当人形机器人在形式上获得与人类相当的地位时,人类对自身独特性的认知可能将被动摇。

 

自我意识与意思自治的缺失

如果探寻人类具有法律人格的哲学根源,那么“自我意识”就会映入我们的眼帘。康德哲学将人视为目的而非手段,强调自主意识是人格尊严的根基。法律人格的法学根源则深植于民法中的意思自治原则,即:法律主体依自己的意愿从事法律行为,并为此负责。在以上理论框架下检视当前人形机器人的能力本质,可发现其显然与法律人格的哲学与法学要求存在差距。

从哲学层面来观察,意识的有无,构成区分主体与工具的第一道分水岭。意识是生物体能够自主地感知自己存在并对外界做出有目的反应的能力。作为一种主观体验,意识包括自我认知、情感体验、动机驱动等,能够使主体产生“自我”的概念并形成内在的心理状态。尽管人形机器人能够在大模型的助力下达到较高的智能水平,但是需要注意,智能水平不等于自我意识,人形机器人仍然是不具有意识的。从意识产生的机理来看,人类意识与大脑特定区域的活动密切相关,而人形机器人采用的计算机架构与生物神经系统存在差异。从意识的本质来看,意识是生物主体的主观体验和自我认知。然而,对人形机器人来说,即使是到了强人工智能阶段,其所彰显出来的强推理能力与问题解决能力也与意识没有关联,只是基于人类设定的参数量、训练数据的丰富性和模型架构的复杂性所得出的计算结果。

从法学层面来观察,意思自治原则充分体现了法律对于法律主体“决定的价值”的珍视,正是因为法律主体充分享有决定的自由,并且有能力为自己的决定负责,其才有资格成为法律主体,具有法律人格。反观人形机器人,其决策过程本质上是算法对海量数据的优化处理,而非基于意志的审慎判断。与人类的意思自治不同,人形机器人只能依照编程逻辑输出结果。退一步说,即便部分人形机器人具备一定的能动能力,实际上也是依赖于算法,通过计算技术模拟人类的决策,并非真正的意思自治。此外,人形机器人亦无法对其决定承担责任,下文将进行详细论述。

复杂的权利义务与责任网络

法律人格并非简单的标签,而是更深地指向一个复杂的权利义务与责任网络。法律人格意味着法律主体能够行使权利、履行义务以及承担责任。如果将人形机器人纳入这一体系,将面临难以克服的系统性障碍。

首先,人形机器人的权利行使具有虚幻性。权利是法律赋予法律主体实现利益的一种力量,权利主体可自主选择是否行使权利。人形机器人所谓的“权利享有与行使”,本质上是开发者与使用者对算法的操控。这意味着,即便人形机器人能够享有权利,权利的真实归属主体也是人形机器人背后的人类。以人格权为例,即使人形机器人能够享有姓名权、肖像权等权利,这些也并非其固有权利,而是人类设计的结果。此外,上述权利所指向利益的实际享有者仍然是人类。再以财产权为例,人形机器人无法真正“拥有”财产,其名下财产的实际控制权归属于开发者或使用者。

其次,人形机器人的义务履行具有工具性。人形机器人的义务履行是一种通过算法预设的程序化响应,具有被动性与依赖性。被动性意味着,人形机器人履行义务,由人类的预设程序或实时指令所引发,其义务范围、履行义务的方式完全取决于人类的设定。依赖性则意味着,人形机器人的义务履行严重依赖大模型中的算法设置,其决策逻辑完全受限于预设的参数与训练数据。因此,人形机器人履行义务的本质是人类通过技术手段实现自身承诺,故其义务履行具有工具性,人类才是实质意义上的义务承担者。以未来可能具有最高智能水平的家用服务机器人为例,即便人形机器人具有再强的能动与“情感交互”能力,其不过是与消费者签订协议的公司履行义务的媒介与工具,而非履行义务的真正主体。

最后,人形机器人的责任承担具有不可能性。人形机器人无法成为责任主体,否则将导致责任稀释等负面影响。在现行制度下,人形机器人所实施行为的法律责任最终由开发者、生产者或使用者承担。一旦赋予其法律人格,将不可避免地为这些真正的人类主体提供逃避责任的空间。此外,人形机器人亦不具备承担法律责任的现实可能性。一方面,人形机器人不具备独立承担法律责任的经济基础;另一方面,法律责任所蕴含的惩罚功能亦无法对人形机器人发挥实效。当人形机器人对他人造成损害时,无论是刑事处罚还是民事赔偿,都无法对其产生有力的规范效果。虽然欧洲议会曾建议赋予复杂自动化机器人“电子人”身份,但该建议并没有为“电子人”这一法律主体设计相应的担责规则。对于一个无法实际承担责任的主体来说,法律人格只是虚幻的摆设。

综上,人形机器人不具备自我意识与意思自治能力,无法真正行使权利、履行义务与承担责任。赋予其法律人格不仅缺乏法理基础,还可能引发法律体系的混乱。因此,宜坚持人工智能工具论,明确人形机器人作为人类工具的属性,并通过强化开发者责任、建立保险制度等责任分配机制来解决其可能引发的法律问题。唯有如此,我们才能在技术进步与法律稳定之间,找到发展与安全之间的平衡点。

(作者系上海社会科学院法学研究所研究员;本文是上海社会科学院2025年度重大系列课题“上海打造人形机器人产业创新高地的突破路径与制度优化研究”的阶段性成果)