人工智能法律论文

2022-05-15

要写好一篇逻辑清晰的论文,离不开文献资料的查阅,小编为大家找来了《人工智能法律论文(精选3篇)》仅供参考,希望能够帮助到大家。摘要:人作为法律主体其自然权利是自我发现的,智能机器人的权利很可能是与人类不同的演进路径。智能机器人作为一种社会现象,给我们带来了诸如法律与伦理的边界、智能机器人的权利、法律关系的交叠等一系列问题。回应这些问题必须回到法律主体理论设立的初衷,厘清其理论发展历史进程,深入分析智能机器人出现以后对构成法律主体要素的权利主体、义务主体、责任主体带来的冲击。

第一篇:人工智能法律论文

法律人工智能的推理建模路径

摘要:法律人工智能的核心问题是自动法律推理建模。文献表明,推理建模有两种经典路径:一是规则推理建模路径;二是案例推理建模路径。虽然二者分别源自欧洲大陆法传统和美国判例法传统,但事实上无论是在大陆法系还是在判例法系,规则推理建模都是最根本的路径,案例推理路径是作为规则推理建模的补充路径出现的。法律推理建模以自然语言处理为前提,这一人工智能难题决定了法律推理建模的天然难度。大数据驱动催生了法律推理建模的第三种路径——大数据推理建模路径,而且这种路径可以用来弥补前两种路径的不足。虽然这种路径仍处于探索阶段,但已有了一些落地法律应用软件,如我国的智慧法院工程,以及美国的法律应用软件Lex Machina和Ravel等。

DOI编码:10.19667/j.cnki.cn23-1070/c.2020.06.010

一、何谓法律人工智能

“法律人工智能”是法律信息学的主要研究对象。作为一个术语,它源自英文术语“Artificial Intel-ligence and Law”,其直译应当是“人工智能与法”,属于人工智能与法学的一个交叉研究领域,探讨的是人工智能在法律中的应用,因此,我们在此将其译为“法律人工智能”。2019年,维基百科全书英文版将原来的“法律人工智能”(Artificial Intelligence and Law)词条正式更名为“法律信息学”(Legal Informat-ics)。这意味着,法律人工智能不再是一个学科名称,而将作为法律信息学的研究对象而存在,就学科而言,法律人工智能研究被归入法律信息学范畴。所谓法律信息学,根据艾德里兹和奥黑尔的观点,是指信息科学在法律语境中的应用,其中涉及与法律有关的组织机构,如律师事务所、法院和法学院,以及这些组织内部的信息与信息技术用户。

法律人工智能首先是人工智能的一个子领域。根据里士兰、阿什利和路易2003年在《人工智能》杂志上发表的《法律人工智能:一个富有成效的协同创新》一文中所持观点,“法律人工智能”是人工智能研究的一个经典领域,提出了一系列很有趣的人工智能难题,探讨的是人工智能在法律中的应用。根据通常的看法,如果从1987年美国东北大学召开第一届法律人工智能国际会议、法律人工智能学术共同体正式形成开始算起,那么法律人工智能有三十多年的历史。但法律人工智能的核心问题是法律推理的逻辑表示问题,如果从关注“自动法律推理”这一议题开始算起的话,那么至少可以追溯到六十余年之前,在英国国家物理实验室1958年举办的“思维过程机械化论坛”上,梅尔发表了《法律世界的自动化:从法律信息机器处理到法律机器》一文,在这篇具有里程碑意义的文章中,梅尔提出了要用逻辑进行法律信息检索与推理。

然而,如果仅从自动法律推理实现方案来讲,1970年美国匹兹堡大学计算机科学系教授布坎南(Bruce G.Buchanan)与美国巴法罗大学法学院教授海德里克(Thomas E.Headrick)在《斯坦福法律评论》上发表的《关于法律人工智能与法律推理的几点思考》则被视为首个真正的法律人工智能提案,因为他们第一次正式把“人工智能”与“法律推理”关联起来思考问题。正因如此,有学者在谈及法律人工智能的历史时往往从1970年布坎南和海德里克公开发表的那篇论文开始。如张保生认为:“1970年布坎南和海德里克发表了《关于人工智能和法律推理若干思考》一文,揭开了对法律推理进行人工智能研究的序幕。”

不过,要想真正把握法律人工智能的核心,首先必须弄清其上位概念“人工智能”的核心问题所在。人工智能的核心问题是用计算机实现自动推理。1950年图灵(Alan M.Turing,1912—1954)提出了“机器会思维吗”这一著名的哲学问题。在他看来,要回答“机器是否会思维”很难,但我们可以用另一个密切相关的问题来代替这个问题,为此,他设计了一个称之为“模仿游戏”(the Imitation Game)的思想实验。“模仿游戏”是一个三人游戏,由一位男性(A)、一位女性(B)和一位或男或女的询问者(C)组成。询问者待在与A和B不同的房间,其目标是要确定他们两个人的性别。询问者通过标记X(女)和Y(男)来识别他们,在游戏的最后,他将判断“X是A,Y是B”或者“X是B,Y是A”。在游戏中,询问者可以向A和B提问,如“请告诉我你的头发有多长”。在游戏中,A的目标是要让C的识别出错,故他的回答可能是:“我的头发是带状的,最长的一束有九英寸。”为了使询问者不受语音音调等因素的影响,答案应该手写,最好是打字。理想的安排是让电传打印机。当然,也可以由中间人复述问答方式进行。B的游戏目标是给询问者提供帮助。对她来说,最好的策略可能是给出真实的答案,比如,“我是女人,不要相信他的话”,但她的回答可能无济于事,因为A也可以这样回答。现在我们思考一个问题:“在游戏中,如果我们用机器代替A时会怎样?”在同样的游戏中,询问者会像与人类游戏过程中一样经常做出错误的判断吗?这些问题取代了“机器会思考吗”这一原来的问题。通俗的说就是,当一个人与某个智能体进行交流时,竟然可能无法识别他是否只是一台机器。

这种测试机器是否会思维的方法如今被称为“图灵测试”(the Turing Test),通常被认为是人工智能的第一個哲学方案。但在冈德森(Keith Gunderson)看来,其实笛卡儿早在1668年就提出了类似图灵测试的想法。在笛卡儿看来,即便存在与我们身体相似的机器,并且为了所有实践目的尽可能地模仿我们的行为,我们仍然应该有两种非常确定的方式识别出它们:首先,它们无法像我们一样为了向他人传达自己的想法而使用语词与符号。我们肯定能够设想一台机器能够发出的声音,甚至发出与引起人体器官变化的身体动作相对应的声音……但我们无法想象这种机器哪怕像最愚蠢的人那样,能够产生不同的语词排列方式,对在场的讲话给出适当的、有意义的答案。其次,即使某些机器可能会像我们一样完成某些事情,甚至做得更好,但它们不可避免地在其他机器上却会做不到,这表明它们的行为不是出于理解,而仅仅是出于其装置的处置。尽管理性是一种可用于各种情况的通用工具,但理性需要人体器官采取某些特殊行动。因此,机器实际上不可能拥有足够多的不同类似人体器官的装置,保证其能够以人类理性行事的方式在各种生活偶然事件中行事。笛卡儿对机器是否会思维显然秉持否定态度,而且图灵也只是提出一种检验机器是否会思维的方法,并没有给出明确答案。当然,这也意味着,图灵对机器是否会思维并没有持否定态度。

假如图灵的“机器会思维吗”问题成立,那么人工智能的核心事实上可归结为“机器会推理吗”这一问题。根据弗雷格的定义,逻辑学是关于思维和推理的科学。根据传统逻辑学家的共识,思维形式通常包括概念、判断和推理三类,或者说,词项、命题和推理三类。在逻辑学家看来,推理才是思维形式的核心概念,从弗雷格的逻辑学定义也可以明确看到这一点。于是,“机器是否会思维问题”就转变成了“机器是否会自动推理问题”。可见,自动推理的实现问题便是人工智能的核心问题。相应地,法律人工智能的核心问题就是自动法律推理的实现问题。从法律人工智能发展史来看,法律人工智能领域中自动法律推理建模有两种经典路径:一是规则推理路径;二是案例推理路径。然而,大数据时代的到来却催生了第三种推理建模路径,即大数据推理建模路径。不过,这一路径目前尚处于形成之中。

二、规则推理建模路径

在法律人工智能中,规则推理建模的本质上就是将法条表达为机器可理解的法律知识库,供自动法律推理引擎随时调用。毫无疑问,对于成文法系来讲,这应当是一种主流建模路径。《法律人工智能杂志》主编阿什利(Kevin Ashley)认为,法律首先是一个规则领域,许多法律规则体现在法律与法规中。既然规则可以从逻辑上进行表达,而计算机可以执行演绎推理,那么,从计算上建模成文法推理应该很容易。只需向计算机程序输入一个事实情节,程序就会识别相关规则,判定规则的条件是否得以满足,并根据规则提供解释或给出答案。然而,建构法律成文法律推理的计算模型却遇到了严峻的挑战,因为通常情况下成文法是模糊的,在语义和语法上是含混的,受制于结构上的不确定性。假如某个计算机程序要应用一个法条,那么它应该应用哪种逻辑解释,如何处理法律术语的含糊性和模糊性,或者如何判定是否有例外呢?这些都是规则推理必然要面临的挑战。

尽管如此,法律人工智能研究首先还是从规则推理进路开始的。该进路有两项早期贡献:一是1981年兰德公司民事司法中心沃特曼(Donald Waterman)和彼得森(Mark Peterson)建立的一个专家系统,用于解决侵权法中产品责任案件的法律裁定,该系统是规则推理建模路径的第一个尝试。二是1986年伦敦帝国理工学院的塞科特等人用逻辑编程来建模《英国国籍法》的某些部分,建立了一个庞大的独立法条体系。此外,在该进路中,特别值得关注的是,1984年斯坦福大学计算机学院加德纳的博士论文。这是法律人工智能领域的第一篇博士论文,加德纳系统地给出了规则推理建模路径,其关注的问题是“当规则运行”时会发生什么,也就是,当规则前件使用了一个未用其他规则定义的谓词时,特别是涉及语词专业含义与常识含义之间关系的法律概念与问题所固有的开放结构时,会发生什么。《法律人工智能》(Artificial Intelligence and Law)杂志创办者伯曼(Donald Berman,1935—1997)在1985—1989年期间关注的焦点就是规则推理建模路径。他提出了一个分类路径,并解释了为什么需要每种系统及其之间的区别,这些系统包括预测系统、规范系统等。

规则推理(rule-based reasoning),直译应为“基于规则的推理”,是法律推理的最重要类型。在规则推理中,我们会接受某条规则并将其应用于一组法律事实,而且这种推理通常被认为是演绎的,也就是说,只要所有前提均真,就必然推导出其结论也为真。其中,规则可是法条,也可以是既有案例。在纽曼看来,每条规则都可能包含四个要件:(1)一组被统称为“检测”的要素;(2)所有要素都出现并满足了检测时的结果;(3)一个用来判定结果是属于强制性的、禁止性的、任意性的还是陈述性的因果术语;(4)一个或一个以上的例外,也即即便所有要素均得以满足,结论仍然会被击败。其中,前三个要件相互独立,且对于每条规则来讲都是必不可少的,而只有部分规则会涉及第四个要件。例如,如果被告的行为是蛮横、故意的而且导致了原告严重的精神痛苦,即成立故意精神损害。如果本案事实满足了规则的所有要素,那么该规则得以满足。比如,某男给前女友深夜打了好几次电话骚扰她(即蛮横的故意行为),而且这导致她遭受了嚴重情感伤害,那么就成立故意情感伤害了。

规则即作出裁定的公式。法律人工智能建模的首要工作就是法律知识表示,即将法条和案例知识表示为可计算的法律知识库,为自动法律推理提供基础法律知识库。纽曼区分了四种类型的规则:(1)强制性规则,亦称“义务性规则”,主要涉及“应当”型或“必须”型法条,如“犯罪嫌疑人、被告人因经济困难或者其他原因没有委托辩护人的,本人及其近亲属可以向法律援助机构提出申请。对符合法律援助条件的,法律援助机构应当指派律师为其提供辩护”。(2)禁止性规则,主要涉及“禁止”型或“不得”型法条,如“侦查实验,禁止一切足以造成危险、侮辱人格或者有伤风化的行为”。(3)任意性规则,亦可称“自由裁量规则”,主要涉及“可以”型或“有权”型法条,如“审判未成年人刑事案件,未成年被告人最后陈述后,其法定代理人可以进行补充陈述”。(4)陈述性规则,主要涉及“是”型法条,即不带模态词的法条,如“明知自己的行为会发生危害社会的结果,并且希望或者放任这种结果发生,因而构成犯罪的,是故意犯罪”。“因果术语”是规则的核心要件,它是区分强制性、禁止性、任意性和陈述性规则的标志。强制性规则是要求某人做某事,其因果术语标识词常常是“必须”或“应当”;禁止性规则是强制性规则的对立面,规定的是禁止某人做某事,其因果术语标识词是“不应当”“不得”“不许”等;任意性规则是赋予某人做某事的权力,被授权者做某事拥有自由裁量权,绝非非做不可,其因果术语标识词常常是“可以”或“有权”;陈述性规则只是陈述了某事为真,似乎不太像规则,但我们已经熟悉了陈述规则及其后果,其因果术语标识就是没有模态词,这种规则就是用实然语句来表达的。早期,纽曼只区分了前三种规则类型,后来才增加了第四种类型。事实上,某条具体规则到底属于哪种类型,有时未必显而易见,因为有些规则初看起来属于某一类,但仔细审视之后却发现它竟然属于另一类。

一方面,规则可以是前向链接(forward-chaining),又称为数据驱动推理(data-driven reasoning),因为它们从数据或事实开始,寻找适用于事实的规则,直到达到目标。另一方面,规则也可以是反向鏈接的,又称为目标驱动推理,因为它们从一个目标开始,寻找适用于该目标的规则,直到得出结论。然而,规则只是一种模式,推理引擎在与数据模式匹配的规则中搜索模式。推理引擎是指在给定情形事实基础上处理规则、案例、对象或其他类型的知识和专业知识的软件代码。大多数人工智能工具都包含着某种推理能力,而且这种推理能力不限于演绎推理能力,还可能是非演绎推理能力,后文中案例推理建模路径就与非演绎推理能力有关。

从推理建模角度来看,规则的一般表达形式是“如果……,除……以外……,否则……”。“如果”表示“当条件为真时”,“那么”表示“采取行动A”,“否则”表示“当条件不为真时,采取行动B”。比如,如果(1)确实发生了抢劫行为,(2)嫌犯身份证明真实,(3)物证真实,且(4)嫌犯没有不在场证明,那么,我们有理由相信嫌犯实施了抢劫行为,否则,就应围捕其他嫌犯。就法律推理建模而言,法律知识表示就是根据前述构成要件将法条与案件表示为“如果……,除……以外,否则……”表示形式,以供推理引擎调用。基于纽曼的观点,这一建模过程大致包括如下“三步曲”:

第一步,将规则拆分成构成要件。具体做法是:第一,列出测评中所需的所有要素,这些要素是规则运算中出现的元素,并对其编号。第二,识别因果术语和结果。第三,如果存在例外,还需要识别例外,如果例外不止一个,那就将它们全部列出并编号。例外亦有其要素,即指在例外的规则运算中必需的元素。需要注意的是,在这一步骤我们无须在意语词的含义,只要把握规则的结构即可,也就是只要将其拆分细化到足以理解第二步即可。以《中华人民共和国刑法》第6条为例:“凡在中华人民共和国领域内犯罪的,除法律有特别规定的以外,都适用本法。”首先,要素为“犯罪”和“在中华人民共和国内”;其次,因果术语为“必须”(根据我国立法语言习惯,这里的“应当”“必须”之类的因果术语常常省略);再次,结果是“适用本法”;最后,例外是“法律有特别规定的”。

第二步,独立审视那些具体的构成要素。在这一步要厘清每个要素、因果术语、结果以及例外的意义。根据法律辞典以及其他相关材料界定每个语词的含义,生成一个面向法律推理引擎的法律辞典数据库。如果现行法律对语词有明确规定,首先必须使用现行法律中的定义,比如,关于商业秘密的定义,《中华人民共和国反不正当竞争法》第9条第四款规定:“本法所称的商业秘密,是指不为公众所知悉、具有商业价值并经权利人采取相应保密措施的技术信息、经营信息等商业信息。”《中华人民共和国刑法》第219条第3款规定:“本条所称商业秘密,是指不为公众所知悉,能为权利人带来经济利益,具有实用性并经权利人采取保密措施的技术信息和经营信息。”必须相应按经济法或刑法的规定判别其意义。当然,这些语词若无现存数据库供调用,也需要定义。

第三步,将规则按有助于推理引擎调用的方式重新整合在一起。有时,需要按照“如果……,除……以外,否则……”形式重新排列意义,使其能被推理引擎所理解。对于许多规则来讲,它们发挥作用的内在逻辑是:(1)何种事件或情形让规则变得可运算?这些事件或情形都是需要检测的要素。(2)当所有要素均出现时会发生什么法律后果?这是因果术语和结果告诉我们的。(3)如果所有要素均出现,是否一定会发生相应的法律后果?也就是说,假如规则存在例外,则要将例外规定计算在内。通常的做法是,把规则重新整合在一起,形成一个流程图,排除某些假定事实,审视规则发挥作用的机制。从本质上讲,流程图就是一个问题清单。从第一步开始我们就可以绘制流程图,因为第一步的早期已经做了图解。图解不仅是要将规则进行分解,使得它能够被机器理解,而且要允许将规则重新整合在一起,使其易于应用。

回到前文的例子,现在假设讨论是否应当适用我国刑法追究某甲刑事责任的问题,那首先就要涉及如下两个要素问题:(1)某甲是否实施了犯罪行为?(2)某甲的犯罪行为是否在中华人民共和国范围内实施?假如两个问题的答案均为“是”,那么,应当适用我国刑法。其次,还要涉及例外问题,即“是否有证据表明某甲的行为属于法律有特别规定的情形”。例如,某甲是否享有外交特权和豁免权的外国人?如果例外问题的答案为“否”,那么,应当适用我国刑法追究某甲的刑事责任(一种结果)。

三、案例推理建模路径

法律推理本质上是一种语用推理,这种推理可靠性评价具有很强的语境敏感性,也就是,不仅要关注其语义和语形维度,还要特别关注其语用维度,如语境要素。它之所以语境敏感,是因为有些法条包含了具有开放结构的术语和概念。这种开放结构具体表现为语义的含混性和模糊性。根据艾伦和恩格霍姆的定义,语义含混性,又可称为语义歧义性,是指涉及一个术语意义的两个明显不同选择之间的不确定性;语义模糊性是指一种涉及术语是指什么和不是指什么的精确边界的不确定性。事实上,含混性、模糊性、歧义性等是自然语言的本质特征,或者说,语义的含混性、模糊性和歧义性是对人类、社会和政治现实的让步。立法者无法设计出足够详细的语言来预测它希望规制的所有可能情形。恰恰相反,在成文法规则中,立法者使用更一般的术语,并依靠司法机关在新的事实情形下解释并应用抽象的术语和概念。因此,要想把握这些法律术语和概念,可以借助案例推理——一种基于先例的语用法律推理。

事实上,伴随规则推理建模进路,20世纪80年代就已经出现了另一种专注于用案例和类比进行推理的研究进路——案例推理进路。案例推理,又称“基于案例的推理”,源自英文术语“case-based rea-soning”。案件推理建模揭示了如何表达法律案例,使得计算机程序(即推理引擎)能够就它们是否与待判决的案件类似进行推理。阿什利认为,这种建模路径是建立在三种方法基础之上的:首先,原型与变异方法,一种基于既往的案例来构建理论并决定的方法;其次,维度与法律因素方法,一种采用常规事实模式来加强或削弱一方关于法律主张或概念的论证的方法;最后,范例解释法,一种根据之前法庭解释“为何适用或不适用法律概念”的方法。

1984年,里士兰和她的学生阿什利首次报告了海波(HYPO)法律论证项目及其维度机制。这项研究源自里士兰早期在基于实例的推理以及数学中的“约束示例生成”方面的工作。海波系统最初关注的是生成假设问题,因此得名,后来阿什利在其博士论文中充分发展一个案例论证程序,成为法律人工智能第一个真正的案例推理系统——海波系统,一个用于帮助诉讼代理人评估美国商业机密法纠纷的计算机程序。在本奇卡鹏看来,自1987年里士兰和阿什利在第一届法律人工智能国际会议上报告以来,海波系统无疑是最有影响的法律人工智能项目,其中,制定了法律案例推理的议程,为法律案例、针对案例推理的规则推理路径以及先例推理的形式化进行了辩护。

海波系统有如下两大特征:首先,它是一个案例推理程序。海波系统利用数据库中的真实案例来分析纠纷问题。给定一个纠纷描述,程序会把问题与相关案例进行比较,挑选出最相似的案例,并在论证中引证它;在问题与先例之间进行简单事实类比,区分先例,引用反例和问题的假设性变体,以帮助诉讼代理人能够聚焦于补强或削弱论证的其他事实。总之,海波系统会将具体的问题情形与案例库中的案例进行系统的比较与对比,找出最相似的案例。也就是我国法律人工智能界常说的“类案推送”。其次,海波系统还是一个对抗性推理器。针对如何裁判新问题,它会提出竞争性论证。换句话说,其任务不是就应当如何裁判提出一个“正确”答案,而是提供竞争性合理答案,为各方提供最佳案例,并针对那些论证进行回应。

海波系统有八大关键要素:(1)案例知识库,一个结构化的真实案例数据库;(2)维度索引,一种使用维度从案件知识库中检索相关判例的索引路径;(3)维度分析,即分析当前事实问题以及从案件知识库中检索相关案例的方法;(4)案例定位,即将问题情形相对于案例知识库中的相关判例进行定位并找到最恰当判例的方法;(5)标杆案件比较,即对案件进行比照与对比以引证、区别或发现反例;(6)提出假设,即打乱当前事实情况以生成用以检验论证强度的假设并凸显具有破坏性的新事实而抹黑既有有利事实的方法;(7)三层论证,即生成用于试运行和调试法律论证并以律师熟悉的方式使用引证标签来描述现有判例强度的三层论证的方法;(8)解释说明,通过引用先例来解释决定及其选择的框架,其中,用三层论证来对先例强度进行批判性比较,并提出对当前事实情形和先例假设变体来证明“若有不同,则会导致不同结论”的关键特征。

海波系统的推理过程涉及八个基本步骤:(1)从维度上分析当前事实情形;(2)从案例知识库中检索相关先例;(3)将当前事实情形相对于检索到的案件进行定位;(4)比较案件并挑选最佳先例;(5)针对引用先例的當前事实情形生成三层论证;(6)启发性或假设性修改当前事实情形;(7)生成所选假设的三层论证;(8)通过展示和比较论证来解释当前事实情形以及所选假设。海波系统的主要输入内容是描述法律纠纷的问题情形。诉讼代理人或助手通过计算机录入问题情形描述。由于海波系统不具备理解自然语言的能力,用户必须使用专门设计的语言来录入表达法律纠纷的问题情形。程序会有一个菜单驱动环境来引导录入过程。海波系统的主要输出内容为:各方可引用的最佳案例概要,引用各方最佳案例并展示代表对方如何回应的论证,以及表明如何修改问题情形以补强或削弱某方论证的假设。

根据本奇卡鹏的总结,海波系统的最重要思想是两个概念:一是维度(dimension)概念,即案件适用或不适用的方方面面。若适用,那么维度代表一个表达价值范围的向量,其中一端完全支持起方,而另一端完全支持应方,在某一点上维度将不再支持起方而开始支持应方。假如有n个维度,我们有一个n维空间,在某些地方支持起方而在另外一些地方支持应方。海波系统的13个维度是:(D1)竞争优势;(D2)垂直知识;(D3)自愿披露;(D4)受限披露;(D5)代价支持协议;(D6)员工通过跳槽获利;(D7)存在明确的非竞争协议;(D8)员工转让产品工具;(D9)关于被告的保密协议;(D10)员工独立开发;(D11)保密协议具体内容;(D12)与被告谈判中的披露;(D13)采取的安全措施。其中,D1和D3两个维度是连续性的,D2、D4、D5、D6、D7、D9、D11和D12均属二元维度,D8属于一元维度,而D6和D10既可能属于一元维度,也可能属于二元维度,D13是一个包括8个要点的枚举范围。二是三层论证概念(3-ply argument)。“三层”分别是引用案例层、回应层和反驳层。首先,一方如起方引用了一个己方找到的案例。该案例应该尽可能地与本案例相似,要切中要点,根据遵循先例原则,所提出的建议是先例决定应该适用于本案,即使该决定成立。其次,应方通过区分(即指出显著的差异,这意味着不应该遵循先例)和引用其能够找到的反例来回应起方,而且反例至少要与起方所引案例一样切题。最后,起方试图反驳应方在第二阶段提出的论证,如:区分反例,强调本案与先例的类似性,表明差异的非决定性,如此等等。

在给出海波系统之后,阿什利与他的另一位学生阿里文合作研发了“卡托(CATO)系统”。海波系统与卡托系统的共同点是都关注美国商业秘密,但不同点是:首先,后者用“因素”(factor)代替了前者的“维度”(dimension);其次,海波系统有13个维度,而卡托系统有26个因素;在海波系统中,案件是用事实(fact)来表示的,而事实是用来判定维度在具体案例中是否活跃,若活跃则根据维度来确定案例的位置;因素虽然与事实相关,但其是分析者根据案例事实来指派的,故卡托系统中的因素只有分析者可见。卡托系统的26个因素包括:(F1)谈判中的信息披露;(F2)贿赂员工;(F3)唯一开发员工;(F4)同意不公开;(F5)协议不具体;(F6)安全措施;(F7)携带工具;(F8)竞争优势;(F10)泄露秘密;(F11)垂直知识;(F12)泄密限制;(F13)非竞争协议;(F14)限制使用材料;(F15)独特产品;(F16)信息反向成为可工程化之物;(F17)信息独立生成;(F18)相同产品;(F19)无安全措施;(F20)竞争对手已知的信息;(F21)了解保密信息;(F22)侵入性技术;(F23)放弃保密;(F24)信息可通过其他渠道获得;(F25)信息逆向工程;(F26)欺骗;(F27)在公众论坛披露信息。需要注意的是,在卡托系统中没有F9,D5也没有任何体现,D13被细化为F6、F19和F27三个因素,而且,相对于海波系统而言,F14、F15、F16、F17、F18、F20、F21、F22、F23、F24、F25、F26这12个因素均是新引入的。由此可见,案件推理系统建模具有高度语境感性,针对不同的领域,所设定的要素或因素均有重大差异。

此外,面向不同法律领域,里士蘭与她的博士生们合作研发了一系列案例推理系统,比如,与斯卡拉克合作的针对家庭办公减税的“卡巴莱(CABARET)系统”以及与斯卡拉克、弗里德曼、丹尼尔斯等人合作的针对个人破产的“银行XX(BankXX)系统”和“斯皮尔(SPIRE)系统”。本奇卡鹏将海波系统之后发展起来的这类案例推理系统称为“超海波系统”,这类案例有时又被统称为“海波风格系统”。里士兰和阿什利提出海波系统的初心就是作为规则推理系统的辅助系统,值得注意的是,卡巴莱系统典型是一个规则推理与案例推理的混合系统。

规则推理建模与案例推理建模有时被视为两种相互竞争的方法。伯曼认为,这两种方法源自不同的愿望:前者更可能产生实际应用,其中的规则不仅取自成文法,还可取自专家的理解;后者更能抓住法律推理的本质所在,因为纯人工智能的一大主要目标就是准确地表示人类智能,表示法律思维,故法律领域中的案例推理研究必须继续。一般说来,规则推理研究进路与欧洲人有关,因为受塞科特等人1986年工作的启发以及民法在欧洲大陆的流行,他们热衷于用Prolog语言与逻辑来表示立法;而案例推理研究进路被认为是美国研究者所选择的进路,因为他们偏爱LISP语言(一种计算编辑语言),而且面对的是极富对抗性的普通法传统。在20世纪80年代的后期,两条进路被视为两种单独进路,其研究倾向于由不同的群体进行,在欧洲尤其为明显。然而,到了90年代,不同进路的研究者们越来越倾向于将两种方法整合起来,前面提及的斯卡拉克和里士兰的卡巴莱系统就是两种研究进路整合的典范,而像本奇卡鹏这样的规则推理研究支持者也意识到需要案例来提供足够条件以能够解释法律条款。

特别值得关注的是,帕肯和沙托尔1998年提出的一种从案例到规则集的简洁整合方法。他们的起点是一个被表示为因素集的案例集及其结果,其中的因素可分为有利于起方的因素和有利于应方的因素,每一个因素都代表一个理由来决定其支持的一方。他们用Fp代表起方最强理由,即在案例中起方提出的所有因素集,用Fd代表应方最强理由,即案例中应方提出的所有因素集,用p和d分别代表起、应双方的决定,那么我们就有两条规则:r1:Fp→p;r2:Fd。假如案例结果表明了哪个理由优先,我们便可增加一条这两条规则何者优先的规则,如r3:r1>r2表示起方赢得了诉讼。他们认为,每个案例都可以用这种方式表示为三条规则,这样整个案例就可以重写为一个起方所找到的规则集,一个应方所找到的规则集和一个二者优先性不完全的集。

四、大数据推理建模路径

规则推理建模路径的逻辑根基是演绎推理,案例推理建模路径的根基是非演绎推理,或者说是归纳推理或类比推理。然而,法律推理的非单调性与可废止性决定了所有前提真并不能保证必然推出结论也为真。把具有单调性和可废止性的法律推理建模建立在具有非单调性的演绎推理基础之上,这种做法本身就值得商榷。不过,面向人工智能的单调推理已经很好地解决了法律推理建模的逻辑根基问题。

如前所述,案例推理建模首先是作为规则推理建模的补充形式而出现的,其目的是用案例来帮助理解法律概念和法律术语。从这个意义讲,无论是规则推理建模路径,还是案例推理建模路径,它们关注的焦点就是从法律规范到法律解释之间的法律解释推理。传统法律推理建模路径显然忽略了诉讼论证博弈的一个至关重要的环节,即从法律证据到法律事实之间的证据推理或事实论证。在法律诉讼中,证据并不等同于事实。在证据与事实之间还存在一种推论关系或支持关系。有人认为,法律可以被描述为一个维特根斯坦意义上的语言博弈。法律诉讼是一种论证博弈,起、应双方的博弈目标就是使己方合法利益最大化,而审方的目标就是维系法律理性,确保司法公正,因此,起、应、审方为了某种原因(如合法性或不利己方诉求)不出示或不采纳某些证据完全正常。大数据推理建模路径也许正好可以弥补两个传统研究进路之不足,因为大数据技术可以使得法律证据更加确凿。

何谓大数据呢?大数据是一个研究如何从数据集中系统提取信息并对之进行处理的领域,其中,这些数据集因为太大或太复杂无法用传统数据处理软件处理。根据福克斯的定义,大数据是需要并行计算工具来处理数据的地方,代表了通过并行编程理论所使用的计算机科学的一种明显而明确的变化,以及科德(Edgar F.Codd,1923—2003)1970年提出的关系模型某些保障和能力的丧失。大数据有许多特征,其中最基本的三大特征是大量、多样和高速。其一,数据量非常庞大。数据的大小决定了其价值和潜在洞察力。大数据之所以量大,是因为它是一种不用随机分析法或随机抽样调查这样的捷径而采用对所有数据进行分析的方法。其二,数据类型多样化。大数据的多样性体现在其来源相当广泛,除来自文本之外,还可以来自图像、音频、视频等,而且通过数据融合还可以显现出其缺失的部分。其三,数据生成速度非常快。大数据的高速主要体现在其实时可用,主要与生成频率以及处理、记录和发布频率密切相关。与传统的小数据相比,大数据涉及更多的维度、更多的属性,从而导致较高的错误发现率。云端数据库可以通过廉价且数量众多的信息传感物联网设备实际收集各种数据,这些设备包括移动设备、航空遥感、软件日记、照相机、麦克风、射电识别阅读器、无线传感网络等。因此,大数据包括非结构化、半结构化和结构化的数据,但主要关注非结构化的数据。根据麦肯锡全球研究院2011年发布的《大数据:创新、竞争与生产力的下一个前沿》报告,大数据的主要构成要件与生态系统是:(1)分析数据的技术,如A/B测试、机器学习和自然语言处理;(2)大数据技术,如商业智能、云计算与云数据库;(3)可视化技术,如图表、图形以及其他数据展示。大数据需要利用数学分析、优化、归纳统计和非线性系统辨识的概念,从低信息密度的大数据集中推断出回归、非线性关系、因果效应等规律,揭示其中的相关关系和依赖关系,甚至对结果和行为进行预测。大数据挑战包括数据抓取、数据存储、数据分析、数据检索、数据共享、数据传输、数据可视化、数据查询、数据更新、信息隐私、数据来源等。

大数据被认为是我们这个时代最大的创新,但也被认为是最大的危险。大数据已经改变了社会科学的面貌,关于它将如何影响社会科学研究的方法论已经有了广泛的争论。法律体系当然也不可能免于其影响。首先,大数据不仅支持着立法与政策设计,同时也是司法、执法过程中政府官员、律师或法官的工具。决策所依据的初始数据都是以完整的实时格式提供的。政策决策效果可以通过数据输出来衡量,数据输出显示了微观层面的变化。大数据使立法者能够在较小的人口中试验和模拟某些法律决定,并即时衡量这些决策对某些产出的影响。其次,法律传统重视法律规则的一致性、稳定性和统一性,而大数据有望为法律提供一种科学证据方法。在大数据驱动的法律体系中,经验分析将取代专家的判断。以刑事判决为例,有人认为“仅仅依靠直觉和经验是不够的”,可能导致量刑不当,甚至可能是不道德的,许多情况下不仅不再需要判决,而且会导向不善的法律实践。大数据要求将数据收集到中央服务器,然后由匿名专家设计的算法进行分析。在某个法律体系中,裁判统一性是一条重要原则,既然相同的算法可以在整个法律体系中运用,那么大数据算法会产生更一致的裁判。再次,大数据标志着行为优化和“个性化法律”的兴起,大规模的数据分析和预测技术被用来制定行为,并生成针对客户或受监管实体的法律指令和建议。在大数据时代,法律应该根据政策目标和人类最佳行为进行校准,这是基于对大量数据的机器分析,从而消除人类的偏见、无能和错误。大数据的出现催生了“大数据范式”。这种范式基于这样一种信念,即理论不再是必要的,因为基于算法的应用数学和统计技术能够“分析”数据并找到最优解决路径,而且比人类程序员做得更好。大数据从理性选择理论中唤起了神话般的全知行动者,在决定行动方向时,考虑了所有可用信息、事件发生的概率以及潜在的成本与收益。

大数据流行与法律经验主义运动有关,如行为法经济学和证据法学。行为法经济学关注的是法律行为人和代理人的偏见和错误,试图提供激励和补救措施,以确保最佳行为,从而使得法律推理和决策过程更加科学、客观和基于证据的做法当然应该受到称赞。这些行为优化举措与大数据一起加速了法律行业自动化和非中介化的趋势。例如,“个性化法律”的趋势是通过为个人提供一种选择,而非聘请专业人士来满足他们的法律需求。事实上,大数据已经开始改变律师事务所的工作方式,它提供了各种工具,其中包括预测法律成本和案件结果、管理合规数据以及降低文件审查成本。大数据也正在律师事务所之外传播,预测建模已改变了法律领域,从金融监管到取保候审以及刑事裁判。从犯罪防控到卫生举措,大数据在地方治理中也很受歡迎。我国智慧法院、智能检务、智慧公安等工程均充分利用了大数据技术。过去在逃人员多会躲到人多嘈杂的地方,因为那些地方最不易被抓捕。如今,那些地方却成了在逃人员最不应该去的,因为那些地方通常都安装了监控摄像头。

其实,无论执法、诉讼、法律决策还是法律文书起草之类的法律适用均可建立在大数据基础之上。比如,美国律商联讯公司(LexisNexis)研发的法律应用软件Lex Maehina以及斯坦福大学法学院与图书馆共同研发的法律应用软件Ravel都是以大数据为基础的。Lex Machina与Ravel底层的逻辑推理几乎是一样的,在自然语言处理算法的帮助下从诉讼文件中提取信息,这些算法有能力进行机器学习,并以一种非常壮观的形式将结果可视化。大数据算法可用于挖掘先例或其他相关数据,以找出变量之间的相互关系,如在法官先前裁判中找到可以预测未来结果的共同因素。在相关法律领域,大数据技术可以发展到这样一个程度,即可以以高度准确的方式预测一个案件将如何做出裁决。

然而,大数据虽然宣称追求客观性和预测能力,但大数据的所谓客观性和预测能力可能被过于夸大了,至少当它被应用于法律系统这样高度复杂的进化系统时是如此。数据总是需要解释,这就需要理论和相应的主观评价判断。此外,大数据的预测能力也是有限的,更不可能预见法律体系从根本上的创造性、非算法的演变。数据本质上是主观的和不完整的,而不是客观的和决定性的。数据未必是中立的、客观的。

大数据推理,又可称为“基于大数据的推理”(big data-based reasoning)或“大数据驱动的推理”(big data-driven reasoning)。从推理建模角度来看,基于大数据的研究与简单统计研究并无不同,它们都是建立在大量的数据基础之上,由计算机执行,并使用统计和数学算法来处理数据。只不过,从方法和概念框架上看,简单统计研究以代表性数据为基础,运用了社会科学、数学和统计概念,而大数据研究使用了数学方法和叙事概念框架;从观察对象上看,简单统计研究涉及的是关于社会现象或文本的数据,而大数据研究涉及的是数据集,而且大多数情况下要将大量文本处理为数据;从观察数量上看,简单统计研究处理的是代表性样本,而大数据研究处理的是总体或数据集;从预测的可信度来看,简单统计研究的比较高,而大数据研究的非常高。作为一种不同于规则推理和案例推理的建模路径思想,大数据推理建模路径最早出现于萨斯坎德(Richard Susskind)2017年7月28—29日在上海百事通通信技术股份有限公司在杭州举办的“法律+科技领军者国际峰会”上的主题演讲。但到目前为止,大数据推理建模尚未正式成为一种法律人工智能的推理建模路径,仍然是一个亟待开拓的法律人工智能领域。

五、余论

人工智能是作为人类智能的对应物出现的,是一种模拟、延伸和扩展人类智能的智能,其目标是让机器像人一样思考。一般说来,人类智能的模拟有两条道路:一是结构模拟,即仿照人脑的结构机制,制造出“类人脑”机器;二是功能模拟,也就是暂时撇开人脑的内部结构,仅从人脑的功能过程进行模拟。前者的目标是要实现通用人工智能甚至超级人工智能,而后者的目标是实现专用人工智能。然而,从技术上,目前人工智能研发都尚处于专用人工智能阶段,主要是从功能上进行模拟,其核心问题就是让机器进行自动推理。法律人工智能也不例外,其核心问题就是探究自动法律推理的实现,让机器像法律人一样思考。自20世纪中叶以来,法律人工智能已形成了一个学术共同体。纵观其学术发展历程,我们不难发现,这一共同体主要聚焦于自动法律推理建模,而这种建模有两条经典路径——规则推理路径和案例推理路径,进入21世纪以来,大数据驱动又催生第三条自动法律推理建模路径,即大数据推理路径,而且还研发出一批落地的法律应用软件或法律机器人,如我国的智慧法院以及美国的Lex Machina和Reval,还有前文未提及但也有一定影响的IBM ROSS法律机器人。然而,根据阿什利的观点,“如果某个法律应用程序能够在进行论证或预测法律结果时考虑到从案例文本中提取的实质性特征,那么这个领域就向前迈出了一大步。Lex Machina、Ross和Ravel使用组合的语料库和从文本中提取信息的技术,很好地完成了这一步,但似乎还没有完成……法律推理的计算模型可以提供帮助。”这意味着,后三个标志性法律人工智能软件事实离自动法律推理实现还有一段距离。

[责任编辑 李宏弢]

作者:熊明辉

第二篇:人工智能时代的法律主体理论构造

摘 要:人作为法律主体其自然权利是自我发现的,智能机器人的权利很可能是与人类不同的演进路径。智能机器人作为一种社会现象,给我们带来了诸如法律与伦理的边界、智能机器人的权利、法律关系的交叠等一系列问题。回应这些问题必须回到法律主体理论设立的初衷,厘清其理论发展历史进程,深入分析智能机器人出现以后对构成法律主体要素的权利主体、义务主体、责任主体带来的冲击。在此基础上,有限度地变动源自对现实生活中的人进行抽象的法律主体理论。法律主体理论的构造,必须回到人的本质以多个面向理解人本身,跳出法律主体的类型化思维,用全方位的方法论思考人与智能机器人之间的关系,并通过立法予以确认。

关键词:人工智能;智能机器人;法律主体理论

当前,人工智能(Artificial Intelligence,简称AI)已经成为国际竞争的新焦点,国务院也于2017年7月20日发布了《新一代人工智能发展规划》,把人工智能发展提高到国家战略地位。人工智能使我们不再去设想如何弯道超车,而是要考虑如何换道超车的问题。科技快速发展,既给人类带来了便利,也增加了风险。“科技行为具有与生俱来的两重性,为防止对科技成果的误用、滥用、非道德使用等所造成的社会危害,必须有相应的法律加以调控,并对受害者给予法律救济。”[1]人工智能和以往的科学技术有着巨大差别,它是一种影响巨大的颠覆性技术,可能会对我们目前的就业结构、社会伦理、国际关系准则等造成极大冲击,不能仅仅依靠单方面的立法进行规制。必须从全方位、多角度、宽领域去深入了解人工智能给社会带来的变化,并完善相关法律理论,在此基础上制定相关法律促进并规制其发展。

深入理解人工智能技术,必须从了解其内涵开始。通过“人工智能”一词,我们就可以联想到它与数字技术相关。人类第一次接触某种新技术的时候,常常是兼具恐惧与兴奋的,特别是对数字技术来说。无论人类社会多么不情愿,数字时代真的来了,并且已经到达了数字时代的高级阶段,即以人工智能为主要特征的阶段。作为计算机科学的一个独特分支,人工智能是从上个世纪50年代中期开始的[2]。时至今日,世界历史已经进入“第四次工业革命”的轨道,人工智能技术也已经发展了60多年,虽然历经坎坷,但也取得了巨大的进展。在很多领域,人工智能已经能够替代甚至超越人类。乔治·戴森(George Dyson)曾说,“我们同机器如同手足”[3]24。“迎接与机器人共处的时代”[4],虽不必过多担忧,但必须对随之而来的法律问题加以重视。

人工智能发展到现在,仍旧很难为其下一个一致的定义。人工智能作为计算机技术领域的一个分支,只能从其一般特征来把握它。按照加利福尼亚大学约翰·塞尔(J.R.Searle)教授的观点,可以把人工智能分为强“人工智能”和弱“人工智能”。 弱“人工智能”是指计算机在心灵研究中的主要价值,只为我们提供一个强有力的工具。强“人工智能”是指计算机不仅是我们研究心灵的工具,而且带有正确程序的计算机确实可被认为具有理解和其它认知状态,恰当编程的计算机其实就是一个心灵。“在强AI中,由于编程的计算机具有认知状态,这些程序不仅是我们用来检验心理解释的工具,而且本身就是一种解释。”[5]当下,在强“人工智能”的概念下讨论人工智能更具意义。从计算机发展之初,人类就面临着是把其看做操作思想符号的系统,还是把其看做是建立大脑模型手段的困扰。越来越类似人大脑的人工智能具有以下特点:其一,它是一种计算机程序;其二,它有较强的数据收集与分析能力;其三,它可以通过不断学习提高自己的能力;其四,它具有物理实体。随着人工智能技术的发展,智能机器人的能力也越来越强,智能机器人“索菲亚”已经成为沙特公民。

智能机器人的出现,在促进人类发展的同时,也给人类带来了一系列法律问题。其一,拷问法律与伦理的边界。智能机器人索菲亚成为沙特公民,使我们不得不去思考智能机器人作为人类活动的参加者,是否可以成为法律关系的参加者呢?“人工智能和道德秩序之间的关系必须区别分析”[6]。这不再仅仅是一个伦理问题,从法律应保护最低限度的道德视角来看,法律必须出场。其二,向人类主张权利。例如,DeepMind公司研究的智能机器人阿尔法狗(AlphaGo),现如今已经进化为AlphaGo Zero,它不再需要人类数据,它可以通过自主学习,掌握技能。法律要授予智能机器人公民身份吗?如果授予当如何行使?“据美国Narrative Science预测,未来15年将有90%的新闻稿件由机器人完成。机器人撰写的稿件,是否享有版权?”[7]其三,导致法律关系交叠。智能机器人有一个自主衡量系统,它们对自己做出许多决定,超出人类提供的指导原则[6]。智能机器人导致他人人身或财产损害,谁来承担责任?就目前来看,既然案件发生以后的责任主體还不能完全归咎于智能机器人,则责任承担者还应该回溯到智能机器的生产者、销售者、使用者亦或第三方服务平台。智能机器人参与行为,会使各种法律关系交叠在一起。“当真正完全的自主智能机器人发生事故、造成损害,证明缺陷、因果关系等事项将成为受害人难以逾越的法律障碍。”[8]智能机器人给人类带来了许多法律问题,究其根本原因在于建构整个法律体系基础的法律主体理论不再牢靠。从根本上解决智能机器人引发的法律问题,需要回溯法律主体发展的历史脉络及其发展逻辑,有限度地变动以人为中心的法律主体地位构造,以回应智能机器人出现所导致的法学难题。
二、法律主体理论的历史演进逻辑

法律主体,是法律关系的构成性要素,即法律关系的参加者,是在法律关系中享有权利、履行义务或承担责任的人或其它类人的存在物。翻阅学界的研究文献,可以了解到学界对法律主体的争论颇多,但是实质性研究较少,可能学界认为,现有的法律主体理论的建构已经十分牢靠,即使有新的存在物出现,也不可能撼动构成法律主体理论体系的大厦,其实不然。智能机器人出现对法学的冲击在很大程度上是对法律主体理论的冲击。法律主体理论作为构成法学理论的最主要内容,确定着法律的适用范围。法律主体不是被动地接受权利,也不是先确定了法律,再去寻找有资格享有法律的主体。法律主体与权利同时产生,相互依存。关于法律主体问题的考量,不仅存在着从人到主体这一漫长的历史维度,人本身的法律形像即人在法域中的自我认知、自我想象和自我再现,同时也经历着若干次重大的变幻[9]。法律主体理论的演进逻辑,是它逐渐地演变为以“人” 的抽象为中心的理论体系,并向类人的存在物扩展,从而成为了支撑整个人类法律体系的核心要素。

(一)法律主体:人的实在到人的抽象

法律主体概念对人的抽象,经历了一个漫长过程。历史上法律主体一开始呈现多种多样的形态,各国的规定也不尽相同,大致包括了人、超自然人、动物、无生命物等。在远古时期,尚未有现代意义上的法律主体,“苏美尔社会本是一个长老主宰的社会,由那些长老、家父统治,国王是这个社会的执政者,这些人以外的其它人,都没有主体资格。”[10]随着人类社会的发展,人的欲望不断增强,逐渐地一些非人的存在物被排除在法律之外,法律主体缩减至平等的单一类型即人自身。特别是启蒙运动以来,启蒙哲学产生的二元对立思维,又为法律主体抽象为人提供了坚实的思想基础,人成为了法律主体的唯一抽象物。“理性,人的理性!赋予人以自然立法。”[11]79“在创造物面前,人们总是习惯将自己置于主人的地位。”[12]“关系是被忽视了,每个人都成了独自存在的人,他是一个在经济上、政治上、道德上从而在法律上自足的单位。”[13]法律主体对人的抽象,不仅使人的多样性消失了,而且导致了理性人的利己现象,最终,法律主体沦为保护人的尊严和利益的工具。法律主体作为法学上的一个重要范畴不能仅仅只为了保护人类的利益而存在,而应该注重人与其它存在物的关系,实现人类自身和社会的良好发展。

法律主体从人的实在到人的抽象,充分体现了人的特征。以人的抽象特征将自然人与其它存在物区分开来。自然人这一概念不区分种族、性别等因素,被平等赋予了所有人。处于政治社会之中理性自然人的行为,要受到法律的规制。“理性不仅是正确的法之认识工具,也是其源泉。”[11]79法律主体抽象为人之后,每个人都有两种身份,一种是生活中各具独特气质的自然人,一种是具有共同特征的法律之上的法律人。只有法律主体,才能为法律行为。作为法律主体的人的行为,是在理性意志支配下的行为。无论行为是否合法,都被认为是人的自由意志选择,是一种深思熟虑的决断。行为人依据法律承担责任,履行义务。随着法律主体以人的抽象为基础,人也就成了连接法律权利与义务的一个工具而已。

(二)法律主体:由人的抽象到类人的拓展

现代法律主体,或曰“法律人格”,是一种行使法律权利、履行法律义务和承担法律责任的资格。主体资格以人的抽象为基础,这种对人的抽象体现出了法律主体的概括性、抽象性、普遍适用性的特征,进而使法律主体资格的开放性成为可能。“从理论上讲,凡是能够参与一定法律关系的任何个人和机关,都可以是法律关系的主体。”[14]主体资格成为了一种符合人的抽象性特征的属性,并演变成为了一种符合某种条件的固定类型,与被赋予法律资格的存在物本身性质并无实质关联。以人的特征抽象出来的法律主体理论,为其它存在物通过拟制抽象成为法律主体提供了可能。法律主体制度具有涤除功能,法律主体在保护和调整意义上是指现实中的所有人,在其抽象的标准范围上,它又是指符合一定条件的人。“法律通过主体制度选取社会生活中的一部分主体,赋予其法律资格,在这些被法律挑选出的主体中,构建法律关系。”[15]只有经过挑选的存在物才能成为法律主体,才拥有参加法律关系的资格,从而享有法律上的权利,承担法律上的义务。法律关系的构成以建立在人的抽象为基础上的法律主体为依托。只有法律主体的行为才被视为法律行为,其权利、义务才能成为法律关系的调整对象。

法律主体的拓展过程,体现为把那些原本在生物学意义上不称为人的存在物,吸纳为法律主体的过程,法律主体逐渐类型化。法律主体发展的第一个阶段,最终完成了法律主体与生物学意义上人范围的重合;第二阶段是从生物学意义上的自然人到法律拟制人即法人的拓展。最早系统规定法人制度的法典是《德国民法典》。《德国民法典》中使用的“人”,是一个形式上的概念。 构成这一概念的必要条件只有权利能力,而不包括行为能力和过错能力[16]。《德国民法典》在“人格”之后规定“自然人格”和“法人人格”,将自然人的权利能力和法人的权利能力统一在“人格”一章,并对法人的成立、登记、法人机关等事项做了详细规定。法人成为法律主体,虽经历了漫长的争论,但承认法人的主体地位已经成为各国法律的共识。承认法人的法律主体地位拟制,是把法人看作是自然人的一种表现,把适用于自然人的法律主体地位的抽象构造适用于法人组织。可以肯定的是,以人的抽象为基础的法律主体地位的构造,不仅可以把法人纳入到法律主体之中,现如今非法人组织、动物等存在物,都可以按照这种类人的抽象,拟制成为法律主体。按照如此逻辑,智能机器人也可以成为法律主体,进而享有法律权利,承担法律义务。现代法律主体的类型化拓展,极大地影响了人对自己的本质的理解。

(三)法律主体:法律理论变动的基础

任何国家的发展,都离不开法律的保障,有法律,就有法律制度的支撑。以人的抽象为基础建构起来的法律主体理论,擎着整个法律体系王国,看似十分稳定,却也风雨飘摇。法律主体理论的变动,往往会对整个法律制度产生深远影响。人类已经获得了充分的现实依据,法律主体制度的发展并不必然会主动发展为一种较好的状况,人类必须主动思考、介入智能机器人带来的法律主體理论发展。法律主体理论是整个法律理论体系的核心,是构成法律关系的基础性要素,它体现着法律的价值追求。法律通过调整主体的意志行为,实现其确认、形成、巩固和发展社会关系的功能。法律主体的内容决定了法律关系逻辑结构,也决定了其呈现的样态。没有法律主体的意志与行为,就无法构成任何法律关系。一切存在物,都要经过法律确认才能成为法律主体,法律决定着法律主体的种类。有法律就有法律主体,只是不同的历史时期和国家对于法律主体的规定不同。智能机器人能不能成为法律主体,也必须经过法律来确认。[HJ]

现代法律的主要表现,就是以人的特征为基础,抽象出法律主体的概念,从而在法律上抹掉人与人之间的差异,实现对现实中人的法律控制。可以说,这是法律现代化的重要成就,也是法治现代化的必由之路。现代社会的法律制度已经相当成熟,特别是启蒙运动以来法哲学思想的发展,人类依据理性建立的这套法律理念体系,在一段时间内相当牢靠。智能机器人的出现,却撬动着这套法律理念体系的根基,进而引起法律制度的深刻变革。从目前智能机器人引发的法律问题来看,变革法律主体理论首当其冲。法律主体理论的变动,往往是法律制度深刻变革的开始。智能机器人给人类带来了新的法律问题,究其根源,就是现有的法律主体理论难以应对智能机器人导致的法律问题。如果说,以人的抽象为基础的法律主体理论,可以吸纳所有存在物的话,那智能机器人也可以被吸纳为法律关系的主体。显然,仅仅从这个意义上把智能机器人吸纳为法律主体,是无法解决智能机器人导致的法律问题的。因为,与其它拓展为法律主体的存在物不同,智能机器人与人的特征高度重合。人类以世界的主宰者自居,智能机器人与人类的关系很可能不再是主仆关系,以人主宰世界为思想基础建立起来的法律体系,将受到极大冲击。


三、智能机器人对法律主体理论的冲击

智能机器人给法学研究带来了机遇与挑战,对滥用的恐惧、对社会不公的恐惧、对机器反扑人类的恐惧……智能机器人无时无刻不冲击着人类最后的安全防线——法律。智能机器人给法学带了一系列问题。深入研究这些问题,最关键的因素在于智能机器人是否可以成为法律关系参加者,从而享有权利和承担义务。回溯法律主体的相关理论,智能机器人的出现对建立在启蒙哲学二元对立思维下以“理性人”为基础的法律主体制度提出了挑战。既然,法人可以拟制为法律主体,为什么与人类更为相似的智能机器人就不能呢?智能机器人拓展成为法律关系主体,如果不是必然的至少也是可能的。智能机器人成为法律关系的主体,也会经历法人成为法律关系主体的类似过程。下面从权利主体、义务主体及责任主体三种角度,分析智能机器人对法律主体理论带来的冲击。

(一)动摇权利主体构造基础

可以预见的是,人工智能时代对权利主体构造基础的冲击,可能是以往任何时代都不可比拟的。“技术发展的速度比人类进化的速度要快得多。计算机按照摩尔定律的速度飞速发展;而人类天生的能力则遵循着达尔文法则,龟速爬行。”[3]47“法的标准,即法的观念本身是人。”[11]490法律主体是法律关系的参加者,主要包括自然人、机构和组织,在特殊情况下国家也可以成为法律关系的主体[17]。“无论建立私法权利的罗马法时代的古老的人权观念,还是近现代成为权利制度道德基础的近现代政治和社会文化中的人权观念,都是以思考人的主体性需要为前提的。”[18]现代法律主体的观念也是建立在启蒙哲学“理性”观念对人进行抽象的基础之上的。这种理性人的形成,极大地促进了人的解放,但作为其代价,“人也因此被抛入了一个从未有过的与整体世界相对立的境地”[19]。作为主体的理性虽试图主宰一切,也陷入了被一切压制的悖论之中。智能机器人正在仿效和改变人的概念,从而冲击权利主体构造基础。智能机器人作为一个人的类似物出现的时候,这种对立将更加紧张。

智能机器人的出现,考验着对人本质的理解。作为法律主体抽象理论的表现,其也可以通过理性抽象,成为法律关系的主体。虽有学者提出,“机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主體资格,在法理上尚有商榷之处。”[20]但按照目前的法律主体理论,法律主体具有向其它存在物拓展的可能,即法律主体资格具有开放性。“法律主体资格的开放性,是指在法律关系的逻辑结构上,其主体类型及主体范围随社会发展可以逐渐扩展。”[15]智能机器人发展成为法律关系主体,如果不是必然的至少也是可能的。法律行为的直接或间接后果,要求我们考虑是“谁”实施了这一行为,作出这一行为的法律主体是否具有责任能力。诸如此类的问题蜂拥而至,其症结在于智能机器人是不是可以成为法律主体。类似人的这些智能机器人,即使可以成为法律主体,它也应该是一种特殊的受制于伦理章程与法律规范的主体,不像自然人那样其主体地位可以先于法律地位存在。但即使智能机器人可以作为权利主体与义务主体,人类要在多大程度上进行让步,让智能机器人成为公法上的主体还是私法上的主体,还是和人类一样拥有相同的权利?这类问题将在法学界引起巨大争议。

权利主体是权利的拥有者和行使者。拥有不等同于行使,拥有在某种意义上是一种资格,行使则是将法定的权利作用于社会现实。法律主体资格发挥着规范市民生活并分配社会生活资源两方面的功能。对于权利主体而言,更为重要的是体现为权利行使。法律主体资格要求法律主体必须具有“实体”要素,包括作为人类社会成员的生物人、以生物人和财产为核心要素的组织体和以目的性财产为核心要素的组织体三种。由此来看,智能机器人至少还无法纳入到这三种核心要素当中。如果要给智能机器人一个合理的法律主体定位,必须对“实体”要素做出变动。随着智能机器人技术快速发展,必须回到人本身来思考法律主体理论面临的困境。回归人类的本质,已成为一种不可阻挡的时代趋势。身体哲学和伦理学的快速兴起,成为其最具代表性的现象。人本质的回归,对抽象理性人的法律主体理论的背离,使自然、他人和社会一道共同推动了法律主体理论观念的更新。

(二)反叛基于人的义务

从现有的观念上来看,法律义务主体一定是人。“所谓义务主体,也就是按照法律规定应该从事某类行为的人。”[21]有法律权利,才会有法律义务,“法律主体的角色在法律上表现为权利主体和义务主体”[22]。现如今,是否赋予智能机器人法律权利尚未可知,讨论其对义务主体的影响是否过早?“法律制度总是滞后的,但是关于法律问题的思考应该是前瞻的。”智能机器人的制造,出于服务于人类生活的目的,可以预见的是未来会有越来越多的机器人进入人类的生活领域。即使将来的法律没有赋予智能机器人法律主体的地位,那么它一定不会成为义务主体吗?“2016年11月,在深圳举办的第十八届中国国际高新技术成果交易会上,一台名为小胖的机器人突然发生故障,在没有指令的情况下,自行打砸展台玻璃,砸坏了部分展台,并导致一人受伤。”[23]由此可见,未来智能机器人,或多或少的会成为人类权利行使的障碍,如此,智能机器人如果不纳入义务主体的范畴,很可能阻碍权利的行使。

权利主体是被法律赋权的主体,有权根据自己的选择自主决定为或不为某种行为。义务主体被法律所约束、限制,依据法律不为某种行为。如果智能机器人在没有被赋予相关权利的情况下需要承担义务,这就使法律权利与法律义务对应的理论陷入了矛盾。虽然没有无权利的义务,也没有无义务的权利,但是实际上义务是保障权利行使的关键。可以说,权利主体每一次行使权利,必须有相应的义务主体,义务主体相对于权利主体来说更为弱势。智能机器人与人类应是和谐共处的状态,在保证人类安全的情况下,才能进行开发和应用。所以智能机器人的行为,不能妨碍人法律权利的行使,即使在它没有成为法律主体的情况下,也要承担相应义务。在将来的社会中,可能不仅我们要处理人与智能机器人的问题,还要处理智能机器人与智能机器人之间的问题。在两个智能机器人之间形成哪种关系,也是必须慎重思考的问题。

(三)解构责任主体

法律责任是违反法律而产生的法律义务。“如果机器人拥有了某些权利,就应该对自己的行为负责。”[24]一个真正意义上的法律主体,必须有能力对自己的行为负责,这是法律责任的预设。法律责任本身构成了法律主体的关键因素,被视为法律主体的存在物不仅享有权利、履行义务,同时还能对自己的行为负责,承担相应的法律后果。所以离开了法律责任,法律主体的规定就没有了意义。智能机器人如果没有被认定为法律主体,那基于“意识”而存在的智能机器人,它至少很难归属于我们目前所认为的法律关系客体。从这个意义上讲智能机器人的出现对于法学经典行为理论“主体—行为—客体”三要素理论带来了极大的冲击。如果不确认智能机器人的法律主体地位,它实施的侵权行为,是其主人的行为,还是它的行为?

智能机器人是否可以成为法律关系的主体暂且不论,问题是智能机器人作为有可能侵害人类人身安全和财产安全的施害者,它有没有承担责任的能力。按照法律责任的相关理论,法律责任由施害者承担。如果不让智能机器人承担责任,这种责任理论就面临着解构的风险。但是如果让智能机器人承担责任,那么在何种意义上它是有责任能力的,它责任承担的方式视为财产形式,还是其它类型?况且它有可能不是法律主体,没有理论依据让其对自己的行为承担责任。如果不让其负责,那么谁要为它的行为负责呢?它的主人可以是制造者、销售者、使用者或者是第三方服务平台,与以往的法律关系相比智能机器人侵权更加复杂,如果智能机器人不负法律责任,可能会牵涉到多方的法律责任主体,并且难以确定。此外,智能机器人之间的侵权行为,如何承担责任?况且智能机器人有可能超出人的控制,进行施害行为,仅仅处罚其主人,是否可以达到惩罚的效果?所以整个责任理论基础,面临着解构的风险。
四、法律主体理论的重新构造

(一)理念基础的回归:审视人的主体理论基础

智能机器人之所以给我们带来这么多的思考,是因为它的出现动摇了何为人本质的这个概念。人类无数次设想过有可以比拟人的存在,但之前的每一次设想都没有智能机器人给我们带来的感受这么深切。人类对人本身的概念模糊了,陷入了一种不自信的状态。可以说很多人都陷入了怀疑论的立场。不以法律规制智能机器人的发展,可能会促使重新定义人类的概念,人类的存在形式有可能发生不可逆转的变化。人类是要保持现在的人类概念,还是要革新到无所谓“人”、无所谓“物”的年代?麻省理工学院、剑桥和伯克利等机构都警告说人工智能会变得如此聪明,以至于超越人,这些设备可能反对他们制造者并接管世界,如果不是破坏世界的话。[6]显然,人类还没有做好改变人的本质的准备,仍然认为由细胞组成的有血有肉的人的本质是一切社会关系的总和。如果想要保持人的概念不变,人类必须保持自信,并清醒地认识自己。

虽然法律主体基于人的抽象是必要的,但是过于对人抽象导致的弊端也逐渐显现出来。特别是智能机器人出现以后,仍然过度地考虑法律主体是人的抽象的理性人的理念,可能会陷入法律主体认定的困境。“形式主义的唯理性无休止的增长直至成为一种系统的唯理性,可它必然会达到一个顶峰,然后物极必反地向下滑落。”[25]8在理解法律主体概念的时候,必须考虑人的其它面相,以更多地區别于智能机器人。如果仍然仅仅把人视为理性的过于抽象的法律主体,那么作为人的其它面相就消失了。应该回到人的本质,更多地参考人的多个面相,构建法律主体的理论基础。人不是仅仅具有身体的一个实体存在,同时也是向他者、与他者共性的存在。智能机器人可以成为法律主体的话,基于我们目前的理解,它也应该是一种法律拟制主体。显然,承认智能机器人的公法主体地位是十分困难的,智能机器人成为私法上的主体是可以预见的事情。马克思曾指出:“ 社会不是以法律为基础,那是法学家的幻想。相反,法律应该以社会为基础。”[26]随着智能机器人带来的社会变迁,我们的法律主体理论也必须做出相应的变化。如果理不清法律主体理论的基础,由智能机器人引发的灾难将是人类难以想象的。

人类的发展是一个不断超越自我的过程,超越着所有世界的认知。“作为一个在实体和关系向度共同作用下的历史的存在,人的存在并不是盲目的,也不是纯利己的,而是有着不断趋向于自我超越和完满,趋向于类的共同本质的实现的公共性。”[24]为了实现人类的自我超越,实现人类共同本质的公共性,必须回到人作为人的本质的场域。人和智能机器人肯定是不同的存在,为迎接智能机器人对人类的挑战,必须回到人类本身,来思考人类自身的问题,以此来区分作为法律主体的人和很有可能成为法律主体的智能机器人。“现在所有人工智能仍属于在‘图灵测试’概念下界定的‘智能’,无论是将要盛行的根据神经网络算法的翻译程序,亦或是基于量子计算理论的各种模型,在未来很长时间内都将是从属于人类的工具。”[27]只要人类依然是处于政治社会中拥有意识,并由血液细胞组成的肉身,那么人类和智能机器人就存在区别,人类必须牢牢掌握自身区别于智能机器人的特征。

(二)法律主体类型思维的破解:全方位思考法律主体理论

现代的一个记号是,它总是从一个极端走向另一个极端,另一个记号是,它必然将一切都加以区分,如真理,法权也是如此[25]8。法律主体理论过于强调理性人的抽象,就会落入这种极端,陷入启蒙运动导致的黑夜之中。现代法律主体理论的这种抽象,使法律主体成为了符合以人为镜像抽象出来的某些特征的类型。法律主体的这种类型化特征,为人类提供了一个法律主体的开放视域。在这种视域内,任何类人的存在物,都可能被我们经验为符合法律主体特征,从而获得法律主体地位。虽然这种经验可能包含着某种历史性、指涉法律主体将来的无限可能性。但是这种类型化的抽象,从诞生之日就遭遇到了一种不幸,即法律主体无休止的类型化拓展。法律主体的这种开放性的拓展特征,奠定了法律主体理论的坚实基础,也使其自身陷入了泥潭当中。随着社会的发展,过于类型化的主体理论可能不太适用,而人与物的本质的区别也可能丧失。

智能机器人的出现使得人类重新思考法律主体范围的扩展或变迁,跳出原有的类型化法律主体思维,以全方位、多角度的思维去思考法律主体理论。用全方位的方法思考法律主体理论,可以深刻把握智能机器人内部构造,促进法律主体价值及伦理观念的变革,重新回到人作为人的本质,为法律主体理论的构造提供一种更为丰富的理念基础。在此基础上,全方位的方法论意义上的变革也是可能的。根植于启蒙哲学的二元对立的法律主体地位的构造,导致了人与一切他者的对立。回归人的本质,让我们更多去思考人与其它事物的关系。“关系的基本特性是相互性,作为关系的一方,任何关系项都不可能是独立存在的。”[28]智能机器人的出现,更加凸显这种关系的相互性,人的活动与智能机器人的活动内在关联在一起,人的发展都处于与其它事物的整体联系之中。在重新思考人的法律主体的定位时,应既强调与人作为法律主体相关的各要素之间的联系,又要重视各要素之间的区别,并考虑各要素之间的关系变化,从而更好实现作为法律主体的人与现实中的人的结合。

智能机器人的出现,使人类必须回归全方位的思考方法,思考人与智能机器人的关系,在区分人与智能机器时,既要看到二者之间的联系,又要看到二者之间的区别。突出人的主导地位的同时,更要反映人的价值与追求,也不能忽视智能机器人的社会价值。人在维护自己的利益,实现对自己超越的同时,也应该注重其它事物的发展。“如果一个社会没有经济增长,那是因为没有为经济创新提供刺激。”[29]国家要促进智能机器人的发展,就要为它的发展提供一种有效刺激。除非符合智能机器人的法律定位是有效率的,否则智能机器人的快速发展不会简单发生。如果在智能机器人领域没有形成一种新的变化,那就是法律制度没有为智能机器人的发展提供创新刺激。一种良好的法律刺激机制,应该建立在全方位思考法律主体理论的基础之上。厘清人与智能机器人的不同之处,智能机器人能不能成为法律主体暂且不论,法律必须对其进行明确定位,一种模糊的界定很难促进其发展。20世纪50年代伊林沃思·莱斯笔下的那幅“自动化”漫画依然警醒着我们,必须处理好人与智能机器的关系。

(三)立法路径的重构:双轨制的法律主体地位构造

任何科学技术的发展都不是以人的意志为转移的,智能机器人作为一种新的科学技术,如果我们拒绝,必将被历史的车轮甩在后边。智能机器人对大多数人来说都是陌生的,甚至是令人恐惧的。法律不应该筑高墙,而应该为人工智能技术保驾护航。应以法律规制智能机器人的发展,透视其引起的法律主体理论的变动,并以法律的形式把它确认下来。“科学技术的发展甚至会促使一套全新的制度发生。例如,近代以来关于商业秘密或专利的知识产权保护制度。”[30]随着智能机器人的不断进步,势必会产生一系列适用智能机器人的具有普遍性和强制性的规则,而人工智能技术的发展也势必会对法律的制定和实施产生深刻影响。要在重新思考法律主体理论的基础上,推进关于智能机器人的立法。纵览我国现行的所有法律,我们还没有关于人工智能机器人立法的相关规定,如何在法律中安置智能机器人,已经成为我们必须面对的社会问题。

智能机器人能不能成为我国现有的法律主体暂且不论,但是至少应该在智能机器人内部形成一套规则,一种具有强制力的规则,并上升为法律,至少在这个层面,智能机器人应该成为法律规制的对象,成为法律關系的主体。规范智能机器人的法律,是适用二元架构的法律类型,还是一元架构的法律类型,在做出选择的时候,我们必须思考发展人工智能技术的目的。真正的智慧应该服务于社会、服务于人类,而不是成为人类的对手。这就需要制定二元架构的法律类型。二元架构的法律类型才能形成智能机器人自身的价值体系。“人工智能法律既具有一般法价值的构成要素,又有着其特殊法的价值内容,从而形成自身的法价值体系。”[20]必须加快推进二元架构的智能机器人立法,填补立法领域的空白。从社会事实来看,制定人工智能的法律时机已经逐渐成熟,可以先制定一个原则性的法律,从基本原则、基本制度上规范智能机器人的发展。例如,《机器人伦理宪章》《欧盟机器人民事法律规则》从原则上对人工智能技术做出规定。然后相应的法律部门,结合不同的人工智能技术带来的法律现象,做出相应的制度规定。从目前人工智能技术的发展来看,其也是由一个领域逐渐延伸到其它领域。因此,逐渐结合人工智能在相关领域可能发生的问题,在对法律理论思考的基础上,制定原则性的规定,及时对具体的法律规定做出调整,是人工智能立法的可循之路。
结语

智能机器人的出现,给一直在试图弯道超车的中国一个换道超车的机会。换道超车,使得中国可以为人工智能的未来制定标准,走自己独特的道路,而不再是去填补其他国家发展的空白,使超越成为可能。智能机器人引发的诸多法学困境,其实都可以归结为对法律主体理论的冲击。如何建构一个良好的法律主体理论,成为当下思考智能机器人问题的重要议题。智能机器人出现以后,建立在启蒙哲学“理性”观念对人进行抽象基础之上的法律主体理论受到了极大挑战。随着历史的发展,其固有的弊端已经充分显现。人类的自然权利是一个自我发现的过程,而智能机器人的权利却需要通过赋权的形式获得。智能机器人不同程度地解构着构成法律主体要素的权利主体、义务主体和责任主体。法律要为智能机器人的发展提供有效创新激励,就必须正确回应智能机器人对法律主体理论带来的诸多挑战。必须回到人本身,丰富人的多个面相,以区别于智能机器人,跳出法律主体的类型化思维,采用全方位的方法思考人与智能机器的关系,并通过制定法律做出相应调整。在不远的将来,一种二元架构的法律类型是可期的。

参考文献:

[1]付子堂. 论知识经济时代法律对科技行为的调控功能[J]. 法商研究,2000(1)∶6.

[2]Rissland, Edwina L. Artificial Intelligence and Law: Stepping Stones to a Model of Legal Reasoning[J].Yale Law Journal , 1990(99)∶1958.

[3]尼古拉斯·卡尔.玻璃笼子——自动化时代和我们的未来[M].杨柳,译.北京:中信出版社,2015.

[4]李宇明.迎接与机器人共处的时代[N]. 光明日报,2017-11-20(12).

[5]玛格丽特·博登.人工智能哲学[M].刘西瑞,王汉琦,译.上海:上海译文出版社,2001∶92.

[6]Amitai Etzioni and Oren Etzioni. Keeping Al Legal[J].Vanderbilt Journal of Entertainment & Technology Law, 2016(19)∶135.

[7]楊延超.机器人来了,法律准备好了吗[N]. 检察日报,2016-06-17(5).

[8]司晓,曹建峰. 论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点[J]. 法律科学(西北政法大学学报),2017,35(5)∶172.

[9]胡长兵. 法律主体考略——以近代以来法律人像为中心[J]. 东方法学,2015(5)∶50.

[10]江山.法哲学要论[M].北京:中国社会科学出版社,2014∶466.

[11]阿图尔·考夫曼,温弗里德·哈斯默尔.当代法哲学和法律理论导论[M].郑永流,译.北京:法律出版社, 2013.

[12]毋国平. 法律主体的内涵[J]. 辽宁大学学报(哲学社会科学版),2013(2)∶115.

[13]庞德.通过法律的社会控制[M].沈宗灵,译.北京:商务印书馆,2010∶73.

[14]舒国滢.法理学导论[M].北京:北京大学出版社,2012∶150.

[15]李萱. 法律主体资格的开放性[J]. 政法论坛,2008(5)∶51.

[16]孙聪聪. 人格作为法律主体的伦理与技术——基于历史进路的考察[J]. 广西大学学报(哲学社会科学版),2015,37(3)∶83.

[17][JP4]付子堂.法理学初阶[M].北京:法律出版社,2015∶174.

[18]龙卫球. 法律主体概念的基础性分析(下)——兼论法律的主体预定理论[J]. 学术界,2000(4).

[19]汪志刚. 生命科技时代民法中人的主体地位构造基础[J]. 法学研究,2016,38(6)∶32.

[20]吴汉东. 人工智能时代的制度安排与法律规制[J]. 法律科学(西北政法大学学报),2017,35(5)∶131.

[21]胡玉鸿. 法律主体的基本形态[J]. 法治研究,2012(10)∶12.

[22]胡玉鸿. 法律主体概念及其特征[J]. 法学研究,2008(3)∶13.

[23]王利明.人工智能的发展对民法的挑战[N]. 法制日报,2017-07-12(9).

[24]杜严勇. 论机器人权利[J]. 哲学动态,2015(8)∶87.

[25]阿图尔·考夫曼.后现代法哲学[M].米健,译.北京:法律出版社,2000.

[26]马克思恩格斯全集(第6卷)[M].北京:人民出版社,1961∶291.

[27]蔡映洁. 人工智能,以法律和伦理为界[N]. 人民日报,2017-08-23(5).

[28]王天恩. 创造性劳动的信息相互性与人的类权利[J]. 天府新论,2017(6)∶2.

[29]道格拉斯·诺斯.西方世界的兴起[M].厉以平,蔡磊,译.北京:华夏出版社,2014∶4.

[30]苏力. 法律与科技问题的法理学重构[J]. 中国社会科学,1999(5)∶66.

【责任编辑:张亚茹】

作者:王勇

第三篇:人工智能开发的理念、法律以及政策

内容摘要:当人工智能因深度学习而从他律系统转化为自律系统,特别是在人工智能网络之间的相互作用及其连锁反应不断进行的情况下,黑箱化和失控的风险会不断增大。“透明社会”与“黑箱算法”,这是数据驱动社会的一对根本矛盾,对国家治理方式的改革提出了新的挑战,也提供了新的机遇。为此,如何对人工智能进行适当的、合理的、充分的规制,确立人工智能开发的规则、伦理以及政策就势必成为极其重要并非常紧迫的一项课题。国务院印发的2017年《新一代人工智能发展规划》提出了人工智能发展的中国式制度安排以及九条主要原则,与国际社会已经形成的基本共识是相洽的;但在不同价值取向发生冲突时,怎样决定取舍的元规则和优先顺序还有待进一步明确。为了在甄别和防范风险的同时保护人工智能开发的积极性和创造性,有必要更多地采取软法方式,而不是简单地提高硬法的惩戒力度。

关键词:数字驱动 风险社会 人工智能网络化 软法与硬法 数据格式标准化

中国分类号:DFO-05 文献标识码:A

“走得太快了,灵魂跟不上”——这是一个游牧部族的古训,也可以用来描述人工智能开发在中国突飞猛进却隐患频仍、局部失序的现状。〔1 〕

从自动驾驶的汽车到机器人运营的酒店,从电脑量刑到高频度金融交易,人工智能已经渗透到经济、政治、社会生活的各个方面,各种新奇事物层出不穷。〔2 〕但是,对由此产生的风险以及必要的对策和规制方式,我们还缺乏足够的认识和深入研讨。人工智能的开发和利用大都还处于高速增长阶段,相关的制度条件尚不完备,在很多重要方面还没有制定明确的、适当的、统一的伦理标准、法律原则、规则、规格以及政策。我们不能让这样的事态长期持续下去,否则将留下严重的后患。2017年7月21日由国务院印发的《新一代人工智能发展规划》已经指出研究相关法律问题和建立问责制度的必要性,提出了一些重要举措。当然,人工智能开发的具体规制方式和规范内容还有待进一步充实、完善。

实际上,艾萨克·阿西莫夫早在1942年发表的科幻短篇小说《转圈跑》中,就曾经提出了关于防止机器人失控的三大定律,即机器人不得伤害人或者对人受到伤害袖手旁观;机器人必须服从人的指令,除非该指令危害到人;在遵循上述两条定律的前提条件下,机器人必须保护自己。〔3 〕后来,为了避免允许机器人劫法场之类的逻辑漏洞,他在《机器人与帝国》中又追加了一条零定律:“机器人不得加害于人类整体或者因为坐视危机而加害人类整体”。〔4 〕这些富于灵感和远见的主张为人工智能开发的规制展现了基本思路和雏形,对后来的制度设计产生了深刻影响,但却不能充分反映当今社会的崭新状况和需求。

为了正确把握人工智能在全世界的发展趋势以及问题群,我们首先需要对产业革命的进程进行简单的回顾。

迄今为止,人类社会经历了四次重大产业革命,采取了不同的基本生产方式。首先是机械化生产方式,由蒸汽机和纺织机的发明而启动,从18世纪后期持续到19世纪前期。其次是电气化生产方式,因电力和石油以及高度分工引发,从19世纪后期持续到20世纪前期。接着以产业机器人的研发为契机,〔5 〕从20世纪60年代开始出现了自动化生产方式,其驱动力量是半导体、电脑以及互联网。就在这个阶段,人工智能的研究开始出现几经起伏的热潮。

初级的人工智能只不过是装载了控制程序的家用电器,例如具有自动调节功能的洗衣机、冰箱以及电动剃须刀。较高级的人工智能则是装载了知识数据库的推理和探索系统,例如象棋程序、扫地机器人以及对话软件。更高级的人工智能搭载检索引擎,可以按照既定算法进行机械学习,包括各种实用的专家系统。〔6 〕现在我们通常所说的人工智能大多数就是指具有机械学习功能的计算机信息处理系统。

至此我们迎来了大数据时代,新的产业革命条件也开始日渐成熟。〔7 〕21世纪初由万物互联互通、大数据、人工智能引发的智网化生产方式,可谓第四次产业革命。正在进行中的这次产业社会的结构转型是以数据驱动和人工智能网络化为基本特征的。其主要构成因素有如下三项。

第一,物联网(简称IOT)。物联网导致数据的生成、流通、积蓄并不断增大,通过数据合作实现最合理化的供应链,可以针对顾客个人需求进行产品和服务的创新。

第二,由物联网形成和积累而成的大数据。对物联网而言,大数据的收集和运用是关键,而大数据具有经济价值,甚至被认为是一种新型通货。大数据也使得个人生活状态变得非常透明化,甚至可以说我们面对的是一个极端化的“透明社会”。

第三,人工智能。没有人工智能,大数据的收集和运用都不可能实现,而基于大数据的机械学习和深度学习又给人工智能带来质变,可以不斷开发新产品、新服务,并且大幅度提高效率和质量。

这三种因素互相作用、相辅相成,推动人工智能网络化程度不断加深,促进现实空间与虚拟空间之间互动和反馈的关系不断增殖,形成一种具备控制力的信息实体交融系统(简称CPS)。在这样的背景下,以多伦多大学开发的图像识别系统Super Vision以及谷歌的猫脸识别项目为标志,人工智能也从2012年开始进入了能够自己进行“特征表现学习”(深度学习)的崭新时代,为历史性突破提供了重要契机。〔8 〕

在人工智能的网络化和万物互联互通的时代,阿西莫夫关于防止机器人失控的三大定律和零定律就显得有些捉襟见肘了。从控制程序、知识数据库到检索引擎,人工智能都必须按照人给出的指令或算法来运行。在机械学习阶段,即便有非常庞大的数据,人工智能也不会自动学习,需要有人来提供数据的特征量和规格化方式才能进行学习和预测;通过机械学习,人工智能可以提供更高的精确度,但却很难对复杂的、模糊的问题进行判断。然而当机械学习的数据输入不间断地高速进行时,对输出的预测就会变得非常困难。而在深度学习的场合,人工智能系统不仅按照算法进行数据处理,还采取多层次脑神经网络的模型和方法,能从大数据中发现和提取特征量,揭示迄今为止未知的问题、样式、结构以及原理,从而具有更高的自主性,因而更类似具有条件反射能力的动物或者自由意志的人。

当人工智能从他律系统转化为自律系统、从演绎系统转化为归纳系统,特别是在人工智能网络之间的相互作用及其连锁反应不断进行的情况下,预测、理解、验证、控制就会变得更加困难,甚至出现黑箱化现象。“透明社会”与“黑箱算法”,这是数据驱动时代的一对根本矛盾,对国家治理方式的改革提出了新的挑战,也提供了新的机遇。〔9 〕无论如何,既然人工智能有自我学习和创新的潜力,能通过统合复数的身体功能进行精密管理,还会按照某种节奏不断引起飞跃式的变化,甚至通过复杂的连锁反应造成混沌,那么如何对人工智能进行适当的、合理的、充分的规制,确立机器人研制的规则和政策就势必成为极其重要并非常紧迫的一项课题。

一、人工智能网络化的风险与社会治理

在考虑对人工智能开发进行适当规制之前,必须对人工智能本身进行比较精准的概念界定。

不言而喻,人工智能是相对于人类智能而言的,而人类的智能活动通常表现为推理、学习以及自我改善。因此,人工智能就可以理解为借助电子计算机来实现推理、学习以及自我改善等活动的机制。换言之,人工智能就是能够形成和运作这类活动机制的数据处理系统,或者像人那样思考的电子计算机。由此可以推论,人工智能的本质在于信息的输入与输出之间的关系。〔10 〕电子计算机擅长进行大量的、反复的信息处理和逻辑演算,但人类擅长进行直觉的分析和判断,通过与环境的相互作用创造出主观的世界图像,并依此进行认识和预测。人工智能的发展目标就是要把这两个方面密切结合起来,提高认识和社会控制的精确度和实效性。

目前的人工智能热是由深度学习——利用脑神经网络进行的机械学习——而引起的。过去五十年间的机械学习是由人根据专业知识和经验来设计算法和特征量,通过反复试错逐步提高电子计算机判断的精确度,失误比例一般在26%到27%之间徘徊。从2006年开始研发的深度学习,在2012年给这种持续已久的沉闷局面带来了重大突破,使得人工智能识别的失误比例骤然降到15%到16%的程度。〔11 〕深度学习的技术诀窍就是人类不再事先设计数据的特征量,而由电子计算机通过多阶脑神经网络模型下的分层化学习以及自我符号化的信息压缩器,从输入的数据中自动抽出数据的更高级特征量。也就是说,人工智能从此开始真正介入本来只能由人类智能决定的领域。如果从图像数据到观测数据、行动数据以及语言数据都可以进行深度学习,那就可以解决环境认识、行动预测以及知识获得瓶颈等问题,势必在很多领域引起科技和产业革命的连锁反应。

深度学习的网络结构以及各种人工智能之间互相联网,形成了所谓“智网社会”,向国家治理和法律秩序提出了新的课题和挑战。〔12 〕人工智能的网络化的确可以为人类带来巨大的便利和效益,但同时也势必造成巨大的、缺乏清晰边界的风险社会。与过去的信息通信技术不同,人工智能通过深度学习而导致变化的结果很可能是人工智能开发者自己也无法预测和控制的。人工智能网络化势必引起自动的组合变更,实现自我生成式的成长和变异乃至人工智能判断的黑箱化,形成非常复杂的情况和网络混沌。在这里,存在人工智能不透明化的风险、安全性风险、失控的风险等。另外,各种人工智能网络相互间的目的竞争或冲突也会引起复杂的连锁反应,很可能在某种情形下造成利用者或者第三者的权利或利益受到损害,或者危及社会秩序和法律制度的框架。在这里存在事故的风险、智慧型犯罪的风险、个人信息和隐私被泄露和滥用的风险、人为操纵选举结果的风险等。为此,必须加强风险甄别和风险沟通。〔13 〕

如何对这类风险进行评价和管控成为人工智能網络化社会的治理以及制度设计的核心问题。众所周知,智网社会的最大特征是通过互联网实现的越境性,无论效益还是风险都会突破国家和专业领域的既有樊篱进行传递和呈指数级扩散。因此,对人工智能网络化的相关问题进行讨论、采取对策不得不具备国际视野和全球视野,应该注重在互联互通的状况里寻求人类社会的最大公约数和基本共识。另外,由于相关的技术创新和市场培育还处于初级阶段,特别需要积极鼓励试验和竞争,为了防止压抑研究者和企业的能动性,对人工智能开发的规制也应该富于弹性,给试行错误及其纠正留下充分的空间。在这样的条件设定下,如何使规制的举措产生实际效力、具有可持续性就自然而然成为另一个需要强调的因素。总之,人工智能网络化社会的治理切忌“一刀切”的生硬强制手段,更适合采取多视角的、综合性的、社群指向的“软法”方式。只有这样,人工智能在中国的发展才能跳出“一管就死、一放就乱”的传统陷阱。

二、人工智能网络社会治理的基本原则和方法

国务院印发的2017年《新一代人工智能发展规划》在保障措施这一节里强调了人工智能发展的制度安排、开放包容的国际化环境以及社会基础等基本理念。鉴于人工智能的技术属性与社会属性高度交叉融合的特殊情形,关于制度安排,规划要求加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架。开展与人工智能应用相关的民事与刑事责任确认、个人尊严和隐私以及产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等。通过法律规范和伦理规范的并用来实现社会交往的共享和互信。在立法方面,重点围绕自动驾驶、服务机器人等应用基础较好的细分领域,加快研究制定相关安全管理法规,为新技术的快速应用奠定法律基础。

由于人工智能是影响深远的颠覆性技术,国务院规划还重视围绕人工智能开展行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架。制定人工智能产品研发设计人员的道德规范和行为守则,加强对人工智能潜在危害与收益的评估,构建人工智能复杂场景下突发事件的解决方案,以夯实第四次产业革命“以人为本”的社会基础。除此之外,规划特别指出有必要积极参与人工智能全球治理,加强机器人异化和安全监管等人工智能重大国际共性问题研究,深化在人工智能法律法规、国际规则等方面的国际合作,共同应对全球性挑战,并且在全球范围内优化配置创新资源。在人工智能开发的规格、标准以及规制方式上与国际接轨,参与全球对话,这是值得高度评价的原则性立场。

关于技术标准框架体系和保障举措,国务院规划明确提出了安全性、可用性、互操作性、可追溯性等基本原则,要求逐步建立并完善人工智能基础共性、互联互通、行业应用、跨界融合、网络安全、隐私保护等技术标准以及行业规范,特别是鼓励人工智能企业参与或主导制定国际标准。针对相关的评估和安全监管,2017年规划注重人工智能对国家安全和保密领域影响的研究与评估,决定构建人工智能安全监测预警机制并加强对人工智能技术发展的预测、研判和跟踪研究。在风险评估和防控方面,从预防法学和因势利导政策的角度明确近期重点关注对就业的影响;远期重点考虑对社会伦理的影响,确保把人工智能发展规制在安全可控范围内。机制设计的思路是建立和健全公开透明的人工智能监管体系,实行设计问责和应用监督并重的双层监管结构,实现对人工智能算法设计、产品开发和成果应用等的全流程监管并加强惩戒力度。

在人工智能网络化和数据驱动社会成形的背景下,国务院规划特别注重人工智能行业和企业的自主操控、群智研发以及人工智能网络安全技术的研发,试图构建动态的人工智能研发应用评估评价机制,要求“围绕人工智能设计、产品和系统的复杂性、风险性、不确定性、可解释性、潜在经济影响等问题,开发系统性的测试方法和指标体系,建设跨领域的人工智能测试平台,推动人工智能安全认证,评估人工智能产品和系统的关键性能”。从这一系列制度设计方案和举措中,我们可以解讀出通过人工智能网络来实现社会共生和普惠的原则、通过跨界协调和自律性尊重让企业和社会都充满活力的治理目标、通过利益相关者参与决策以及问责确保人工智能网络互动的可控性与透明性。

通过上述分析,我国人工智能开发的主要原则和实施方法不妨归纳为以下九条:(1)共享互信原则——人工智能的开发以社会共生、人与人交往的互信以及开发利益的普惠为根本价值目标。(2)个体尊严原则——在数据驱动的智网社会,人工智能开发必须切实保障网络安全、数据安全、个人信息安全以及公民的隐私权和名誉权。(3)民主参与原则——鉴于人工智能互联互通、渗透到生活的各个角落,仅靠自上而下的决定和监管必然存在盲点和漏洞,因而必须让利益相关者也参与相关决策。(4)国际合作原则——鉴于人工智能跨界互联互通的现状以及标准统一的经济合理性,人工智能开发应该立足于国际合作,对必要的规制也应该采取全球共同应对的方法。(5)相机规制原则——由于人工智能的技术复杂性和创新性,规范秩序的建构有必要让立法(刚性规范)与道德规范、政策(柔性规范)兼具并用,并对合规性问题采取多层化判断的方法。(6)公开透明原则——为了防止人工智能失控,确保设计者和企业的可问责性,对算法和程序应该要求公开、透明化,强调可说明性。(7)双重规制原则——对于人工智能开发实施设计问责和应用监督的双重规制方式。(8)追踪制裁原则——鉴于人工智能的本质在于信息输入与输出之间的关系,对有关产品和技术的研发、应用实行全流程监管,并对违法和违规现象加大惩戒力度。(9)预防响应原则——针对人工智能开发中的风险要加强预防举措,并建立危机处理的预警和应急处理体系。〔14 〕

三、关于人工智能开发的法理和政策的国际主要动向

关于人工智能开发引起的法律问题以及相关规制的理论探讨的近况,上海交通大学凯原法学院彭诚信教授主持翻译的“独角兽法学精品·人工智能”系列三本图书已经为我们提供了比较全面的概观。〔15 〕其中关于机器人规制的内容也是从阿西莫夫三定律开始的,涉及机器人伦理学、人工智能管理规定、统一人工智能法典、联合国人工智能公约、电子法、自动化执法、法律责任与社会伦理等一系列问题和制度设计的构想,读来饶有趣味。在这里,只想介绍和分析一下主要国家和超国家机构在人工智能规制方面的最新立法活动以及相关规范的基本内容,作为中国相关制度建设的借鉴。

美国政府从2016年5月开始正式研讨人工智能的法律、伦理以及政策方面的问题,为决策进行准备。当年10月白宫发表了题为《为人工智能的未来做准备》报告书,提出人工智能的相关系统必须可控、公开透明可理解、有效发挥功能、与人类的价值和愿望一致等原则。〔16 〕与此同时,国家科学技术会议网络和信息技术研究开发小委员会还发表了关于运用联邦政府预算研究人工智能的方针《美国人工智能研究开发战略计划》,提出了副作用最小化的要求。〔17 〕随后美国电气电子学会也发表了关于人工智能设计伦理标准的报告书,提倡实现人权理念、人类与自然环境的效益最大化、减少人工智能和自律系统等带来的风险和负面影响等三条原则。〔18 〕由亚马逊、Deep Mind、谷歌、脸书、IBM、微软五大公司发起,欧美产业界在2016年9月还缔结关于人工智能的伙伴关系,旨在构建一个研究和讨论人工智能技术改进和社会影响的开放性平台,并发表了关于确保社会责任、采取防护措施等八项信条。〔19 〕来自不同机构和学科的专家也按照人工智能“可接受、有责任”的理念结成伦理专题社群,进行关于失控风险的脚本分析并提出对策建议。〔20 〕

欧盟的机器人法律项目从2012年开始活动,到2014年9月发表了机器人法律指南。2016年4月,欧洲议会法务委员会召开关于机器人和人工智能的法律和伦理问题的听证会,并在5月公布了与机器人相关的民事法律规则的报告书草案。2017年2月欧洲议会通过《向欧洲委员会提出的关于涉及机器人民事法律规则的提案》,建议设立专门的欧盟机构、采纳智慧机器人登记制、明确严格的损害赔偿责任、保障知识产权等,要求欧洲委员会制定相关的欧盟法律。这个提案还建议确立机器人研发者的伦理行动规范,其中包括尊重基本人权、预防原则、包容性、问责、安全性、可追溯性、隐私权保护、效益最大化和危害最小化等内容。〔21 〕2018年5月25日欧盟开始施行一般数据保护条例,要求人工智能开发涉及个人信息处理时要通知本人,受到影响的个人有权获得解释。其中有些举措比美国更加严格,对违反该法规的企业采取重罚政策。这项法规对数据向其他国家的转移业务也生效。〔22 〕2018年12月欧盟委员会AI高级专家组发布了《人工智能开发和适用伦理指南》草案,以《欧盟基本权利宪章》为基准,力争形成值得信赖的、负责任并且没有偏见的人工智能,为此提出了七条关键要求。〔23 〕这个伦理指南将从2019年夏季开始进入试行,所有企业、政府部门以及社会团体都可以参加欧洲人工智能联盟,通过共同遵循伦理指南在数据、算法、技术等方面推进伙伴关系。

日本总务省信息通讯政策研究所通过系列研讨会在2016年10月制订了《人工智能开发指针方案(征求意见稿)》,经过讨论修改在2017年7月正式公布《为国际讨论而作的人工智能开发指针方案》。日本方案的基本宗旨是:尽管人工智能的技术创新和互联网化有望给经济和社会生活带来各种各样的效益,但也存在黑箱化和失控的风险。人工智能是跨越国界互联互通的,因此相关的效益和风险也势必跨越国界产生连锁反应。在这个意义上,智网社会的治理不可能局限在一国范围内,而应该形成全球化的治理框架。为此,有必要通过开放式讨论在利益相关者中凝聚国际共识。在人工智能开发的初期阶段,通过立法来进行规制有可能导致创新活动的萎缩,因此对刚性规范的制定应持慎重态度,不妨更多地借助“软法”等非正式的有序化机制。〔24 〕

日本的人工智能开发指针方案提出了五大理念:(1)人通过与人工智能网络共生而共享其恩惠,并建立一个尊重人的尊严和个体自主性的“以人为本”的社会;(2)利益相关者应该对作为非约束性“软法”的指针及其最佳实践经验进行国际共享;(3)应该通过创新的、开放式的开发活动和公平竞争增进社会效益,在尊重学术自由等社会价值的同时防范风险,确保效益和风险的适当平衡;(4)坚持技术的中立性,注意不给开发者造成过度负担;(5)对指针方案的内容不断斟酌,根据需要灵活进行修改。〔25 〕

根据这些理念,指针方案具体阐述了人工智能开发的九项原则,即人工智能系统互相连接和互相运用的“合作原则”(包括与国际标准和规格保持一致、数据形式统一化、界面和通信协议的公开、知识产权特许合同及其条件的公开等),确保输入和输出的可验证性和判断的可解释性的“透明原则”(包括开发者公开算法、源代码、学习数据等),开发者能驾驭人工智能的“可控原则”(为此可以采取监督、预警、停机、断网、修理等有效举措),人的身体、生命、财产免于损伤的“无害原则”,保护人工智能系统本身的“安全原则”(包括系统的可信度、牢固性以及信息的机密性、完整性、可用性),防止人工智能利用者和第三者个人信息泄露和滥用的“隐私原则”,〔26 〕尊重人格的“伦理原则”,为用户提供选择机会的“支持原则”(包括设定系统默认、提示易懂的选项、及时反馈、紧急情况的警告、失误的纠正等),以及对利益相关者履行说明义务的“问责原则”。〔27 〕

综合上述信息,我们可以发现在人工智能开发的原则和政策方面,国际社会已经初步形成了一些基本共识。例如对国际通用的指针、标准、规格采取合作态度,尽量使设计方案统一化;为确保人工智能系统和智慧网络之间互联互通,必须共有相关信息;数据形式应该标准化;应该公开包括应用程序编程接口在内的接口和协议、知识产权的特许合同条件;确保技术的中立性以及透明性,判断结果的可解释性,等等。另外,在不同价值取向发生冲突时,进行选择的元规则被公认为要优先保护人的安全,慎重对待生命伦理,不得毁损人性的价值。在与人相关的复数价值判断标准之中,优先顺位的排序如下:①生命,②身体,③财产。从“以人为本”的立场出发,人工智能的开发者在设计阶段就应该充分考虑私生活的平稳、个人信息保密、通信保密,相关企业和服务商必须对利用者和利益相关者充分履行说明义务,尊重客户的选择自由。为了落实上述要求,有必要加强问责机制,提高惩戒的力度。

结语:与人工智能相关的主要法律问题和规制领域

以上重点分析了在数据驱动的智网社会进行人工智能开发的有关原则、规则以及政策,与人工智能的适当规制相关的法律和伦理问题当然绝不局限于这些。例如机器人造成人身损害的风险应该如何预防和分散、怎样承担法律责任、人工智能武器的开发和使用的边界在哪里等,都值得深入讨论,需要制定相应的标准。随着人工智能的广泛应用,即使不采取强制手段也可能左右人们行为的“间接管制”变得越来越容易了。〔28 〕人工智能对社会的间接管制实际上就有可能在很大程度上侵蚀个人选择的自我决定权,给那些不使用人工智能的人们带来经济损失以及其他各种代价。在这样的状况下,如果没有适当的机制设计,现代国家宪法和民法秩序的基础势必发生动摇。〔29 〕另外,还存在许多与人工智能相关的具体法律问题,这里也按照一定的逻辑关系略作概括性说明。

首先是人工智能生成物的归属问题。在智网社会,各种信息和文化作品的素材——新闻、网络评论、照片、视频和音频、游戏、知识介绍、小说、音乐、画像等,都在周流不息地流布和扩大再生产。这些内容的发布机制是平面化的、自由的,但作为商业性活动又是由少数信息技术公司巨头所垄断的。其中有些作品还是人工智能以低成本大量创造的。例如自动翻译(科大讯飞)、自动着色和加工(“美图秀秀”和“天天P图”)、既有文章的加工和第二次创作,特别是自动文艺创作的软件(英国音乐科技公司Jukedeck、美国谷歌DeepDream、日本东京大学开发的自动作曲系统Orpheus以及中国清华、北大、北邮共同研制的“薇薇写诗机器人”)所产生的作品,著作权究竟属于谁,涉及复杂的法律上和伦理上的问题,也很容易助长免费搭车的侵权现象。对于那些具有创造性贡献的人工智能生成物要不要给予著作权上的保护、是否承认其垄断性地位、保护是否要附加条件、保护期间多长为宜,需要在政策上进行慎重的权衡。〔30 〕

其次,但议论更多的是人工智能生成物的行为责任问题。例如2016年某公司开发的具有深度学习能力的对话系统在推特上登场后,由于受网络上大量流传的歧视性笑话的影响,不久这个系统就开始不断发表具有种族歧视倾向的推特短文,损害他人的名誉,引发了宪法上的问责,被迫停止服务,进行整改。更广为人知的实例是自动駕驶汽车造成事故时的责任。全球首例无人驾驶汽车撞人致死事件发生在2018年3月18日的美国亚利桑那州,导致加利福尼亚州开放上路测试的计划搁浅。〔31 〕实际上,当自动驾驶汽车造成交通事故时,按照现行法制追究民事责任是很困难的,因为无法确认驾驶者的过失,也很难证明控制运行的软件或人工智能的设计上存在问题;特别是在获取的信息和利用的服务非常多样化的情况下,责任主体势必复数化。算法黑箱很可能导致人工智能采取某种不能预测的动作,这些都是汽车所有者和驾驶者既无法预知、也无从回避的,因而难以追究他们的过失责任。当然,也可以把人工智能软件已经嵌入汽车作为理由,根据产品责任法向厂商请求赔偿;〔32 〕或者设立以人工智能为保险对象的服务,通过保险制度来解决问题。至于对自动驾驶汽车造成的事故追究刑事责任,必须通过修改法律或者制定新法另设犯罪类型。〔33 〕

另外还有提供给人工智能进行学习的数据所伴随的权利问题。例如通过读取绘画进行深度学习是否侵害作者的复制权,个人的消费信息、健康信息、经历信息以及识别信息作为学习数据使用时是否侵害隐私权,把生产方法、销售方法以及其他营业活动的大数据提供给人工智能是否引起不正当竞争,怎样保护具有经济价值的数据,数据的大量积蓄和集中化会不会导致市场的垄断,这些都需要深入研究,制定必要的法规、政策以及伦理标准。对于匿名加工个人信息以及相关数据库的建设也应该有统一的规格和方法。2018年5月开始实施的欧盟一般数据保护条例被称为21世纪的人权宣言,就是因为在网络化社会特别强调尊重个人的原则。该条例第21条规定数据主体对数据的存档具有异议权,如果数据管理者不能提供不得不这样做的正当性根据(例如防止传染病蔓延),就必须停止相应的信息处理。第22条还进一步规定,数据存档等信息自动化处理本身不得给数据主体带来任何法律效果。也就是说,关于个人特征的完全自动化评价,不得成为侵害该个人权益的决定的唯一根据。如果产生了诸如此类的重大影响,数据主体有权不服从。〔34 〕这种机制设计是值得我国留意和借鉴的。

不得不承认,我国以及各国的现行制度在保护人工智能方面仍然存在一些明显的缺陷。我国的著作权法及其实施条例以及计算机软件保护条例承认软件产品、程序以及相关文书的著作权,以独立开发、登记以及固定在实体物件上为前提条件给予法律保护,但关于算法即人工智能本身还没有明文规定。如果算法是由复数的软件程序构成,当然可以作为程序作品申请著作权上的保护,但算法即人工智能本身仍然无法申请专利权。人工智能仅有算法并没有实用价值,而必须与数据的学习结合起来才能产生真正的意义。但对需要大量投入资源的学习用数据以及学习方法,法律却不能提供保护。还有学习完毕的模型也具有很大的经济价值,需要对其利用问题制定必要的管理规则。随着人工智能及其网络化的加速发展,这些问题势必层出不穷,需要在制度和机制的设计上及时跟进甚至未雨绸缪。

此外,还有人工智能与行业法规之间关系如何处理,也是非常重要的课题。例如人工智能在相当程度上开始从事司法和法律服务,〔35 〕但从事法律实务活动本来是存在严格的门槛限制的,需要通过国家考试取得必要的资格。当中国的“睿法官”机器人(北京)、“明镜系统”(浙江)、“法务云”(江苏)、美国的ROSS律师机器人、JUDICATA法官机器人纷纷用于业务处理时,是否有违反法官法和律师法的嫌疑?如果人工智能被賦予法律人格,那么能否也被赋予法官资格或律师资格?不言而喻,同样的问题也存在于医疗等行业。现在人工智能已经广泛应用于疾病的预测、预防以及诊疗服务,如果发生医疗事故应该如何追究责任正在成为热议的话题。以上描述的这一切都在告诉我们:讨论对人工智能怎样进行适当的规制,逐步建立和健全相关的法律、政策以及道德的规范秩序,此其时也。

作者:季卫东

本文来自 99学术网(www.99xueshu.com),转载请保留网址和出处

上一篇:初中初中数学论文下一篇:游戏界面设计论文