ISSN 1008-2204
CN 11-3979/C

涉人工智能案件的审判难点及应对思路基于对220件司法裁判结果的实证研究

王新雷, 秦文豪

王新雷, 秦文豪. 涉人工智能案件的审判难点及应对思路——基于对220件司法裁判结果的实证研究[J]. 北京航空航天大学学报社会科学版, 2023, 36(6): 44-56. DOI: 10.13766/j.bhsk.1008-2204.2021.1060
引用本文: 王新雷, 秦文豪. 涉人工智能案件的审判难点及应对思路——基于对220件司法裁判结果的实证研究[J]. 北京航空航天大学学报社会科学版, 2023, 36(6): 44-56. DOI: 10.13766/j.bhsk.1008-2204.2021.1060
WANG Xinlei, QIN Wenhao. Trial Difficulties and Countermeasures of Cases Involving Artificial Intelligence: An Empirical Study of 220 Judicial Decisions[J]. Journal of Beijing University of Aeronautics and Astronautics Social Sciences Edition, 2023, 36(6): 44-56. DOI: 10.13766/j.bhsk.1008-2204.2021.1060
Citation: WANG Xinlei, QIN Wenhao. Trial Difficulties and Countermeasures of Cases Involving Artificial Intelligence: An Empirical Study of 220 Judicial Decisions[J]. Journal of Beijing University of Aeronautics and Astronautics Social Sciences Edition, 2023, 36(6): 44-56. DOI: 10.13766/j.bhsk.1008-2204.2021.1060
● 法律与技术交叉研究专题

主持人语:法律与技术并非两条平行线永不相交。在人工智能、区块链等信息技术实现了跨越式发展的背景下,司法活动也因技术创新而步入全新的智慧司法阶段。但是,这种变化并非简单的线上与线下的形式之别,而是对既有司法体系的一次革新,如智慧审判信息系统的结构设计如何与现行法律法规保持一致、区块链存证的法律效力如何认定等。为了更加深入地理解这种智慧司法的本质以及可能对司法实践产生的诸多影响,本专题刊发的三篇文章皆紧贴技术创新应用的前沿动态,又分别从不同的观察视角去解读法律与技术之间的互动关系。其一,总结了现阶段人工智能法律适用存在的突出难题,并提出了“对人工智能开发者和使用者注意义务的认定标准应富有弹性”等主张;其二,大数据侦查在发展过程中出现了外源性信息隐私权危机和内生性信息隐私权危机,故而有必要建立递进式审查标准,实现规制程序的诉讼化改造;其三,以司法介入智能合约纠纷为研究对象,主张从管辖、审理和执行三阶段进行自我调整。

——赵精武(北京航空航天大学法学院副教授、北京科技创新中心研究基地副主任)

涉人工智能案件的审判难点及应对思路——基于对220件司法裁判结果的实证研究

基金项目: 陕西省软科学研究项目 (2020KRM006); 中国博士后基金面上资助项目 (2020M683439)
详细信息
    作者简介:

    王新雷(1985—),男,河南灵宝人,助理教授,研究方向为人工智能法、数据法

  • 中图分类号: D925

Trial Difficulties and Countermeasures of Cases Involving Artificial Intelligence: An Empirical Study of 220 Judicial Decisions

  • 摘要:

    通过对220件涉人工智能案件裁判结果的分析发现,现阶段涉人工智能案件法律适用存在以下突出难题:“拿来主义”的人工智能区分标准,无法契合司法实务需要;传统法院审理案件的效率较为低下;对人工智能开发者和使用者的注意义务认识不清;对用人单位以调岗为由而变相辞退员工的案件事实,缺乏深入考察;对人工智能自检等无人取证新手段,缺乏正确理解和应用;人工智能作品的权属认定存在困难;等等。破解涉人工智能的法律适用难题,应当转变思路:以创造出来的具象化(智力)成果及其风险能否被人事前预知为标准将人工智能分为工具型人工智能和智力型人工智能;推进涉人工智能案件由专业性法院管辖;对人工智能开发者和使用者注意义务的认定标准应富有弹性;要求用人单位为被迫调岗的员工划定收入大幅调降前的合理缓冲期;允许满足条件的人工智能自检报告作为证据使用;暂时将人工智能作品归入虚拟财产进行保护,并要求其在被展示时与人的作品进行区分。

    Abstract:

    Through the analysis of the judicial decisions of 220 cases involving artificial intelligence, the paper finds that there are following prominent problems in the application of law in the cases involving artificial intelligence at present. Direct reference to the differentiation criteria of artificial intelligence in the field of computer science can not meet the needs of judicial practice. The efficiency of traditional courts in hearing cases is relatively low. There is an unclear understanding of the duty of care of artificial intelligence developers and users and there is a lack of in-depth investigation into the facts of cases in which employers dismiss employees in disguised form on the grounds of job transfer. Furthermore, there is a lack of proper understanding and application of new methods of gathering evidence without people involvement such as self-inspection of artificial intelligence, and there are difficulties in identifying the ownership of artificial intelligence works. To solve these problems, we should change our way of thinking. Artificial intelligence can be divided into instrumental and intelligent artificial intelligence based on whether the concrete (intellectual) achievements are created or whether their risks can be predicted in advance. Cases involving artificial intelligence should be under the jurisdiction of professional courts. The standards for determining the duty of care of artificial intelligence developers and users should be flexible. Employers are required to delimit a reasonable buffer period for the employees who are forced to be transferred before their salaries are substantially reduced. In addition, the qualified self-inspection reports of artificial intelligence are allowed to be used as evidence, artificial intelligence works can be temporarily classified as virtual property for protection, and they are required to be distinguished from human works during display.

  • 作为21世纪三大尖端科技之一的人工智能,为全世界社会经济发展提供了新动能。党的十八大以来,面对新一轮科技革命和产业变革新形势,党中央和国务院高瞻远瞩、审时度势,于2017年7月由国务院印发了《新一代人工智能发展规划》,将发展人工智能正式上升为国家战略,并提出了“三步走”的战略目标[1]。党的十九届五中全会审议通过的《中共中央关于制定国民经济和社会发展第十四个五年规划和二〇三五年远景目标的建议》强调,要“推动互联网、大数据、人工智能等同各产业深度融合”[2]。当前,中国政府高度重视人工智能的发展,各行各业也因人工智能迎来了跨越式发展的难得机遇[3]。但同时,人工智能带来的多元法律挑战和应对措施却无法一言道明。例如:有学者认为,人工智能是否具有独立的“人格”,仍值得商榷和讨论[4];也有学者认为,人工智能创作能否被认定为著作权法意义上的作品,是亟待解决的问题[5]。此外,在刑事立法层面,不少学者主张加强人工智能的相关刑事立法工作,以弥补当下立法的空缺[6]。在民事立法层面,自《中华人民共和国民法典》颁布实施以来,一些学者希望通过产品责任规制相关行为以控制人工智能的侵权风险[7]。然而,人工智能革命对法律规则和法律秩序的挑战并非仅限于传统的刑事和民事领域,在司法实务中,著作权法、交通法、劳动法等领域涉人工智能的裁判难题也不断涌现,凸显了法律制度产品的供给不足[8]128-136。涉人工智能法律制度的建立和完善改革是一项系统工程,目前,人工智能在中国各行各业已获得广泛应用,在为公众提供便利和为商家创造商机的同时,也不可避免地会引起诸多纠纷,所以,有必要考察已公布涉人工智能案件的实际情况,对影响公平、公正审判的变量进行发掘和量化统计,分析其中的法律适用问题,总结经验、归纳方法,以期能为健全人工智能立法及司法适用提供一定的理论参考。

    笔者研究所关注的涉人工智能案件,为2008年12月至2021年8月全国范围内公布于中国裁判文书网的焦点型案件 。中国裁判文书网是司法领域重要的法律文书搜索平台,该平台自2013年7月上线运行以来,各级法院按照最高人民法院的统一部署,在该平台上集中发布生效裁判文书。2018年12月,中国社会科学院国家法治指数研究中心和中国社会科学院法学研究所法治指数创新工程项目组发布的《中国司法公开第三方评估报告(2018)》显示,该平台的裁判文书上网率总体较好[9]。抽样研究结果表明,截至2018年10月24日,样本中涉及的160家法院 ,有19家法院的案件上网率超过80.0%,另有129家法院通过中国裁判文书网公开了未上网裁判文书的案件号、案由等信息项,在全部样本法院中的占比为84.6%。由此表明,在中国裁判文书网公开的涉人工智能案件在所有可能的样本中具有一定的代表性,对此部分案件进行探讨,具有一定的理论价值和研究意义。鉴于此,笔者对涉人工智能案件的审理和裁判情况进行了整理,通过对涉人工智能案件的法律文书进行全文关键字检索,得到1 627件可供分析的实证样本,但是绝大多数样本并不符合要求,主要原因在于:一是同一案件一审和二审虽是两件独立的法律文书,但由于是同一案件,在统计时只算作一个基本单位(共997件,占比为61.28%);二是案情虽然涉及人工智能,但是并非人工智能引起的纠纷,在关键词检索时被错误定位(共879件,占比为54.03%);三是与案件有关的网名和物品名称中含有人工智能字样,但实际案情与人工智能并不相关,在关键词检索时同样被错误定位(共578件,占比为35.53%)。通过对样本作进一步筛选,仅留下有效样本273件。鉴于研究样本中裁判文书的内容存在不同程度的缺失,为了确保研究材料特别是数据的全面性和可比性,笔者的分析对象主要集中在文书内容齐全或者主要变量数据基本符合要求的案件上,进一步将不符合要求的案件从研究样本中予以剔除,最后仅留下220件可供分析的样本。质言之,下文各部分数据的统计在基数上可能略有差异,但整体上不会对分析结果产生显著影响。笔者通过对案件变量进行编码,收集整理了近年来中国各地法院审理的案件中涉人工智能案件的类型分布、审级及审理法院类型分布、案件焦点分布等数据。通过上述方法,获取了较为充分的实证材料,可基本满足笔者研究的需要。

    基于这些文书材料和数据,笔者以“实务中,有关人工智能案件的审理存在多领域、多方面问题未被及时发现和解决”为假设,对中国各地三审法院涉人工智能案件的审理情况进行了较为全面、深入的考察。重点关注以下两个方面:一是涉人工智能案件在实务中是否存在未被解决或者未被发现的问题;二是在前一个问题成立的前提下,应当如何应对与解决。

    当前,学界通常将人工智能分为三代,即第一代人工智能、第二代人工智能和第三代人工智能[10]。该分类标准虽出自计算机领域,但也被部分法学学者所借鉴[11]。而实证研究表明,这种拿来主义的划分标准可能无法满足司法实务的实际需求,因为纯粹的技术性划分标准通常无法服务于对当事人各方权利义务关系的认定。具体到人工智能的审判实务,研究发现,人工智能类型划分不明确不但会影响如何认定“智能”,而且还会影响使用者是否违反其注意义务等相关司法实务问题的顺利解决,有的案件甚至因此上诉到最高人民法院 。因此,从审判实务的实际需求出发对人工智能进行分类,对于处理实务中的难题可能更为有益。笔者将已公布的人工智能类型进行了整理,如表1所示,并以人工智能创造出来的具象化(智力)成果及其风险能否被人事前预知为标准,将人工智能分为工具型人工智能和智力型人工智能两类。

    表  1  人工智能类型分布状况(N=220)
    类型数量/件占比/%
    工具型
    人工智能
    技术集成类
    人工智能
    智能租车平台17 7.73
    数据统计分析15 6.81
    贷款审放系统13 5.91
    打码识别盗号 13 5.91
    程序机器人 94.09
    大数据定价94.09
    智能选股软件83.64
    汽车系统检测83.64
    金融交易系统83.64
    影片聚合推荐73.18
    智能医疗诊断62.73
    其他 31 14.09
    成品实物类
    人工智能
    智能机器人 30 13.64
    智能电视机94.09
    自动售卖机62.73
    智慧轿车31.36
    车载反追踪装置20.91
    智能控制电箱31.36
    智能翻译机31.36
    智能音响52.27
    智能工作台20.91
    智能拖地机20.91
    智能假肢20.91
    其他 9 4.09
    智力型
    人工智能
    DABUS等
    下载: 导出CSV 
    | 显示表格

    人类通过智力创造出来的事物可以分为两类:一是体现人类情感和世界观的事物,二是纯粹的技术性解决方案及其产品。实证研究表明,在实务中引发纠纷的人工智能通过其智力创造的事物全部为工具型人工智能。在工具型人工智能中,从事与智力创造无关的流水线生产工作的人工智能在被认定为工具型人工智能这一点上并无争议,但部分工具型人工智能却产生了类似智力成果的作品,如人工智能剪辑、拼接之后的文章、视频和绘画等,除了样本案件中整理出来的类型外,实践中人工智能甚至能够模仿人类独立创作出七律诗词[12]

    此处,笔者无意加入“人工智能创作能否被承认为著作权意义上的作品”的论争,而只关注工具型人工智能与智力型人工智能的划分标准。事实上,人工智能创作的作品属性问题与工具型人工智能和智力型人工智能的区分并非必然相关。实证研究表明,以使用何种技术或者基于何种开发目的对人工智能进行划分皆不具有可行性,因为单纯以技术进行划分会导致人类在其中角色的缺失,而仅以开发目的进行划分又容易忽略技术的复杂程度。可能的解决方法是,以人工智能创造出来的具象化(智力)成果及其风险能否被人事前预知为标准,将其划分为工具型人工智能和智力型人工智能两类:如果其创造出来的具象化(智力)成果能够被人事前预知,人类为了实现这一预期具象化(智力)成果而将人工智能(无论它多么复杂)作为工具使用,并能够预知此具象化(智力)成果可能带来的风险,那么这种人工智能就是工具型人工智能;如果成果不能被预知,任由人工智能进行智力创造活动,人类希望从中筛选出有利于自身的具象化(智力)成果,同时也无法预知该人工智能的智力创造活动可能带来的风险,则可以被认为是智力型人工智能。

    综上所述,当前自动生成视频、文章、绘画和诗作的人工智能均应当被认定为工具型人工智能,因为其所创造出的具象化(智力)成果及其风险均可以被人类事前预知,只是人类为实现某一类特定预期具象化成果而设计出来的产物,本质上是被人类驱使,是人类体力和耐力的延伸。以样本中的一个案件为例,某字体公司通过购买书法设计者所书写的几百字的手稿,通过人工智能技术生成除了以上几百字外的其他字,后来在未经授权的情况下,由人工智能技术生成的字体被某知名饮品公司应用于其包装上,从而引发侵权纠纷 。从该案件的具体情况来看,人工智能虽然创造了剩余字体,但是该具象化(智力)成果(即新型字体)能够被人类事前预知,人类为了获得剩余的新型字体而将人工智能作为工具使用,而且能够预知和控制该具象化(智力)成果(即新型字体)可能产生的法律风险,那么就可以认定这属于工具型人工智能。事实上,工具型人工智能的使用者大多有一个相似的出发点:节省人力,减少用人成本。就样本中的另外一个案例来说,某人工智能公司为了节省人力而使用经典的贝叶斯分类算法对需要进行审核的图片进行初步分类 ,事实上,人同样可以实现对图片的分类,但是1人却无法做到像人工智能那样在1小时内识别几万张图片,也无法做到在1月内持续工作,人工智能却可以帮助人类实现这一点。此种人工智能最大的优点就是能够在长时间内维持高效和高强度的工作状态,其主要贡献在于增加了产品的生产数量。

    表1可知,在样本案件中,并未发现能够独立进行发明创造的智力型人工智能在实务中引起纠纷,但此类人工智能存在于生活中已经是客观事实。例如,创造发明机器一统性感知的自主靴设备(DABUS)在出现之初就引起了普遍关注,而关于其能否获得独立发明家的身份这一点也引发了学界的激烈讨论[13]。2021年7月28日,南非专利与商标局通过了以DABUS为“发明人”的专利审批,实际上,从2019年9月17日开始,该人工智能发明人Stephen Thaler曾向包括美国、欧洲等在内的许多国家和地区提出了以DABUS为“发明人”的专利申请,虽然多数国家和地区均以“只有人才能成为发明主体”为由将该申请驳回,但南非却成为第一个敢于“吃螃蟹”的国家[14]。虽然南非专利与商标局对人工智能发明的“发明人”主体身份的认可遭到了不少专家和学者的反对,但也有人认为这是一个新的发展趋势,代表政府对技术创新的支持和认可。事实上,类似的智力型人工智能不止有DABUS一种,如John Koza研发的Invention Machine和IBM公司研发的Watson等智能机器,都可以独立完成发明构思或者方案设计。

    与工具型人工智能不同,此类人工智能创造出来的具象化(智力)成果无法被人事前预知,即人类不清楚其可能生成的具象化(智力)成果的种类,更不清楚其大体的外观(如果有的话)和功能。事实上,如果人类事前就知道智力型人工智能可能会自主生成什么,那么其发明便无法被称为发明。当然,正是由于智力型人工智能的这一特点,也使得人类无法预知其“发明行为”可能产生的风险。当然,必须提到的是,将能否预知风险作为工具型人工智能与智力型人工智能的分类标准之一,不能和控制风险混为一谈。尽管预知风险是控制风险的前提和关键,但能够预知风险不代表能够控制风险。

    事实上,对工具型人工智能来说,其风险往往能够被预知,但不一定能够被控制;而对智力型人工智能来说,其风险往往无法被预知,也不太可能被控制。但实证研究表明,当前涉案的人工智能还不是很发达,所以其风险尽管无法被控制,却常常处于可被接受的范围内。随着人工智能技术的发展,其不可预知且无法被控制的风险将会越来越大,针对这些不可控的风险能否被接受,以及相关人工智能可否被允许继续研发和应用的难题,社会管理者常常要综合考量其中的风险和收益。

    案件审理法院的类型情况,如表2表3所示。

    表  2  各审级案件分布情况(N=220)
    审级 数量/件占比/%
    一审157 71.36
    二审59 26.82
    发回重审4 1.82
    下载: 导出CSV 
    | 显示表格
    表  3  不同类型法院审理案件分布情况( N =220)
    类型 数量/件占比/%
    基层法院123 55.91
    中级法院4520.45
    知识产权法院 24 10.91
    高级法院198.64
    互联网法院 5 2.27
    其他 4 1.82
    下载: 导出CSV 
    | 显示表格

    表2表3可知,大多数案件还是经由传统的基层、中级和高级法院审理,专业性的知识产权法院和互联网法院审理的案件仅为29件,占比为13.18%。尽管如此,专业性法院审理案件的效果却不容忽视。实证研究表明,专业性法院审理的29件案件中,仅有6件提起了上诉,上诉率为20.69%,比人工智能案件的平均上诉率低16.89%。其中,民事案件为19件,提起上诉的为6件,上诉率为31.58%,尽管高于专业性法院审理案件上诉率近10%,但是如果不将其他类型法院审理的人工智能案件统计在内,其仍然比人工智能案件的平均上诉率低6%。而在专业性法院审理的6件人工智能行政案件中,没有发现上诉案件,结案息诉率为100%。相比之下,人工智能行政案件共31件,其中15件提起了上诉,上诉率为48.39%。研究结果表明,相较于传统法院,新型专业性法院在审理民事案件时具有一定的优势,在审理行政案件时具有绝对的优势。针对上述情况,可能的解释是:专业性的互联网法院和知识产权法院在审理人工智能案件方面具有专业优势,更容易对侵权行为进行全面且客观的解读,从而对提高案件的结案息诉率产生了正向影响。

    通过对涉人工智能案件争议焦点类型进行整理,有利于把握实务中审理该案件的要点和难点。涉人工智能案件审判焦点分布情况,如表4所示。

    表  4  涉人工智能案件审判焦点分布情况(N=90)

    焦点类型

    案件总数/件
    法院裁判结果
    支持 驳回
    数量/件占比/%数量/件占比/%
    人工智能产品和服务在质量上是否符合要求?2422.22 2224.44
    人工智能工作的自主性是否能成为侵权者不存在主观过错的理由?14001415.56
    是否因对人工智能产品进行夸大宣传而存在不正当竞争行为?1210 11.1122.22
    企业用人工智能取代人进行劳动是不是对劳动者权利的侵犯?1055.5655.56
    人工智能自检报告是否可以作为证据使用? 711.1166.67
    人工智能创作是否构成著作权法上的作品、是否侵害第三方权益? 70077.78
    其他 16 10 11.11 6 6.67
    下载: 导出CSV 
    | 显示表格

    一些争议焦点虽然在统计上涉及次数较多,但是“难而不大”。就涉人工智能案件争议焦点中涉及次数最多的“人工智能产品和服务在质量上是否符合要求”这一问题来说,该类案件的焦点虽然涉及的案件数量较多,共24件,在总样本量中的占比为26.66%,但是对产品质量和服务的评估等技术性问题(合同除外)与法学研究关系较小,此处就不再展开讨论。而有的问题则是“大而不难”,如在样本中统计次数排名第3的“是否因对人工智能产品进行夸大宣传而存在不正当竞争行为”,该问题涉及案件12件,在总样本量中的占比为13.33%,但通过阅读案件不难发现,法院均能对此类问题进行合理分析,鲜有不能解决的情况。所以,笔者对涉人工智能案件争议焦点的分析将围绕更有讨论价值的方面展开,相关案件焦点至少应满足以下特征:一是产生此类争议案件数量较多(N≥5),二是该问题给案件的审判带来了实际困难,三是该问题存在探讨的空间。

    在样本案件中,当事人之所以提出这一辩解理由,主要是考虑到涉及侵权的“新事物”由人工智能自行创造,在“自主性”上与开发或者使用该人工智能的个人和单位无关。在样本案件中,该类案件主要集中在视频、文字的剪辑与组合等涉及智力创作的领域。目前,虽然人工智能创作能否被著作权法保护仍面临较大争议,但是其具有自主生成作品的能力却是客观存在的事实。当事人提出这一辩解理由一般基于以下两点考虑:一是在实际案件中,侵权一方经常以人工智能自动筛选使用被侵权一方的图片和视频等作品为由而主张其不存在主观上的故意 。通过对这部分案件进行考察不难发现,该观点一般不能得到支持,由表4可知,在14个相关案件中,一审法院均认定侵权者存在侵权故意,法官认为侵权一方不能因为人工智能自动化功能的存在而免责,通常是由于判定其在使用过程中未尽到合理的注意义务。

    针对法官的这一观点,侵权者通常用以下理由进行抗辩:一是人工智能的自主性并非开发者和使用者所能完全控制的,二是其自身未获得经济利益。关于第一个抗辩事由,样本案件中的侵权者均对此有所提及,但全部被法院驳回,理由是人工智能虽具有一定的自主能动性,但最终还是要根据人的命令行事,同时,人工智能无法成为侵权责任的主体,其行为结果必须由自然人或法人来承担。

    关于法院的驳回理由,笔者对其中的部分内容并不完全认同。在样本案件中,在设计之初所涉及的人工智能开发者便明确知晓其工作范围,一旦人工智能在工作范围内造成侵权,法院认定为其开发者或使用者存在故意侵权看似合情合理,但能够预判风险不代表就能够控制风险,认识到问题显然只是解决问题的第一步。以样本中的一个案件为例,该案件涉及的“游戏陪聊机器人”能够在与人沟通中进行自主学习 ,在语音聊天机器人得到普遍应用的今天,此类人工智能在与人沟通中学会说脏话甚至对人类进行人身攻击的侵权案件也不断涌现[15]。诚然,有学者可能会问,语音聊天机器人在收集语言数据自主学习的过程中,既然是学习人说话,肯定少不了跟说脏话的人交流互动,在这种情况下,人工智能的开发者和使用者应该能意识到这一点,如果其未对人工智能可能的侵权风险进行防范,直接认定开发者或者使用者具有侵权故意即可,还有什么继续讨论的必要呢?事实上,使用人工智能分类算法的确可以将常见的“污言秽语”从因聊天而产生的语言数据中分辨出来,但人类的语言是极为复杂的,在日常生活中,真正的“骂人 ”可能是不带脏字的,想要人工智能识别这些不带脏字的“骂人”的话可能比较困难,因为当前虽然人工智能聊天机器人能够实现与人对话,但却缺乏在复杂人际交往中的共情能力。所以,在类似语音聊天机器人侵权案件中,其开发者或使用者以无法控制人工智能进行抗辩,存在一定的合理之处,但仅以人工智能应被人控制或无法承担侵权责任为由推定开发者或使用者存在主观过错可能缺乏充分的事实依据。事实上,对那些在现实中有着巨大市场需求的人工智能来说,有些风险虽然无法通过目前的技术解决,但是允许其研发和应用明显利大于弊;有些风险虽然不可控,但是却可以被预知,也常常可以被接受。在风险与机会并存的当今社会,畏惧风险往往可能导致错失机会,如果非要给此类人工智能的开发者和使用者设置过高的注意义务,既不利于经济的发展,也会阻碍其相关技术的研发和应用。

    对此,可能的解决方法是:对大多数风险可控的工具型人工智能来说,如果开发者未对人工智能可能存在的法律风险在交付使用时进行充分解释,一旦该人工智能在使用过程中出现侵权行为从而引发纠纷,由开发者承担主要责任,使用者明知该人工智能存在侵权行为而不加以制止的,承担连带责任;如果人工智能的开发者对人工智能可能存在的法律风险在交付使用时进行了充分解释,而使用者仍愿意接收并使用,那么一旦人工智能出现侵权行为从而引发纠纷,则由使用者承担主要责任,开发者承担补充责任;但对部分仍存在不可控风险的工具型人工智能来说,如果其投放市场明显利大于弊,而且风险在可被接受的范围之内,一旦此类人工智能因为无法被控制的风险而造成侵权,无论是使用者还是开发者,都可以酌情减轻甚至免除责任。

    此外,部分法院以侵权者是否实际获得经济利益来判断其是否存在较高的注意义务可能也不合适。经济利益是一个宏观的概念,既包括物质性利益,也包括对商业声誉和平台知名度的隐形提升。以样本中的一个工具型人工智能案件为例,某著名饮品公司设计的核桃露商业宣传图片被某图片检索公司储存在其服务器上并供读者下载,该图片检索公司使用人工智能对图片自动进行法律风险筛查,但由于人工智能分类识别算法精准度无法达到100%,涉案的5张图片成了“漏网之鱼” 。一审法院将客户需要购买VIP资格才能下载的前4张图片认定为侵权图片,而对第5张可以免费下载的图片认为不构成侵权,对此,笔者认为,图片检索公司是一个以营利为目的的私人企业,其开发人工智能筛选图片的目的是营利,涉案饮品公司设计的核桃露宣传图片在全国范围内具有一定的知名度,所以,即便没有因为VIP资格下载而为图片检索公司带来物质上的收益,也在无形中提升了该公司的品牌知名度。从这个角度来讲,就很难认定该图片检索公司没有因为第5张图片而获得“经济利益”,更不能因此认为侵权者可以因为未获得“经济利益”就可以降低其注意义务。值得注意的是,在对侵权者的注意义务未予以明确的情形下,二审法院维持了一审判决,这说明实务中在处理相关问题时的严谨性还有待进一步提升。

    实证研究表明,被人工智能取代的工作不仅包括收款和盖章这类简单工作,一些固定资产实物管理和存货报废实物管理等相对具有技术含量的工作也在逐渐被取代 ,而且随着强人工智能时代的到来,无论技术含量高低,劳动者的“饭碗”都随时可能会丢掉,人工智能取代越来越复杂的工作也将是一种必然趋势。根据《中华人民共和国劳动合同法》第41条的规定,用人单位生产经营发生严重困难,以及企业转产、重大技术革新或者经营方式调整,经变更劳动合同后,仍需裁员的,可以进行裁员 。在样本案件中,法院通常根据以下两种情形进行裁判:如果原用人单位辞退劳动者却没有为劳动者提供新的岗位,则认为其存在对劳动者的侵权;如果原用人单位为被人工智能替代的劳动者提供了新的岗位,而劳动者不接受,则劳动者一方一般要承担败诉的结果。由表4可知,在样本案件中,两种情形在数量上平分秋色,各为5件,占比均为5.56%。

    在第一种情形中,原用人单位常常以“情势变更”为理由进行抗辩,即原用人单位的经营状况恶化,主营业务收入减少。关于这一抗辩理由,在样本案件中,5个案件中有3个案件被法院支持。在这些法院看来,有些用人单位确实存在经营情况恶化的情况,进行裁员无可厚非。但笔者认为,上述法院在认定用人单位经营情况是否发生严重困难这一问题时忽略了以下关键因素:一是在上述案件中,原用人单位作为市场竞争的参与者,应该清楚企业营收随着市场行情的波动暂时下行是一种正常现象。事实上,许多项目在创业之初都普遍存在“烧钱”的亏损现象,有时亏损不但不是一种损失,反而是一种战略[16]。所以,单纯以近两年主营业务收入是否减少来衡量一个企业是否发生了严重的经营困难可能过于武断,然而在样本案件中,除了收入减少外,原用人单位均未能提供其他有效的证据来证明其实际上存在经营困难。二是即便公司确实发生了严重的经营困难,也应当评估被辞退岗位与公司经营困难之间的因果关系和相关关系。例如,被辞退员工的工资收入在该公司总开支中的占比为多少?使用人工智能取代某些员工的原工作岗位能为缓解公司困难带来多大的正向影响?从案件的基本情况来看,涉案公司一般规模较大,因某一岗位被人工智能替代而辞退员工的数量约为1~5人,多数仅为1人,工资为5 200~12 569.65元,且多数为10 000元以下。由此可以推论,在相关案件中,被辞退员工的工资收入在公司总开支中的占比并不高,即便辞退了这些员工,也不会对缓解公司经营困难产生多大正向影响。所以,以缓解经营困难为由,为人工智能取代人引发的裁员进行合理性辩护可能站不住脚。针对上述问题,可能的解决方法是:要求原用人单位对其严重经营困难状况进行充分举证,并要求其对被取代岗位与公司经营困难之间的因果和相关关系进行说明,如果该困难不是由被取代岗位劳动者的原岗位的相关支出导致的,而且二者之间相关关系较弱,那么就不能将其认定为用人单位“裸辞”员工的事实依据。

    在第二种情形中,法院审理结果普遍认为,原用人单位出于节约成本和提高效率的目的使用人工智能替代人进行工作具有合理性,且原用人单位给被人工智能替代的劳动者提供了新的岗位,如果劳动者拒绝接受,则其诉求就很难得到法院的支持。司法机关这一处理方法在道德直觉上看似合情合理,但实际上却没有针对主要矛盾去解决问题。换言之,劳动者提起诉讼并非因为用人单位没有为其提供工作,而是对新的工作不够满意,法院不顾工作方面的薪资待遇等因素,而将主要裁判依据放在原用人单位是否为劳动者提供了新的工作上,这种认识上的错位导致其裁判理由让人摸不着头脑。笔者认为,如果想要厘清第二种情形中的矛盾点,就必须对“新工作”的工作内容和相应的薪资待遇进行全面考察。通过对案件的梳理不难发现,5个案件中有4个案件是因为“新工作”相较原工作薪资大幅缩水而提起的诉讼,另1个案件则是对部门调整不够满意而提起的诉讼 。在与薪资有关的4个案件中,原用人单位虽提供了新的工作,但却均可以被认定为是一种变相辞退。以研究样本中的一个案件为例,原告是一家知名通信科技公司的工作人员,2017年,其月收入为12 569.65元,远高于南京市当年的平均工资5923.16元,而且用人单位与原告所签的合同时限长达22年,可见当时该公司对该岗位的重视程度;但是由于人工智能技术的发展,原告的工作量被大幅缩减,被公司强制调岗,且工资减少了2/3,原告不服,但一审法院和二审法院均驳回了原告的诉讼请求 。笔者认为,法官对法律的应用和解释,要符合人民群众最朴素的价值观[17],如果一个人的工资突然减少2/3,其个人和家庭生活短时间内必然会受到较大影响,如果作为裁判者可能都接受不了,为什么劳动者就一定要接受呢?在上述案件中,法院的判决不能让人信服,劳动者提起了上诉,但遗憾的是,二审法院并没有合理考量劳动者的正当权益,说明法院在处理此类案件时可能缺少较为周全的思考和有效的论证。针对上述问题,可能的解决方法是:要求原用人单位对岗位调整的合理性进行充分说明,新的岗位应征求劳动者的个人意愿并兼顾其特长。在收入方面,应当以是否会在短期内对劳动者的生活产生重大影响作为划定合理收入减少区间的参考值。如果用人单位为劳动者提供的新岗位薪资待遇缩水幅度较大,则应当要求其提供工资保障缓冲期,在缓冲期内,应保证劳动者的收入减少速度不会在短期内对其生活产生重大影响。此外,原用人单位还应为劳动者习得新的工作技能和寻找新的工作提供资金和渠道支持,企业因辞退劳动者和使用人工智能而获益,也应当积极与劳动者分享人工智能所带来的技术红利[18]

    表4可知,在样本案件中,人工智能自检报告主要集中于车损鉴定领域,共7个案件,占比为7.8%,均为车主与保险公司之间的矛盾。在实际案件中,多数法院认定保险公司提供的人工智能自检报告无法作为证据使用,理由是该自检报告为单方取证行为,无法证明其客观公正性和有效性。事实上,保险公司之所以要求车主安装人工智能车损检测仪器,其目的就是在事故发生后对自身负有的保险赔付责任进行明确。所以,在保险公司提交的人工智能报告可能存在单方利己主义成分的前提下,人工智能自检报告可能只是保险公司实现其自身利益的一种工具,法院基于此质疑此类人工智能自检报告的证据效力有一定的道理。通过阅读法律文书可知,保险公司均主张人工智能自检报告应该作为关键证据 。因为在交通事故发生之后,人工智能可以在第一时间对车损状况进行评估和记录,虽然相关法院并不认可人工智能自检报告的客观公正性和有效性,但是也不应忽视该自检报告在关键时间点上取证的优势。换言之,在排除了可能影响客观公正性和有效性的相关因素之后,该自检报告就能发挥其在关键时间点上取证的优势,成为一份有力的证据。遗憾的是,在现有样本案件中,并没有法院对人工智能自检报告的客观公正性和有效性主动进行评估。造成这一现象的原因可能是:想要审核人工智能自检报告的客观公正性和有效性,必须要对其后台算法进行研究,如果后台算法设计的目的不是为诉讼双方中的任何一方开脱责任,并且确实能够对案发时的车损状况进行如实记录和客观评估,同时,硬件设备也能够有效运转,则由其生成的报告在效力上也就能得到保证。但是在样本案件中,保险公司既未提供相关鉴定证明,司法机关也缺乏可以审查后台算法设计是否具有客观公正性以及硬件设备是否能够有效运行的专业技术和人才。针对上述问题,可能的解决方法是:保险公司欲提交人工智能车损自检报告作为证据使用,应当将第三方鉴定机构对该人工智能算法设计的客观公正性和硬件设备有效性的相关鉴定意见一并提交法院进行审查。而对于人工智能自动取证这一新兴的取证形式,法院也应当积极转变思维,对那些可以给后台算法设计提供客观公正性证明,并且可以给智能硬件设备运行提供有效性证明的人工智能自检报告来说,应当允许其作为证据使用。

    自首批人工智能创作纠纷案例出现以来 ,学界有关人工智能创作是否构成著作权法上的作品这一问题的讨论就争议颇多。有学者认为,应该承认人工智能创作为著作权意义上的作品[19];也有学者认为,人工智能创作应当与人类的创作有所区分[20]。当前,人工智能生成物是否应纳入著作权法受到保护得到了广泛讨论。支持者认为,可以防止机器人创作中的抄袭之风[8]131,以产权化方式降低市场交易成本[21];反对者则认为,贸然纳入不符合要求的人工智能生成物会破坏著作权法的内在统一性和合理性,其利益可以通过其他法律规则保护,同时,保护基于同一算法逻辑得到的不同生成物也会滋生人类创造惰性而背离立法宗旨[22]15-23。此处,笔者无意加入上述论争,只希望为人工智能创作案件的解决梳理可能的思路。由表4可知,在样本案件中,涉及著作权的类型主要有视频、文字和图片作品3类,其中:视频案件3件,占比为3.33%;文字作品案件2件,占比为2.22%;图片作品案件2件(包括著名的“菲林案”),占比为2.22%。在上述案件中,当事人皆主张其人工智能作品应当受到著作权法保护,但是一审法院均以主体不适格为由进行了驳回。但要明确的是,虽然人工智能创作的著作权法意义均被一审法院否认,但是其作为作品的确客观存在的事实。即在著作权法“人类中心主义”色彩短时间内难有大的变动的背景下,虽然其著作权属性很难被明确,但是其财产属性却无法被否认。可能的解决方法是:由于现阶段人工智能作品在价值和价值的实现方式上具有抽象性,可以暂时将人工智能作品归入虚拟财产进行保护,因为虚拟财产的类别本来就是一个流动的区间,当人工智能作品能被著作权法接受或者被明确为其他类型的权利时,可以有条件、有步骤地将其从虚拟财产的类型中移出[23]

    而关于人工智能创作是否构成侵权,应该分不同的情形进行讨论。当前,有关科技公司为了增加平台的流量,通过人工智能自动分析用户行为数据并结合其爱好创作作品,虽然能够实现一定的商业目的,但是却面临多重法律风险。首先,收集用户行为数据可能会侵犯用户的个人隐私。其次,当前人工智能创作一般体现为两种形态:一种是仍带有原作品部分外形的剪辑作品,此种类型被法院认定为侵犯原作品的完整权 ;另一种虽然已看不出原作品的外形,但是仍然模仿着原作品的部分情感和世界观,这种情况下能否被认定为是一种侵权行为要根据实际情况进行讨论[24],不能一味地认定是侵权或不是侵权。最后,如果人工智能的开发者训练人工智能时所使用的全部数据或者部分数据仍为著作权法所保护,而开发者在使用数据之前又未经著作权人同意,就构成对相关著作权人权利的侵权;但是,如果全部数据均不在著作权法保护的范围内(如古代诗词),而人工智能开发者又基于合理目的对人工智能进行训练,则不构成侵权。可是,由于个性化创作是人类社会文化繁荣发展的前提,也是人工智能创作所依赖的数据的根本来源,所以应当尽可能鼓励个性化创作。因此,有必要将人工智能创作与人的创作区分开来,要求人工智能开发者或使用者为人工智能创作的作品打上标签或是要求其在单独设立的平台或者平台的特定区域上进行展示。同时,拟在专区进行展示的作品必须严格排除侵犯他人著作权等可能的法律风险。如果人工智能的开发者或使用者出于谋取商业利益的目的,故意诱导用户对人的作品与人工智能的作品产生混淆进而扰乱文艺创作市场的,应当承担相应的责任,必要时给予行政处罚。

    人工智能所引发的焦虑本身并不在于其在某一功能上是否比人类更为强大,如潜水艇很早就被人类创造而且能够比人潜得更深,但并不会引起恐慌。所以,学者们若仅仅关注人工智能在实用性上的强度而不关注其背后算法的逻辑深度,那么其对人工智能的认识就只能浮于表面。人类的恐惧其实并不来自人工智能数量的增长和功能的强化,而是来自其失控进而冲击人类社会现有利益分配格局的可能性。由于司法实务活动开展的目的本身便是定分止争,所以在对人工智能进行划分的标准制定中,就需要对当事人之间利益分配的问题进行回应,而不是仅仅满足于移植技术领域的划分要求。通过对样本案件中的人工智能类型的整理可知,以人工智能创造出来的具象化(智力)成果及其风险能否被人事前预知为标准,将其划分为工具型人工智能和智力型人工智能可能更符合案件审理的实际需要。有关这一标准的具体内容,笔者已在上文中提到,此处不赘。但还要强调的是,在以生成文字、视频、声音甚至程序代码的生成式人工智能被学界广泛关注的背景下,以上标准在人工智能类型划分的叙事上仍具有可欲性,也即生成式人工智能本身同样可以被划分为工具型人工智能和智力型人工智能两类。

    具体到司法实务中,这一划分标准对人工智能案件审理和预防工作的推动作用,主要体现在对不同类型人工智能开发者和使用者的注意义务和风险告知义务的认定上。对多数风险可预知且可控的工具型人工智能来说,由于其创造出来的具象化(智力)成果能够被人事前预知,该人工智能只是像工具一样被人操控和使用,如果在使用过程中一旦发生侵权行为,其行为后果应当直接归于控制它的人来承受。当然,在这一过程中,要强调开发者对使用者的风险告知义务,实证研究表明,开发者和使用者之间常常存在技术上的信息不对称,如果开发者明知风险而未告知使用者,则一旦发生侵权行为,由开发者单独承担责任;如果开发者已将可能的风险尽数告知使用者,使用者仍然愿意接受并使用,则一旦发生侵权行为,由使用者承担责任,开发者可仅承担补充责任。此外,需要承认的一个事实是,部分工具型人工智能现阶段仍存在一些虽可预知但不可控制的风险,而智力型人工智能的风险既不可预知也不可控制。事实上,即便能够预知风险也不代表能控制风险,更不代表这种风险可以被社会接受。当前,无论是工具型人工智能存在的可以预知但无法控制的风险,还是智力型人工智能面临的不可预知且不可控制的风险,都需要社会管理者秉承风险社会的底层逻辑,对其利弊进行选择性权衡,最终决定是否接受风险以及是否允许此类人工智能继续研发和应用。这一过程可能直接决定某些人工智能的“生死”,是保障人工智能在未来安全研发和应用的重要步骤。

    实证研究表明,审理人工智能案件的专业法院共有两类:一类是知识产权法院,另一类是互联网法院。与知识产权法院不同,互联网法院是专业性法院却非专门法院。实证研究表明,专业性法院在审理人工智能民事案件过程中比传统法院更具优势,而且在行政案件中具有绝对优势。如果从效率的角度出发,应该强化人工智能案件向专业性的知识产权法院和互联网法院引流的力度。但是,加强案件向专业性法院引流要考虑两个问题:一是怎么引流。想要解决这一问题,不但要强化最高人民法院对案件管辖权的统一分配和领导,还要求强化各级法院之间的相互配合。二是在可以引流的前提下,应考虑专业性法院是否具有足够的案件承载能力。目前,中国互联网法院仅有3家,分别位于北京、杭州和广州;知识产权法院也为3家,分别位于北京、上海和广州。但是实证研究表明,浙江(26件,占比为11.82%)、江苏(17件,占比为7.73%)的人工智能案件在数量上均不低于广州(17件,占比为7.73%),所以,在浙江、江苏等地增设互联网和知识产权法院或许更符合案件审理的实际需要[25]。此外,还应尽快将互联网法院的定位从基层法院提升为专门法院[26],此举将有利于提高互联网法院的人才吸引力[27],从而增强互联网法院处理人工智能案件的强度和力度。

    这种弹性主要体现为以下两点:一是在一定条件下降低部分人工智能开发者和使用者的注意义务,二是对侵权者获得“经济利益”的范围进行扩大解释。一方面,由于样本案件中出现的人工智能均为工具型人工智能,而对大多数工具型人工智能来说,其风险是可以被预知的,也是可以被控制的。所以,对于此类人工智能,如果开发者和使用者未尽到合理的注意义务和风险防控义务,则可以认定为其存在侵权故意。但正如上文所言,还有一部分工具型人工智能的风险虽可以预知,但却无法被控制,而这种无法被控制的风险能否被接受,需要社会管理者对其中的利弊进行比较和权衡。如果这种人工智能被允许继续进行研发和应用,一旦因其不可控的风险导致侵权,则无论是开发者还是使用者,都可以酌情减轻甚至免除责任,原因在于,全社会因为此类人工智能的应用而获益,其不可控的风险也应由全体社会成员共同承担。对上述人工智能来说,若仍以人工智能最终要根据人的命令行事或者人工智能无法成为侵权责任的主体为由要求开发者或使用者承担责任,既缺乏事实和法理支撑,也不符合法律适用的灵活性要求。另一方面,侵权者可获“经济利益”的认定应进行扩大解释,如果裁判者只关注直接性经济利益而忽视了商誉提升等间接性经济利益,就无法认清案件事实,更无法作出公平公正的判决。

    《职业安全和卫生及工作环境公约》明确提出,要关注劳动者的职业安全 。在人工智能取代人进行劳动成为大趋势的背景下,有必要构建用工市场弹性和就业安定的平衡机制[28]。在某一岗位被人工智能取代之后,法律不仅要照顾公司作为市场主体节约生产运营成本的需求,还要照顾劳动者基于对新岗位收入预期而在一定时间内对生活进行重新安排的合理需要,对此,比较合理的办法是为劳动者提供工资保障缓冲期。那么需要思考的是,该缓冲期应该为多久,有没有最短和最长时限。笔者认为,以每个月最多减少10%为限度较为合适,这样有利于劳动者在当前生活不发生太大变化的前提下合理安排接下来的工作和生活。至于减少多久,要看劳动者和用人单位协商之后的最低工资额,一般用人单位会根据调岗之后新工作的工作内容为劳动者划定工资线,故工资保障期最短时间的计算公式为:

    工资最短保障期=(原岗位月工资−新岗位月工资)/(原岗位月工资/10)

    工资保障缓冲期不能低于工资最短保障期(以月为单位),但是没有上限,用人单位可以为劳动者提供更为缓和的工资减少措施,从而延长工资保障缓冲期。此外,对那些不愿继续在原用人单位工作的劳动者来说,原用人单位应为其习得新的工作技能和寻找新的工作提供资金和渠道支持,企业因辞退劳动者使用人工智能而获益,也应当在承担社会责任的基础上对劳动者的工作机会损失进行补偿。

    与传统的取证方法相比,人工智能自动化取证是一种新型的取证方式,如果市场参与主体能够对人工智能后台算法的客观公正性(非歧视性)进行证明,同时亦能证明其智能硬件设备运行的有效性,那么法院在认定该人工智能自动收集的证据的可靠性时或许无须持过于谨慎态度。从人工智能自检报告的合格标准来看,首先,其后台算法应当具有客观公正性,即车载人工智能设计是为了客观记录和评估车损状况,而不是为保险公司开脱责任,在这一点上,法院既可以要求人工智能使用者提供第三方权威机构的鉴定证明,也可自行审查。其次,应当确保具有人工智能收集证据所必要的功能,即能证明人工智能可以做到在车祸发生时及时记录车损状况并进行合理评估。最后,应当确保智能设备运行具有有效性,因为设备的有效性是检验算法设计客观公正性的直接载体,人工智能的算法和终端在审查证据客观公正性过程中应该是一个共同体,不可偏废其一,该算法和设备应当同时确保能够重复做出与案件发生时一样的反应,开发者和使用者所提供的算法应当分别进行测试,并将二者进行对比,只有算法设计满足客观公正性,并且开发者和使用者提供的算法在智能终端运行结果均一致时,其结果才能作为证据使用,此举可以防止人工智能开发者与使用者合谋串通。

    对人工智能作品来说,应当承认其商业价值和存在的合理性。随着人工智能越来越“聪明”,其创作的作品也越来越受人喜爱,一批以智能数字人为代表的人工智能也开始在社交平台赢得大批“粉丝”[29]。同时,不应过分以人类的创作标准去影响人工智能作品属性的认定。因为,如果以人类的创作标准去要求人工智能,单纯强调作品的思想性及社会文化价值[30], 或着眼于依附性[31],那么人工智能可能永远达不到要求,其作品也可能因此无法及时得到保护。但同时要注意的是,贸然纳入不符合要求的人工智能生成物,又可能会破坏著作权法的内在统一性和合理性。可能的解决方法是:将人工智能作品的相关利益通过其他法律规则进行保护。由于现阶段人工智能作品在价值和价值实现方式上具有抽象性,可以暂时将人工智能作品归入虚拟财产进行保护,因为虚拟财产的类别本来就是一个流动的区间,当人工智能作品能被著作权法接受或者被明确为其他类型的权利时,可以有条件、有步骤地将其从虚拟财产这一类型中移出。

    此外,坚持“人类中心主义”的学者普遍认为,保护基于同一算法逻辑得到的不同生成物会滋生人类创造惰性而背离立法宗旨[22]15-23。可能的解决方法是:划定人工智能作品的使用范围,对“作品”的含义做扩大解释,在承认人工智能作品的同时,将人工智能的作品和人的作品进行明确区分。在法律层面,应针对人工智能作品的管理出台专门的细则,对其适用范围进行明确规定[32]。例如,要求人工智能使用者为人工智能创作的作品打上标签或是要求其在单独设立的平台或者平台的特定区域上进行展示。同时,拟在专区进行展示的作品必须严格排除侵犯他人著作权等可能的法律风险。如果人工智能的开发者或使用者出于谋取商业利益的目的,故意使用户对人的作品与人工智能的作品产生混淆,从而扰乱文艺创作市场,应当追究其责任。

    “在如今的技术和经济条件下,逃避风险就意味着放弃理性。”[33]如何通过法律制度防范人工智能风险的同时兼顾技术发展,成为法学研究在人工智能时代义不容辞的责任和使命。笔者通过对已公布的220件涉人工智能案件司法裁判结果进行研究,认为以创造出来的具象化(智力)成果及其风险能否被人事前预知为标准对人工智能进行划分可能更符合案件审理的需要。同时,笔者还讨论了专业性法院管辖案件数量提升化、开发者和使用者注意义务认定标准灵活化、劳动者薪资降速降幅合理化、自动化取证合规化、人工智能作品归类展示合法化等问题。诚然,上述研究能够为完善人工智能的立法和司法工作提供一定参考,但也应清晰地认识到,不合格样本的干扰以及合格样本法律文书的残缺,也可能导致相关实证研究出现样本量较小和变量界定不够清晰等实际难题。但是,上述问题也将随着样本量的增加和法律文书平台的持续完善而得到有效缓解。

    注释:
    中国裁判文书网上的案件信息一直在不断更新中,笔者所收集样本的时间截至2021年8月27日。
    包括32家高级法院、32家中级法院、96家基层法院。
    例如,相舆科技(上海)有限公司与福建美沿科技有限公司侵害发明专利权纠纷案,参见:最高人民法院(2020)最高法知民终1042号民事判决书。
    包括单一的人工智能技术(68件)、智能化系统(52件)、智能软件(20件)、大型人工智能综合性平台(4件)。
    包括智能客服机器人(6件)、电销机器人(2件)、游戏陪聊机器人(1件)。
    包括智能名片软件(4件)、智能化物业管理系统(3件)、仓库智能管理系统(3件)、智能看面相(2件)、来电身份标注技术(2件)、球赛结果预测(2件)、自动输单(2件)、人际交互(1件)、图像分层(1件)、证据分析与保存技术(1件)、社区老人智能看护(1件)、反刷视频流量系统(1件)、反洗钱信息报送系统(1件)、预应力张拉程控系统(1件)、智能呼叫系统(1件)、专利检索分析系统(1件)、肤质分析软件(1件)、智能评分软件(1件)、智能短信群发(1件)、文字作品剪辑推荐(1件)。
    包括人工智能人形机器人(19件)、早教机器人(5件)、清洁机器人(2件)、陪伴机器人(1件)、智能语音机器人(1件)、学习机器人(1件)、语音交互机器人(1件)。
    包括智能语音助手(2件)、智能服务器(2件)、智能温度控制器(2件)、智能摄像头(1件)、智能探测器(1件)、智能煮饭煲(1件)。
    上海品图网络科技有限公司与河北养元智汇饮品股份有限公司侵害作品信息网络传播权纠纷案,参见:上海知识产权法院(2019)沪73民终137号民事判决书。
    包括正常的一审案件(155件)和向一审法院提出强制执行的案件(2件)。
    包括北京知识产权法院(21件)和上海知识产权法院(3件)。
    包括北京互联网法院(4件)和广州互联网法院(1件)。
    包括最高人民法院(2件)和铁路运输法院(2件)。
    包括:在构成侵权的前提下,赔偿数额是否合适(4件);打码注册公司使用人工智能技术抓取数据的行为是否在合理的使用限度之内(4件);使用人工智能进行非法活动的当事人是否构成欺诈(4件);原公司职员是否违反竞业限制义务(2件);人工智能开具发票的时间能否被认定为起始时间(1件);咨询转服过程中人工智能是否存在过错(1件)。
    北京字节跳动网络技术有限公司与北京小度互娱掌讯科技有限公司等侵害作品信息网络传播权纠纷案,参见:北京互联网法院(2020)京0491民初34364号民事判决书。
    上海智臻智能科技网络有限公司与苹果电脑贸易(上海)有限公司专利权纠纷案,参见:最高人民法院(2017)最高法行再34号行政判决书和上海市中级人民法院(2012)沪一中民五(知)初字第186号民事判决书。由于法律文书未尽然上网,未找到国家知识产权出具的行政决定书,但是通过阅读最高人民法院的再审判决书可知,国家知识产权局与一审法院观点一致。
    张斌与南京爱立信熊猫通信有限公司劳动争议案,参见:江苏省南京市中级人民法院(2017)苏01民终7261号民事裁定书。
    《中华人民共和国劳动合同法》第41条规定:“有下列情形之一,需要裁减人员二十人以上或者裁减不足二十人但占企业职工总数百分之十以上的,用人单位提前三十日向工会或者全体职工说明情况,听取工会或者职工的意见后,裁减人员方案经向劳动行政部门报告,可以裁减人员:(一)依照企业破产法规定进行重整的;(二)生产经营发生严重困难的;(三)企业转产、重大技术革新或者经营方式调整,经变更劳动合同后,仍需裁减人员的;(四)其他因劳动合同订立时所依据的客观经济情况发生重大变化,致使劳动合同无法履行的。”
    吴雪萍与江苏顺丰速运有限公司劳动争议案,参见:江苏省南京市中级人民法院(2020)苏01民终5510号民事判决书。
    代表性案件为中国太平洋财产保险股份有限公司南阳中心支公司与郭赛财产保险合同纠纷一案,参见:河南省南阳市中级人民法院(2020)豫13民终4204号民事判决书。
    代表性案件为上海步升大风音乐文化传播有限公司诉北京友播世纪信息技术有限公司侵犯录音制作者权纠纷案,参见:北京市海淀区人民法院(2008)海民初字第6939号民事判决书。
    北京菲林律师事务所与北京百度网讯科技有限公司侵害署名权、保护作品完整权、信息网络传播权纠纷案,参见:北京知识产权法院(2019)京73民终2030号民事判决书。
    参见:1981年《职业安全和卫生及工作环境公约》第5条第(c)项。
  • 表  1   人工智能类型分布状况(N=220)

    类型数量/件占比/%
    工具型
    人工智能
    技术集成类
    人工智能
    智能租车平台17 7.73
    数据统计分析15 6.81
    贷款审放系统13 5.91
    打码识别盗号 13 5.91
    程序机器人 94.09
    大数据定价94.09
    智能选股软件83.64
    汽车系统检测83.64
    金融交易系统83.64
    影片聚合推荐73.18
    智能医疗诊断62.73
    其他 31 14.09
    成品实物类
    人工智能
    智能机器人 30 13.64
    智能电视机94.09
    自动售卖机62.73
    智慧轿车31.36
    车载反追踪装置20.91
    智能控制电箱31.36
    智能翻译机31.36
    智能音响52.27
    智能工作台20.91
    智能拖地机20.91
    智能假肢20.91
    其他 9 4.09
    智力型
    人工智能
    DABUS等
    下载: 导出CSV

    表  2   各审级案件分布情况(N=220)

    审级 数量/件占比/%
    一审157 71.36
    二审59 26.82
    发回重审4 1.82
    下载: 导出CSV

    表  3   不同类型法院审理案件分布情况( N =220)

    类型 数量/件占比/%
    基层法院123 55.91
    中级法院4520.45
    知识产权法院 24 10.91
    高级法院198.64
    互联网法院 5 2.27
    其他 4 1.82
    下载: 导出CSV

    表  4   涉人工智能案件审判焦点分布情况(N=90)


    焦点类型

    案件总数/件
    法院裁判结果
    支持 驳回
    数量/件占比/%数量/件占比/%
    人工智能产品和服务在质量上是否符合要求?2422.22 2224.44
    人工智能工作的自主性是否能成为侵权者不存在主观过错的理由?14001415.56
    是否因对人工智能产品进行夸大宣传而存在不正当竞争行为?1210 11.1122.22
    企业用人工智能取代人进行劳动是不是对劳动者权利的侵犯?1055.5655.56
    人工智能自检报告是否可以作为证据使用? 711.1166.67
    人工智能创作是否构成著作权法上的作品、是否侵害第三方权益? 70077.78
    其他 16 10 11.11 6 6.67
    下载: 导出CSV
  • [1] 国务院. 《国务院关于印发新一代人工智能发展规划的通知》[EB/OL]. (2017−07−20)[2021−10−03].
    [2] 中共中央. 中共中央关于制定国民经济和社会发展第十四个五年规划和二〇三五年远景目标的建议[EB/OL]. (2020−11−03)[2021−10−15].
    [3] 许晔. 下一代人工智能:引领世界发展的新兴驱动力[J]. 人民论坛 • 学术前沿,2020(20): 14—23.
    [4] 李俊丰,姚志伟. 论人工智能的法律人格:一种法哲学思考[J]. 华侨大学学报(哲学社会科学版),2018(6): 80—86.
    [5] 刘强,孙青山. 人工智能创作物著作权侵权问题研究[J]. 湖南大学学报(社会科学版),2020,34(3): 140—146.
    [6] 李文吉. 论人工智能时代的预防性刑法立法[J]. 大连理工大学学报(社会科学版),2020,41(5): 97—103.
    [7] 张安毅. 人工智能侵权:产品责任制度介入的权宜性及立法改造[J]. 深圳大学学报(人文社会科学版),2020,37(4): 112—119.
    [8] 吴汉东. 人工智能时代的制度安排与法律规制[J]. 法律科学(西北政法大学学报),2017,35(5): 128—136.
    [9] 中国社会科学院国家法治指数研究中心, 中国社会科学院法学研究所法治指数创新工程项目组. 中国司法公开第三方评估报告(2018)[EB/OL]. (2019−03−01)[2021−10−15].
    [10] 张钹,朱军,苏航. 迈向第三代人工智能[J]. 中国科学:信息科学,2020,50(9): 1281—1302.
    [11] 吴汉东. 人工智能生成作品的著作权法之问[J]. 中外法学,2020,32(3): 653—673.
    [12] 2021百度世界大会公告: 火星车“祝融号”智能数字人展示[EB/OL]. (2021−07−08)[2021−10−15].
    [13] 季冬梅. 人工智能生成发明专利保护的理论回归与制度探索−以DABUS案为例[J]. 科技进步与对策,2022,39(18): 121—129.
    [14] AI系统DABUS已被南非认定为专利发明人, 澳洲可能跟上[EB/OL]. (2021−08−04)[2021−10−15].
    [15] 跟人类学坏了? GPT-3 这类人工智能居然学会人身攻击和骂人[EB/OL]. (2021−09−04)[2021−10−15].
    [16] 同样都是亏钱扩张, 瑞幸咖啡和拼多多有何不同? [EB/OL]. (2020−01−01)[2021−10−15].
    [17] 汪习根,段昀. 社会主义核心价值观融入教育法律制度的理论构建与现实进路[J]. 求索,2021(2): 115—122.
    [18] 郑志峰,李佩艳. 人工智能对劳动法的挑战及其建议探索[J]. 人工智能,2020(4): 66—75.
    [19] 孙松. 人工智能创作内容的作品定性与制度因应[J]. 科技与出版,2019(4): 106—110.
    [20] 余翔,张润哲,张奔,等. 适应人工智能快速发展的知识产权制度研究[J]. 科研管理,2021,42(8): 176—183.
    [21] 孙正樑. 人工智能生成内容的著作权问题探析[J]. 清华法学,2019,13(6): 190—204.
    [22] 何炼红. 人工智能自主生成成果“作品观”质疑与反思[J]. 贵州省党校学报, 2018(5): 15—23.
    [23] 阿迪力 • 阿尤甫,秦文豪. 虚拟财产保护路径之探析−基于已公布案件的实证研究[J]. 重庆邮电大学学报(社会科学版),2021,33(4): 73—88.
    [24] 曾田. 人工智能创作的版权侵权问题研究[J]. 河北法学,2019,37(10): 176—189.
    [25] 占善则,王译. 互联网法院在线审理机制之探讨[J]. 江汉论坛,2019(6): 115—122.
    [26] 刘树德. 关于《人民法院组织法》专门法院设置的若干思考——立足互联网时代网络强国战略的背景[J]. 法治研究, 2017(4):3—14.
    [27] 陈增宝. 构建网络法治时代的司法新形态——以杭州互联网法院为样本的分析[J]. 中国法律评论,2018(2): 40—45.
    [28] 汪银涛,吴延溢. 人工智能时代劳动法立法范式的转型[J]. 人文杂志,2019(10): 34—43.
    [29] 李晶. 论人工智能虚拟偶像的法律性质[J]. 浙江社会科学,2020(9): 57—63, 158.
    [30] 刘银良. 论人工智能作品的著作权法地位[J]. 政治与法律,2020(3): 2—3.
    [31] 冯晓青,潘柏华. 人工智能“创作”认定及其财产性权益保护研究−兼评“首例人工智能生成内容著作权侵权案”[J]. 西北大学学报(哲学社会科学版),2020,50(2): 39—52.
    [32] 张颖. 人工智能编创过程中的著作权问题探析[J]. 中国编辑,2018(9): 81—86.
    [33] 尼古拉斯·卢曼. 风险社会学[M]. 孙一洲, 译. 南宁: 广西人民出版社, 2020: 15—159.
  • 期刊类型引用(6)

    1. 张妮,章敏,彭蝶,杨黔东. 中国式教育现代化背景下乡村名师工作室发展研究:基于共生理论视角. 教育导刊. 2025(04): 54-62 . 百度学术
    2. 卢浩宇,李强. 中国式现代化视域下高等教育现代化的价值维度、实践重心与推进路径. 教育理论与实践. 2024(09): 3-9 . 百度学术
    3. 李芳,钟思玉. 中国式现代化视域下乡村教育振兴的价值逻辑与政策创新. 教育文化论坛. 2024(04): 26-36 . 百度学术
    4. 李依檬,廖桐. 中学英语课程思政建设:价值意蕴、现实困境与实践进路. 科学咨询(教育科研). 2024(06): 240-243 . 百度学术
    5. 周斌,朱成科. 中国式教育现代化基本理论研究的回顾与展望. 成都师范学院学报. 2024(06): 18-25 . 百度学术
    6. 马虹霞. 核心素养背景下小学科学教学研究. 科学咨询(教育科研). 2024(12): 237-240 . 百度学术

    其他类型引用(2)

表(4)
计量
  • 文章访问数:  0
  • HTML全文浏览量:  0
  • PDF下载量:  0
  • 被引次数: 8
出版历程
  • 收稿日期:  2021-12-05
  • 网络出版日期:  2022-11-10
  • 刊出日期:  2023-11-24

目录

/

返回文章
返回