ISSN 1008-2204
CN 11-3979/C

论算法可专利性中的算法解释功能

侯泽琦

侯泽琦. 论算法可专利性中的算法解释功能[J]. 北京航空航天大学学报社会科学版, 2024, 37(1): 175-183. DOI: 10.13766/j.bhsk.1008-2204.2022.0219
引用本文: 侯泽琦. 论算法可专利性中的算法解释功能[J]. 北京航空航天大学学报社会科学版, 2024, 37(1): 175-183. DOI: 10.13766/j.bhsk.1008-2204.2022.0219
HOU Zeqi. Functions of Algorithmic Interpretation in Algorithmic Patentability[J]. Journal of Beijing University of Aeronautics and Astronautics Social Sciences Edition, 2024, 37(1): 175-183. DOI: 10.13766/j.bhsk.1008-2204.2022.0219
Citation: HOU Zeqi. Functions of Algorithmic Interpretation in Algorithmic Patentability[J]. Journal of Beijing University of Aeronautics and Astronautics Social Sciences Edition, 2024, 37(1): 175-183. DOI: 10.13766/j.bhsk.1008-2204.2022.0219

论算法可专利性中的算法解释功能

基金项目: 国家社会科学基金重点项目 (21AFX004)
详细信息
    作者简介:

    侯泽琦(1995—),男,青海西宁人,博士研究生,研究方向为宪法、行政法

  • 中图分类号: D923.42

Functions of Algorithmic Interpretation in Algorithmic Patentability

  • 摘要:

    算法解释是利用可视化与自然语言的方式向有关主体作出解释,而算法透明是算法主体通过算法解释行为而获得一定的公信力并满足监管的状态,二者是手段与目的的关系。算法的黑箱性来源于其高度非线性的特征,法律需要凝练算法技术参数与算法“主观恶性”之间的联系,形成针对算法解释的定性、定量、定体标准,从而使算法解释工作在标准化的同时也能够为常人所理解。专利制度的“公开换垄断”特征,使得“算法公开”可能可以满足监管需求,“专利垄断”则激励企业自律。因此,在中国,判断人工算法专利适格性的理论证成与制度标准,逐渐从“是否可专利性”转变为“算法专利保护”。在算法分级分类监管背景下,部分算法透明的任务可能由专利公开文件完成,同时,专利公开文件成为后续算法透明路径中不可或缺的基础参考。

    Abstract:

    Algorithm interpretation is to make explanations to relevant subjects by means of visualization and natural language, while algorithm transparency is the state in which the subjects of algorithm obtain a certain degree of credibility and meet regulation through algorithm interpretation, and the relationship between the two is that of means and ends. The black box nature of the algorithm comes from its highly non-linear characteristics, but the law needs to condense the connection between the technical parameters of the algorithm and the “subjective malignancy” of the algorithm, and form the qualitative, quantitative and stereotypical standards for algorithm interpretation, so that the algorithm interpretation work can be standardized and understood by ordinary people. The “disclosure for monopoly” feature of the patent system makes it possible for the “disclosure” to meet the regulatory needs, while “monopoly” encourages enterprises to regulate themselves. Therefore, the theoretical evidence and institutional standards for judging the patent eligibility of artificial algorithms in China have gradually changed from “patentability” to “algorithm patent protection”. Under the background of regulation of algorithms covering different levels and categories, some tasks of algorithm transparency may be completed by algorithm patent disclosure documents, and at the same time, patent disclosure documents can become an indispensable basic reference in the subsequent algorithm transparency path.

  • 算法解释与算法透明成为综合业界与学界在进行横跨文理的技术考量后,形成的技术性与可行性相统一的算法规制手段,并在《互联网信息服务算法推荐管理规定》(以下简称《算法推荐规定》)中得到确定。《中华人民共和国个人信息保护法》与《中华人民共和国反不正当竞争法》同样要求算法公正与透明,但是规定较为粗略,缺乏行之有效的实操内容。欧盟《一般数据保护条例》(GDPR)要求,企业必须从技术与组织结构层面告知算法决策的逻辑。由于算法评估、备案等公开机制均过分强调监管部门的作用,这在增加治理成本的同时,也忽略了市场自律的可能。专利公开制度是赋予企业合法垄断,以公开换取竞争优势的重要制度;而算法可解释的核心在于,算法歧视的主观行为能否通过公开的技术指标得以体现。那么,专利公开的技术内容能否既满足监管部门所规定的公开披露要求,又使企业在与商业秘密不冲突的前提下,利用专利公开最大化市场竞争力的同时,满足算法透明度的要求,最终使专利公开制度作为企业自律的一环,并与国家主导的算法审查制度相配合,实现企业以趋利避害为基础进行自律。这将是笔者主要探讨的问题。

    《算法推荐规定》对于算法解释、算法透明概念以及二者的关系未进行明确的规定,学界对此也看法不一。笔者认为,算法解释是以技术为出发点,利用自然语言与可视化的方式,对算法设计的决策逻辑与法律风险向有关机关或个人进行解释。算法解释可以细化为可执行的标准和程序,且解释对象为具备技术背景的监管部门、评估方、个人。算法透明,则是指算法主体披露算法应用、设计参数等一系列信息,从而获得外界的信任[1]。算法透明本身具备一定的政治性,且评判标准主观,难以形成规范化的可执行标准和程序,超出了法律与技术的范畴[2]。其目的在于,使监管主体和公众,了解并信服其算法安全性。有学者提出,算法的透明度应当通过参数可视化、实例解释等方式进行公开[3]。笔者认为,这种方式的本质依然是算法解释,因为算法解释与算法透明二者是手段与目的的关系,所以算法主体通过算法解释的手段进行算法公开,从而获得适度的算法透明度,进而达成企业公信力的提升。因此,《新一代人工智能发展规划》在建设新一代人工智能算法体系的过程中,要求实现具备高可解释性、强泛化能力(算法兼容性)的人工智能[4],但并未提及算法透明的相关内容,可见算法解释更适合量化并作为法律标准规制的客体。专利制度中,企业递交的算法专利申请书与说明书,必定需要列明算法的数据服务方法、算法模块结构等原理,并附上方法实施例,与上文提及的参数可视化、实例解释等公开方式相似。因此,下文将探讨算法专利的公开内容,是否属于算法解释且能否达到适度的算法透明要求。对于《算法推荐规定》中的算法透明不再予以讨论。

    在明确算法解释之前,要明确算法的黑箱来源,才能找准体现算法主观行为恶性的算法技术指标。首先需要明确的是,并非所有的算法都具备黑箱性。人工智能算法的目标在于利用计算机模拟人的思维,而人的思维在数学上可以抽象地表示为各类函数及其总和,也即算法的核心构成,是其作出决策的关键[5]。相应地,目前市面上主要存在三种类型的算法:线性(linear)、决策树(decision tree)、神经网络(deep network)。线性算法通常具有优秀的解释能力,因为线性回归模型可以很直观地展示每个样本数据参与模型运算的特征权重,由此可以清晰地知道决策原委。决策树算法可以清晰地看到每个节点和问题,并且可以通过结果向上逆推得到决策过程,看似是一个既可解释又能支持复杂模型的算法,但当决策树模型复杂到可以构成随机森林(random forest)的时候,其就不再具备自解释性。深度学习算法本身就是由多层非线性函数构成的,同时,算法的应用需要经过数据训练后形成神经网络算法模型,训练数据也会影响算法的决策[6]。此外,还需引入确定推理与不确定推理概念。确定推理包含法律人熟悉的经典演绎推理,在定罪量刑中得到了广泛应用,也是行政与审判自动化的技术基础;不确定推理则是基于统计学而来的,输入值差之毫厘,将会因为落在不同的概率区间而导致输出值谬以千里。神经网络算法就是由大量的“不确定”“非线性”系统层层叠加得到的[7],导致神经网络中关键参数的波动范围在整个训练过程中无法可控,难以使用普通人熟知的自然语言予以解释[8]

    算法解释的核心还是要依赖算法解释技术的进步,而法律在其中主要承担规训技术,并设定可选解释路径和分场景分级别设定相关技术参数披露红线的作用。笔者将其总结为法律对算法解释的定性、定量、定体功能,通过对算法解释应当达到的透明度、解释路径、程序规范等进行纲领性、结果性的指引,并通过技术标准、指南等技术性、灵活性规制手段进行具体细化。

    算法解释的定性,是指通过自然语言对规范性文件中要求的算法功能进行解释,表达出算法分析与决策过程的实质,由此作为算法解释是否满足要求的判定原则。笔者认为,算法解释的理想目标是全方位地解释算法模型的工作机理,并准确、全面、清晰地告知分析与决策的步骤。但是,囿于算法的复杂与解释技术的限制,现阶段尚未有技术可以达到此目标。因此,算法解释的定性应当以“信任”为判断标准,而非“透明度”。由于人脑的决策实际也是一种黑箱,但是基于语言交互的便利与法律对行为的限制,人与人之间较易产生信任。所以,无需苛责人工智能算法需要在完全透明的状态下才能获得信任,现阶段算法解释定性应当要求算法使用者在考虑模型使用数据、适用场景、解释对象的基础上,尽全力以人类能够理解的方式解释算法的学习与决策机理,并验证其可靠与可信度,最终获得解释对象的认可[9]

    算法解释的定量在于将具体评价参数标准化,即探寻上文提到的算法的主观恶性反映在哪些具体的技术指标上,一旦算法解释的各类参数在合理的范围内,即可认定为行之有效的算法解释,并达到算法透明度之预期。现阶段,《算法推荐规定》对算法机制机理、模型、数据和应用结果提出了披露要求,即要求算法解释的定量以技术说明、评价参数等形式出现。目前,软件工程中的软件验收说明书与此有类似之处,会对软件的各项技术参数、稳定性等制定技术性评估标准,笔者将其归纳为四个评价方向并作为算法解释定量的技术标准:公平性(fairness)、可信任度(trustworthiness)、可达性(accessibility)和交互性(interactivity)、因果关系(causality),并将在下文进行详细论述。

    算法解释的定体在于为达到算法解释的定量要求,算法主体采取法律或政策许可的固定体例或形式向有关机关或个人进行算法解释。目前主要有两类解释形式:其一,在算法模型构建之初就考虑到事前可解释的需求,从而在算法设计中预留解释接口或直接采用自解释的算法设计,但目前市面上绝大多数算法并未采用此种先进设计理念。其二,在现有算法模型的基础上对输入数据进行预处理,并通过直观展示输出数据的变化从而对模型进行解释[10]。在技术上抽象体现为调整模型内部参数,判断参数对于结果的影响,或者向输入样本中添加扰动,探索表征向量来对系统中不同变量的重要程度进行评估,寻找系统判断决策的依据。在技术上大致有可视化、基于局部近似、基于黑盒测试三种技术思路[11]。未来,可由行业技术标准或者《人工智能算法金融应用评价规范》这类行业标准在凝练各类算法解释技术路线的基础上,分场景分级别对各类算法主体设定规范可行但又灵活可选的定体解释路径,给予企业多种类但又确定的指引。

    综上可知,算法解释是一项技术性很强且未成熟,但又亟须法律规制的行为。采取现有制度的适应性改造与行政法规、行业标准这类灵活性较强的规制工具,将有助于算法技术进步与算法侵权治理的有机平衡。现阶段,国家立法导向与学界观点主要集中于通过国家行政主导的方式,以公权力工具链展开算法治理。知识产权制度作为法律与科技结合的典型产物,不应在本轮科技变革中缺席,因此,下文将探讨以现有专利权利申请书、说明书、附图、实施例为组成的专利公开文件,其内容能否满足上文中算法解释的定体需求,并呈现出与《算法推荐规定》要求一致的算法解释定量标准,从而满足算法解释定性要求,最终实现算法适度透明的法律诉求。

    算法的可专利性,是专利制度在算法解释领域发挥作用的前提。算法是基于一定推理结构,并由各类数学函数表示的集合。由此立法一直贯彻“防止人工智能算法的可专利性”原则,并认为其与抽象方法、智力活动等一致,从而不具备专利授予的基本条件。近年来,学界一直呼吁给予算法专利,尤其是人工智能基础算法的专利适格性。人工智能算法的可专利性是专利制度在算法解释与透明功能中的起点,因此,本节将探讨“是否可专利性”到“算法专利保护”的理论证成与制度转变。

    目前,中国正处于“防止算法专利适格性”逐步向“科学探寻算法专利适格标准”的法理转化的过程中,首先需要厘清“防止算法专利适格性”理论基础,才能有的放矢、推陈出新,建立“科学探寻算法专利适格标准”的理论体系。全世界范围内对于算法专利的可专利担忧主要出于三个方面。

    其一,智力活动除外原则 。由于人工智能算法的技术抽象性与应用基础性,容易被归类为智力活动——人们进行思维、表达、判断、记忆的规则和方法。而智力活动在中国、欧洲、美国 均不能获得专利适格性[12]。算法从人脑思维到“跃然纸上”再到计算机实施的过程,本就是需要投入大量时间、精力、财力的研发过程,因此,将人工智能算法归于智力活动在智能时代逐渐失去意义,更多是捍卫人脑思维自由高于专利垄断的法律宣言[13]

    其二,区分基础研究与实际应用原则。传统上认为,人工智能算法开发作为计算机领域典型的基础类研究,由于其缺乏直接商业应用性,不适用于专利制度进行保护与激励,容易使专利覆盖范围过宽,难以平衡专利权人与社会公共利益[14]

    其三,技术应用领域限制原则。欧洲与中国将算法专利应用于具体技术领域,被视为可专利性的必要条件;美国则认为,技术领域含义模糊,并在“Bilsky案”确立不采用“技术领域”标准[15];日本更是对此没有要求,使得人工智能基础算法得以在日本获得专利[16],但随着机械时代转向信息时代,日本对技术性的认识也在逐渐发生变化;德国最高法院在“集成电路分层逻辑检验方法”的司法实践中指出,对“传统自然力”的直接应用不是具有“技术性”的必要前提,此外,德国对审查人员专业水平与现有算法专利数据检索库建设不健全等制度成本的考量,也是影响“技术应用领域限制”原则的因素。

    应当综合行业发展进行适当的法理调整,在肯定算法专利适格性的前提下,以发展的眼光看待“技术性”的范围[17],并审视“应用于具体技术领域”的限定是否必要,从而平衡个人利益与社会公益,进而更加明晰算法专利的权利范围。

    其一,机械时代到信息时代的转变,使得算法理论到程序应用的距离大幅缩短。算法专利审查标准转变的现实依据是,信息时代使得数学基础理论从原本使用机械类实现方式转变为使用“计算机+大数据”的信息化实现方式。因此,在计算机领域,基础理论与具体应用的界限逐渐模糊,许多算法由于软硬件一体化设计,自始至终就是为实际应用而存在的,因而无法忽视其技术性。

    其二,人工智能基础算法可作为“信息系统中的组件”通过具体技术加工,选定具体技术方向,进入实际产业应用,无须与具体技术应用绑定 。在以复杂系统化计算机软件、大型工业机械为产品应用的今天,一项产品从基础研究到实际应用往往需要经历多层技术、配件供应商等多个环节。所以,处在中间层的人工智能算法具备抽象思维与技术方案兼有的二元性特征,传统机械工程领域的专利审查标准变化,为智能时代人工智能算法专利适格性判断提供了应对变革的借鉴。例如,人们熟知的发动机配气机构中的“可变节气门技术”,其作为教科书中的典型基础工程理论不可能授予专利。但是,各车厂以此理论结合工业设计、材料学、精密机加工等不同技术方案,设计出的功能相同但表现形式不同的配气机构,却能各自获得专利,成为发动机模块的重要组成部分。此外,上述专利也可以在航空发动机、发电机等一系列新领域进行应用,并不需要再次申请专利。相应地,人工智能算法中的抽象神经网络理论无法获得专利,但是一旦与计算机技术结合,通过数学函数表达—数据结构开发—计算机代码实现等一系列技术开发,不同厂商会据此路径开发出功能类似但表现形式不同的工程成果,并可能应用于多种场景。因此,现阶段将人工智能算法视为智力活动,并要求与具体应用领域相结合才能获得专利的二分法,实则与产业现状脱节。因此,有必要结合产业实践,借鉴“抽象层次法”[18],考虑在抽象思想与具体发明之间可能具有多重抽象层次,不再谋求绝对的“抽象思想—具体应用”二分法对立

    综上所述,人工智能基础算法作为“中间产品”一开始就以应用为导向进行研发,且创新活跃、科技竞争力强。考虑到专利保护范围与现实技术贡献的“比例原则”,理应获得专利适格性。

    面向新一轮技术革命与市场需求,国家知识产权局发布了《关于修改〈专利审查指南〉的公告》(第343号),并在2020 年 2 月施行的《专利审查指南》(以下简称“2020年《指南》”)中,第一次将“人工智能算法”纳入中国专利类法律文件。但是,对于算法专利依然存在整体论和与具体应用领域相结合两大限制。其中,整体论(俗称“三技术判断法”),是指每一项发明的核心在于权利要求是否具有技术问题、技术手段、技术效果三要素的同时,以一个整体的视角判断权利要求是否体现出“技术性”特征[19];而与具体应用领域相结合,是指人工智能算法必须通过适用于某一特殊领域,形成“人工智能算法+具体应用场景”的模式才能获得可专利性。然而,人工智能算法专利的核心技术性并不在于算法应用领域的创新,以及技术问题、技术效果这类功能性描述。核心基础算法的开发以及利用计算机进行算法训练这一技术手段,才是核心科技竞争力

    因此,2020年《指南》在同年12月就迎来了第二次修改。笔者认为,中国此次专利审查标准的修改较以往有了突破性进展。此次修改首先弱化了整体论中的“技术三要素”并确立了以“技术手段”为主的审查思路,同时明确了“利用计算机实施的各类人工智能算法”是技术手段的一种,此类判断标准实际上更加接近专利审查的核心。以往的整体论审查技术三要素+与具体应用领域相结合,更注重审查标准的“形”,而非“实”。专利的适格性审查往往依赖审查员的“自由心证”与专利申请人的解释答复来判断。因为对于人工智能算法专利的审查,难点在于对适格性没有清晰的判断标准。整体论的出现实际上是适格性审查标准未明晰的妥协产物,任何一项创新被赋予专利都是由于其核心技术手段,而非“手段+问题+效果”的混同,技术效果、技术问题都只是辅助审查员理解技术的手段。另一关键改动是对“应用于具体领域”的程序后移,不再在适格性审查中进行判断,而是后移至“创造性”的审查中。而此次意见稿也对技术手段(算法)与技术数据的关联性作出了规定:要求算法每一个步骤所处理的数据皆为技术数据。并通过实施例的修改,使得“人工智能算法+技术数据”的组合可被认定为专利客体。因此,中国基本在审查标准上放开了对于人工智能基础算法的专利适格限制,只要求其必须处理技术数据并且能够在计算机上运行。

    智能时代的算法治理着眼点在于如何有序地促进算法公开,其中就包括合理的政府审查、企业的自愿公开、适当的公开机制。专利制度作为科技与法律结合的代表,同时又以“公开换垄断”为主旨,理应承担企业通过私法自治,自愿利用合理公开机制进行算法解释的任务,从而促进与政府的协同共治。这既能激励创新,也能满足公共监督的诉求。在明确算法理应获得专利适格性后,下文将探讨专利公开的具体内容能否满足中国以《算法推荐规定》确立的算法解释需求,并以法律对算法解释的定性、定量、定体要求作为判断标准。

    算法解释的关键在于利用自然语言的方式,通过公开算法的结构、数据流向、关键参数等方式,使具备一定专业素养的理性人能够理解并认可其不含违法的价值判断,从而满足可能存在的政府审查、企业自律、个人申诉这三大场景的解释需求。算法专利审查员与算法审查工作人员拥有类似的技术背景和法律诉求,通过审查员“自由心证”首先判断算法是否违反国家法律与自然道德,这是一切专利的前置条件。以往大量的算法专利作为一个子模块潜藏于方法专利中,而现阶段单独以算法为内容的专利公开,将会通过审查员第一步判断其技术风险。为此,算法专利申请书将会尽可能地解释算法的机制机理、模型、数据、应用实例等,以换取“信任”从而达到算法解释的定性需求。

    为了尽可能直观地展示算法“主观恶性”与技术指标之间的关系,笔者尝试提出算法解释定量的四个标准 。一是公平性。从社会角度出发,提供的解释要具有保证模型决策公平的能力,使模型能够进行道德分析,识别出模型中存在的偏见,此标准应当为算法解释中的首要考量。二是可信任度。可信任度是指模型性能的置信度高,具有鲁棒性和稳定性,并产生可靠的、可信的解释,从而降低因技术不成熟造成无意侵权的可能[20]。三是可达性和交互性。可达性是指构建模型时,终端用户能够更多地参与到过程中;交互性是指终端用户可以对模型施加影响,获得一定的控制权。由于智能决策的终端受众大部分是非计算机技术人员,该标准能够给予个人视角下更多的算法透明信息,帮助其理解和参与智能决策模型的运作[21]。四是因果关系。当前的机器学习模型大多揭示了数据之间的相关关系而没有揭示因果关系,但人们更希望看到因果性解释而不是相关性解释[22]

    首先,公平性是算法治理的最优法律价值诉求,具体又可以分为数据公平、设计公平、结果公平三类。数据公平主要是指数据质量的准确性和完整性,以及数据标注过程中不存在偏见歧视;设计公平包括模型是否试图识别并避免任何潜在的偏见和歧视,是否对输入的样本特征采取了减少偏见的措施,是否在后续模型训练、测试和评估阶段通过调整参数或模型结构来减少可能存在的偏见;结果公平是指算法作出的决策对受决策主体而言没有不公平的影响。仅就海内外公开的算法专利来看,由于算法专利说明书多为严肃的算法结构与数据流向介绍,不会出现显示主观道德判断的内容,只有专业技术人员才能从中判断出可能的道德风险。而训练数据“权重值”的未公开[23],一方面是出于商业秘密考虑,另一方面在于权重值是动态调整的。

    其次,可信度是算法的重要参数,是其运行与结果可靠性的重要指标,虽然不能直接体现算法的主观恶性标准,但是与算法不成熟而导致的过失侵权相关。可信度还可以拆分为准确性与安全性:准确性是指模型实际输出与设计输出之间的比例,安全性则是系统免受破坏和确保重要数据、个人信息不泄露的能力。目前,各类主流算法专利都将能够提升可信度的技术手段写入权利要求中,并作为重要的创新点与功能性特征,显然大部分专利公开文书是“不羞于”展示其算法可信度的。

    再次,可达性和交互性的本意是使智能决策的终端用户理解和参与智能决策模型的运作,此举在技术上过于激进。不过在软件工程中,技术人员在做单元与集成测试时,也会对交互性提出要求。人工智能算法的发展也是近年来才突飞猛进的,而将可解释端口融入算法设计更属于前沿理念。因此,即便面临当下交互性在专利公开中的缺失,一旦未来可解释性纳入算法设计成为主流,相信更多算法专利也会将交互性模块写入专利申请书中。

    最后,因果关系体现在目前算法专利公开中,呈现重数据相关性解释、轻权重逻辑性解释的现状。例如:在推荐算法中,推荐结果与用户特征、样本推荐信息特征、信息浏览特征等相关;在基因判定算法中,输入的DNA序列与输出的子位点预测、预测非编码变异功能相对应。此类公开仅存在输入输出的相关性描述,无法准确进行逻辑解释。毕竟算法专利以算法的逻辑决策为主要内容,涉及数据正义的解释诉求都是专利公开难以满足的。但是,算法透明度的分级分类,使得浅层的数据相关性公开也能满足轻度算法透明的解释需求[24]。再考虑到商业秘密与算法公开之间的平衡,法律不应要求专利公开承担全部解释任务,在适度公开的同时,为后续技术性的解释报告提供快速落脚点,也是专利公开的算法解释功能体现。

    综上可知,算法专利公开可以部分填平“主观恶性”与技术指标之间的鸿沟,不过,未来经过系统的技术加工,并形成技术性的算法解释报告才能更好地实现算法解释的定量分析。但是,专利公开文件作为兼具法律性、技术性、文学性的复合体,同时具备技术正义、机制原理、解释公告的功能,即便无法直接视为算法解释报告,也依旧披露了部分原理与参数,可以成为算法解释报告的基础参考,是一种介于黑箱与白箱的中间态,并且较多部分的描述也能够直接体现算法解释的定量要求。

    作为承载算法解释功能的法定表现形式与必备内容,在算法解释报告或其他国家、行业统一的算法公开纸质文书尚未形成的当下,算法专利公开文书成为现阶段唯一针对算法公开的、具备法律效力的统一技术文书。《算法推荐规定》中第8条和第12条分别就算法公开作了内容与功能的定体要求。前者包括机制机理、模型、数据、应用结果等内容,后者为优化检索、排序、推送等功能。可以采用可视化、实例、元素权重排序等形式,展示上述内容与功能,目的在于,通过最简单明晰的方式,展示技术手段(算法)与技术效果(结果)之间的因果关系,检验是否存在法律风险。

    因此,专利公开文书若能满足上述内容、功能、形式要求,则可以判定达到了算法解释的定体要求。首先,在内容上,《算法推荐规定》所要求的机制机理与模型结构是算法专利权利要求中的必备元素,尤其是人工智能基础算法,会将模型结构以及每一层神经网络性质、功能、相互关系、数据流向一一列明。相应地,数据与应用结果通常会出现在说明书与实施例中。算法训练的数据类型(如人脸特征、行为标注等)、应用结果也是专利授予三标准 中“实用性”的关键考量,申请主体都会详细列明其算法可实际应用的技术领域与预期结果。其次,在功能上,通过技术手段,解决技术问题,达到长久以来技术效果作为人工智能算法专利的审查重点。即便审查标准修改后,降低了技术效果的审查权重,但是观察国内外算法专利的公开文件,除少量人工智能基础算法的技术效果描述以抽象的技术提升为主 外,其他传统算法专利的技术效果依旧以“检索、排序、推送”等实际应用为主 。最后,在形式上,要分情况讨论。一是以算法模型为主要内容的人工智能基础算法,由于其专利公开内容几乎只包括机制机理、模型、数据,因此无法也没必要知晓其技术手段与技术效果之间的关系,由于缺乏具体的应用场景(技术效果),算法风险自然无从谈起。二是传统具备明确应用场景的算法,技术手段与技术效果的关系即为算法专利内容与功能的关系,二者的因果关系将是能否授予专利的核心标准。但是,因果关系的判定是由审查员通过每一技术特征综合分析后得到的整体性判断,难以在短时间内通过专利公开文件中的格式性段落得到快速的解释,需要后续技术加工后形成明确的技术性评价才能体现出专利审查员的心证过程。并且,专利审查员会侧重考察二者的关联性是否紧密,不会着重于可能出现的法律风险,因此,也需要具备相似技术背景的监管人员从法律侧依照现有的专利公开内容进行提炼,形成法律价值判断[25]

    综上可知,专利公开制度与算法解释制度具备相似的法律价值追求,在内容、功能、形式上也存在大量重叠。但相较于学界呼吁的技术解释报告,专利公开书在披露细节时还存在不足,同时二者也各有侧重。其一,二者在算法内容、功能的公开方向上基本趋同,可以满足算法解释定体需求。虽然算法专利只能部分起到算法解释的作用,但是在算法分级分类公开的背景下,部分算法仅通过专利公开便能够满足专利性要求,并且成为后续算法解释不可缺少的参考基础。同时,企业面对的算法解释诉求也不尽相同,如果不需要提供严格的解释报告,只需要在算法机理与“输入—输出”关系上做出简要答复要求,则专利公开完全能够满足适度的算法透明诉求。其二,二者各有侧重且制度定位不同。如果说算法专利申请书是通过明晰技术原理、体现技术效果来说服审查员认可其创造性,那么算法解释则是通过可视化的方式简化与明晰算法输入与输出因果关系,使拥有一定技术背景的理性人认可其不存在歧视与违法风险。二者可能形成“原材料”与“加工产品”的关系,从专利申请书到算法解释报告,可以通过部门规章、行业标准等限定技术路径形成算法解释报告等专为算法透明而生的法律文本,最终满足形式上的定体需求。算法的专利公开最终为监管主体提供了良好的基础研究资料,从而有效降低监管成本,快速明确监管方向,做到有的放矢。

    创新与稳定、效率与公平是法律在规制科技时所面临的永恒矛盾,而平衡上述矛盾的主要方法就是每一级别的技术都有适应其“松紧度”的法律予以规制,从而将刚性矛盾转化为多个柔性交互[26]。目前,算法技术主要以商业秘密、算法专利、开源社区三种状态存在,对应完全封闭、半公开、完全公开的算法透明度。至于选择何种存在方式,则完全由企业自主选择。所以,如何科学地引导企业尽可能选择后两种方式,就在于最大化算法公开制度的算法解释功能。

    商业秘密由于其天然的非公开性,通常用于保护企业核心竞争力资产。人工智能基础算法属于行业内最底层的基础技术,具备研发难度高、供应链话语权强等特征,使得国内企业都倾向利用商业秘密保护其算法技术。但是,《优化营商环境条例》提出“包容审慎监管原则”,对“有效监管”与“高效创新”提升治理能力提出了新要求。在此背景下,商业秘密无法像算法专利公开制度那样,满足企业合规与可持续创新的新时代要求。首先,在目前算法透明定成治理趋势的当下,商业秘密与企业合规在一定程度上是矛盾的。因此,除最基础的科研类算法创新外,一切有可能较易应用于实际且对产品用户产生实际影响的算法创新都可能被纳入算法审查的范围[27]。其次,人工智能所属的软件工程学科与市场都非常注重生态建设,知识的共享与交流反倒更容易促进技术的进步,所以才会有大量科技公司在注册算法专利的同时,甚至建立开源算法库,供世界范围内所有开发者与企业免费使用,从而有助于整体软件生态的可持续性创新。毕竟软件生态才是企业的显性竞争力,强大的算法开发能力所带来的溢出效应足以阻断后发国家的算法自主开发道路。因此,以公开换垄断甚至换信任,来促进企业自律,在有助于监管的同时,更为中国自主算法开发生态提供了良好基础。最后,专利所构建的专利墙与开放算法所形成的生态壁垒逐渐成为科技公司博弈的新业态,二者的公开性使得各企业之间已经不完全以算法技术为竞争核心,数据才是真正的行业壁垒[28]。由于人工智能应用对于数据的高度依赖,无论是营商环境还是算法歧视,其法律风险实则源于“数据正义”而非算法黑箱。算法更多是一个连接“数据”与“用户”的自动化决策执行器。无论是算法开发中的“训练数据歧视”,还是应用后的“非正义数据输入”,都将带来侵害权益的“输出结果”,更大的法律风险实际在数据端[29]。所以,固守工业时代商业秘密的思维既无益于合规建设,也无用于激励创新。

    基于构建算法治理体系的特殊性和复杂性,算法治理应进一步发展和完善已初见格局的政府监管、社会监督、公民维权、企业自治的多元共治体系,从而使专利公开成为政府主导、个人参与、企业自治法治模式中企业侧的重要制度。以算法审计、算法透明度报告为代表的呼声较高的治理路径,都不可避免地会增加治理成本与企业抵触心理。而专利公开与算法解释有机结合,在降低治理成本的同时,其核心还在于激发企业活力。

    算法创新是充分发挥数据及硬件资源之价值的关键前提,是智能社会运转的基石,也是先进生产力的标志。西方以Google为首的科技公司大量申请人工智能算法专利,一方面是凸显其技术优势,另一方面则是为后续可能专利竞争做储备。考虑到目前中国大量科技公司在关键算法上依旧依赖进口,因此,当前中国亟须大力加强在基础算法层面的核心技术创新,提高专利质量。据笔者走访与调研发现,除少数大公司申请了算法类专利外,绝大多数科技类公司并未充分利用专利制度保障自己的研发成果,其中原因既有对专利适格性的担忧,又有对算法审查的惧怕。在供给侧结构性改革的大背景下,高技术附加值产品的创新需要基础科研与应用创新的共同发展。基础科研的进步,主要依靠政府财政对高校科研单位的投入,应用技术的创新则更多依赖企业进行专利创新。通过公开换垄断,实现基于其商业化后的利益保障,是企业创新的原动力。因此,人工智能基础算法的可专利性,将进一步引导企业加大投入并申请专利,同时利用专利公开减轻企业面临的监管压力,最终达到利用专利公开破除算法黑箱的功能。但是,算法解释是专利公开制度下的有益副产物,并不能完全代替企业自发公开说明、政府强制性监管等一系列专为算法透明而设的算法解释制度。

    算法规制的特殊性在于其黑箱性带来的侵权风险既具备法律性也具备技术性,因此,其治理思路应当寻找法律与技术兼备的路径。算法解释作为以可解释技术为基础、合规评价为内容、特定文书为体裁的监管工具,其与现有专利制度的契合性,为算法解释尽快落地提供了有利基础。以审查员为核心的专利公开理念与算法解释监管,追求使算法专利公开满足算法解释的定性要求;专利公开中的算法结构、实施例等与《算法推荐规定》要求披露的内容部分重合,从而在一定程度上能满足算法解释的定量要求;专利公开文书由于其面向用户与功能定位的差异使得其难以直接代替算法解释文书,但是依然具备基础参考意义,因而可以部分满足算法解释的定体要求。综上所述,如何科学地将专利公开文书与其他算法治理途径相结合,实现政府治理压力与企业合规压力的双减负,将是未来持续探讨的方向。

    注释:
    专利法上排除智力活动方法的理由主要包括:一是智力活动对物理世界不产生影响;二是人的智力活动具有不确定性,不具备产业上的可重复性;三是智力活动是基本的创新工具,对其授权将妨碍创新;四是不应限制人在头脑中的思维自由。
    美国虽在其《专利法》中未予以明文规定,但在司法实践中“智力活动方法”原则在美国联邦最高法院审理的软件专利适格性第一案“Benson案”中得以确定。即如果一项发明创造可以完全通过人脑执行完成,那么该发明创造就与智力活动方法同一,则不属于可以授予专利权的对象。Douglas大法官专门指出,涉诉专利申请中的数学过程“可以不使用计算机就被执行”,即意指其可涵盖智力活动方法。
    信息技术产业的实践中,已有大量通用算法通过商业或非商业的函数库、构件库、开源代码、开放平台等多种形式提供给他人。例如:谷歌的开源机器学习平台TensorFlow提供核心开源库;阿里云人工智能平台“机器学习PAI”、腾讯智能钛机器学习平台等均提供丰富的基础智能算法组件,支持众多具体领域的应用开发。人工智能是中国“新基建”的七大重点领域之一,可以通过集成先进算法的开源框架或开放平台,对外提供公共普惠的人工智能相关产品及服务。
    腾讯研究发布的《人工智能:国家人工智能战略行动抓手》,将人工智能技术按照“基础设施—算法—技术方向—具体技术—行业解决方案”进行层次划分。
    例如,原有卷积神经网络默认输入是图像,可以把特定性质编码写入网络结构,使前馈函数更加有效率,并减少了大量参数,对于大型图像处理有出色表现。
    该标准参考了 2017 年7月美国国防部高级研究计划署(DARPA)启动一项7000万美元的可解释性人工智能计划。参见:参考文献[9]。
    专利申请需要满足“新颖性”“创造性”“实用性”三个标准。
    例如,所描述的方法可以使模型在不同网络中的训练时长更短。
    例如,只需要通过一个模型,就能够同时对目标对象的关键点的位置信息和可见性信息进行识别,从而能够降低资源占用率。
  • [1]

    KROLL J A,HUEY J,BAROCAS S,et al. Accountable algorithms [J]. University of Pennsylvania Law Review,2017,165(3): 633—639.

    [2]

    ANANNY M,CRAWFORD K. Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability [J]. New Media & Society,2016,20(3): 973—989.

    [3] 苏宇. 优化算法可解释性及透明度义务之诠释与展开[J]. 法律科学,2022(1): 133—141.
    [4] 吴飞,廖彬兵,韩亚洪. 深度学习的可解释性[J]. 航空兵器,2019,26(1): 43—50.
    [5] 王万良. 人工智能导论[M]. 北京: 高等教育出版社, 2017: 33.
    [6]

    ANGELA S, PAOLA G, ROBERTO T. Machine learning for bioinformatics and neuroimaging [J]. Wires Data Mining & Knowledge Discovery, 2018, 8(5): 22—95.

    [7]

    MURDOCH W J,SINGH C,KUMBIER K,et al. Interpretable machine learning: Definitions,methods,and applications [J]. Proceeding of the National Academy of Science of the United States of America,2019,116(44): 22071—22080.

    [8]

    RAS G, GERVEN M, HASELAGER P. Explanation methods in deep learning: Users, values, concerns and challenges [M]. Cham: Springer International Publishing, 2018: 19.

    [9]

    GUNNING D, AHA D W. DARPA’s explainable artificial intelligence program [J]. Deep Learning and Security, 2019, 40(2): 44—58.

    [10] 托马斯·维施迈尔. 人工智能系统的规制[J]. 马可, 译. 法治社会2021(5): 110—126.
    [11] 张思思,左信,刘建伟. 深度学习中的对抗样本问题[J]. 计算机学报,2019(8): 23—33.
    [12]

    MENELL P S, LEMLEY M A, MERGES R P. Intellectual property in the new technological age: 2020 Volume Ⅱ [M]. Los Angeles: Copyrights, Trademarks, and State IP Protections, 2020: 25.

    [13] 张吉豫. 智能时代算法专利适格性的理论证成[J]. 当代法学,2021(3): 89—100.
    [14]

    MENELL P S, LEMLEY M A, MERGES R P. Intellectual property in the new technological age: 2020 Volume Ⅰ [M]. Los Angeles: Perspectives, Trade Secrets, and Patents, 2020: 134.

    [15] 朱中华. 人工智能领域技术的可专利性研究[D]. 北京: 中国政法大学, 2019.
    [16] 刘珊,余翔. 德国对计算机执行的发明的专利保护从立法、判例与实践的角度解析[J]. 电子知识产权,2009(8): 72—82.
    [17]

    MARK A,MICHAEl R,TED M,et al. Life after Bilski (December 13,2010) [J]. Stanford Law Review,2011(63): 1315—1347.

    [18] 王晓晔. 标准必要专利反垄断诉讼问题研究[J]. 中国法学,2015(6): 56—63.
    [19]

    MALIK N,SINGH P V. Deep learning in computer vision: Methods,interpretation,causation and fairness [J]. Social Science Electronic Publishing,2019(11): 25—28.

    [20]

    MUELLER S T,HOFFMAN R,CLANCEY W,et al. Explanation in human-AI systems: A literature meta-review,synopsis of key ideas and publications,and bibliography for explainable AI [J]. DARPA XAI Literature Review,2019(13): 79—85.

    [21]

    ARRIETA A B,NATALIA D R,JAVIER D S,et al. Explainable artificial intelligence (XAI): Concepts,taxonomies,opportunities and challenges toward responsible AI [J]. Information Fusion,2019,11(24): 120—123.

    [22]

    MERGES R P, MATTIO M. Measuring the costs and benefits of patent pools [J]. Ohio State Law Journal, 2017, 78: 281—347.

    [23]

    CARY C, DAVID L. Transparency and algorithmic governance [M]. Washington, D. C.: Administrative Law Review, 2019: 19—21.

    [24]

    EOFFREY A M, JOSHUA D W, Regulating innovation: Competition policy and patent law under uncertainty [M]. New York: Cambridge University Press, 2009: 4.

    [25]

    SANDRA W. Why a right to explanation of automated decision-making does not exist in the general data protection regulation [J]. International Data Privacy Law,2017(7): 76—99.

    [26]

    REBECCA W. Life,liberty,and trade secrets: Intellectual property in the criminal justice system [J]. Stanford Law Review,2018(70): 1343—1401.

    [27] 吴超, 中新经纬. 算法技术问题最根本的解决方法是发展技术本身[EB/OL]. (2021−11−30)[2022−01−30]. .
    [28] 张新宝. 从隐私到个人信息:利益再衡量的理论与制度安排[J]. 中国法学,2015(3): 38—60.
    [29] 赵精武. 从保密到安全:数据销毁义务的理论逻辑与制度构建[J]. 交大法学,2022(2): 28—41.
  • 期刊类型引用(1)

    1. 侯泽琦. 以积极行政构建商业算法治理的制度体系. 哈尔滨工业大学学报(社会科学版). 2024(04): 54-61 . 百度学术

    其他类型引用(2)

计量
  • 文章访问数:  165
  • HTML全文浏览量:  107
  • PDF下载量:  18
  • 被引次数: 3
出版历程
  • 收稿日期:  2022-03-03
  • 网络出版日期:  2022-11-10
  • 刊出日期:  2024-01-24

目录

/

返回文章
返回