青年学苑:论算法事前解释制度的构建

2022-01-26 | 查看: 56

一、问题的提出

 算法作为一门技术本身具有中立性,但算法一旦应用所产生的社会效应必然具备双面性。算法黑箱在实际生活中引起的平等权危机、私人资本支配公权力、司法救济危机和侵害个人数据信息等多重风险。在私人领域,在线零售巨头亚马逊就曾开发出一种算法 用以做出招聘决策,该算法可以依据求职者的简历对其进行排名,从而实现招聘的自动化。结果该算法挑选的男性求职者数量远超于女性,原因在于---开发者以过去十年提交的技术工作简历中设计算法挑选候选人的标准,而担任该工作的大部分人都是男性。1需要看到的是,算法被开发者赋予了公平正义的价值内涵,希望借以做出客观决策,从而克服人类的主观偏见。 但欠缺透明度的算法非但不能实现公正价值的应然到实然转变,反倒会置算法决策相对人于不利地位。

 算法问责如何实现?在此背景下,算法解释权作为一种新型的权利形态应运而生,其旨在破除算法黑箱的屏障,通过解释算法的自动化决策来规制算法权力,进而缓和乃至消除算法决策隐私以及歧视风险的目的。2本文以平衡算法开发者的商业秘密的利益与社会公众的权益为出发点,在借鉴美国的药品数据保护制度的基础上,构建算法的事先解释制度。


二、算法问责的障碍

 算法问责要求算法透明度提高,很大程度上要求源代码的公开。而源代码作为算法的核心内容和关键技术,是企业据以保持竞争优势的关键所在。一个成功的源代码需要企业或个人投入巨额成本加以开发,对于企业的重要性显而易见。实践中尚缺乏相应的算法披露的案例,但从公司对于披露算法的强烈抗拒态度可以窥见算法公开对其的不利影响。如在威廉姆斯诉苹果公司一案中。Aconfora的证词详细介绍了 iCloud 存储算法的工作原理,针对此苹果公司向加州法院提出了不披露该项信息的请求,请求的理由在于公开披露这些工作方式会损害 Apple公司。如何平衡算法开发者的商业秘密的利益与社会公众的正当权益是本文着重解决的问题。

三、算法事先解释制度的构建

 与黑箱算法相似的是,药品数据的保护同样面临相似问题:首先,从企业视角出发,药品的开发同样需要长时间的测试与人力金钱投入,具备商业秘密的属性;其次,药品的作用机制如同一个黑盒不可预测。人体是现存最复杂的系统之一,具有的遗传变异、生物途径、蛋白质表达模式、代谢物浓度和运动模式(仅举出几十个变量中的几个)对每个人的影响都不同。这些变量中只有少数被科学家充分理解。当一种药物不起作用或患者患上罕见疾病时,原因可能是某些遗传变异或代谢物浓度或环境差异——或者这些变量中的几个以医生可能永远无法理解的方式共同作用。3这带来挑战—药品数据的保护与其问责之间的矛盾,与本文所探讨的算法事前解释制度所要克服的困难不约而同。对此,以美国的药品数据保护模式为例,美国1997年《食品、药品和化妆品条例》第355节、《1984年药品价格竞争与专利期延长法》(Hatch-Waxman Act)以及《1983年孤儿药品法》规定了对试验数据的排他权利保护。4该保护模式的重点就在于安全性与有效性,其保护目的与算法事前解释制度构建的要求相契合。
算法的事前解释建立在保护算法的秘密性利益的基础之上,因而外部的监管力量重点在于主管机关对算法运营者向其公开的源代码进行审核和监督,确保算法并没有将种族等不公平因素纳入评估机制之中。如Lum Isaac在研究预测性警务系统 ( PredPol ) 时就发现了其存在严重偏见,该系统标记可能发生犯罪的区域时,输入该算法的数据似就已经存在偏差---虽然毒品犯罪分布在各个城市,但警察逮捕的毒品犯罪却不成比例地位于非白人地区。 Lum Isaac之后表明该算法不恰当地将来自代表性不足的群体的人标记为有犯罪风险。5

 算法行业的高创新率与理解的专业性要求算法监管机关必须具备独立的法律地位与专业的知识人才,从而有效应对算法进入市场之前广泛的测试与评估。算法开发者以公开源代码为对价的同时,可以获得一定期限的市场排他权,保证其获得足够的经济回报,实现激励算法创新的目标。6 考虑到民主透明度和商业竞争之间的紧张关系,算法的公开只要求最低限度的必要披露——披露对象仅限于行政主管机关,源代码对于非专家人员来说是难以辨认的,因而无需向公众尤其是竞争对手公开源代码,从而适当地保护公司的商业秘密。

 出自保护公共利益的考虑,对于算法开发者申报的源代码,主管机关可以对其进行静态与动态测试,判断该算法是否合理且公正,确保算法决策过程符合管理决策的社会道德及法律标准。算法的隐性歧视可能难以发现,但我们可以通过分析算法的源代码,以便事前审查算法的运作标准,并在运行中进行验证。静态测试着重于确定程序的运行逻辑,例如它接收的数据的性质、它可以产生的输出类型、程序的一般形式以及程序实施中涉及的技术. 特别是,静态分析可以揭示出导致程序以特定方式运行的输入类型。7在这种情况下,主管机关可以初步判断出在输入端输入相同的数据类型可产生一样的结果。

 尽管源代码是对自身程序的精确说明,但仍然不能保证其在现实世界发生变化时会保持准确。因此需要结合输入数据对信息进行动态分析---它可以针对不同的输入表现出截然不同的输出或行为,静态分析没有考虑到具体的运行场景。动态运行是指在运行算法程序的同时通过特定输入的数据来评估输出,该法是对静态审查的结果进行二次判断,即算法在运行实践中是否符合审查标准。

 本着这一精神,笔者提出的披露框架包含两重含义。第一层是算法开发者的披露义务。算法的公开程度因披露对象的不同而有所变化,与面向主管机关的披露不同,算法开发者面向公众的事前解释类似于SEC的披露内容,这些披露不涉及算法源代码等方面的商业秘密或其他技术细节,但提供算法如何运作、什么因素是有意义的变量、采用何种逻辑。无形的“算法之手”对特定个人或群体进行不公平推断或将他们“标签化”。现今,大数据分析技术已经赋予了算法控制着超乎想象的预测能力,它们极可能基于分类筛选而形成所谓的“大数据黑名单”,从而不恰当地将个人或群体标记为具有某种风险或倾向,进而限制或排除他们的权利或机会。此类算法的运作过程隐蔽性之强,单纯依赖事后的个案救济无法有效对抗算法带来的危害。在这种情况下,相关的披露义务将会促使算法运营者对算法进行可持续的管理。信息披露使公众更容易发现公司的非法或不道德行为并比较它们的表现,因此公司将面临更广泛的监控,避免不满足公众标准而在竞争激烈的人工智能市场失去市场份额。

 第二层是运营者以源代码为对价获得的相关权利。算法事前解释的核心内容在于以何种激励方式鼓励运营者公开源代码。正如现代交换理论中的代表人物之一霍曼斯所言:人类行为是个人之间进行报酬和惩罚的交换, 交换理论的核心是工具理性。美国药品数据保护制度规定:在一定的保护期内,FDA不能依赖新药申请人为了获得首次上市批准而提交的、能够证明药品安全性与有效性的、未披露的实验数据,来批准其仿制药的上市。 算法运营者也享有类同权利---源代码一旦上报主管机关并审核通过,运营者可以获得一定保护期内的排他使用权,在该保护期禁止目标代码相同或高度相似的算法进入人工智能市场,除非其能获得前申请人的使用授权。由此,披露要求给算法运营者带来的成本将显著减少,有利于建立问责制算法并使运营者遵守增加的披露负担。


四、结论

 算法黑箱引起平等权保护、算法歧视等种种挑战。算法问责势在必行,源代码的完全公开既不可能也无必要,鉴于药品数据保护与黑箱算法问责的相似性,可以参考美国的药品数据保护制度,构建我国本土化的算法事先解释制度。以主管机关审查算法源代码,替代源代码的完全公开,并向社会公众作更低程度的算法披露,授予算法开发者限期的市场排他权作为激励。由此,在保护算法开发者商业秘密的同时,客观中立地监督黑箱算法,使其在社会生活中发挥更加积极的作用。


 (中国科大知识产权研究院 刘子荷



参考文献:

1 ANTIDISCRIMINATORY ALGORITHMS, 70 Ala. L. Rev. 519, 552

2张恩典.大数据时代的算法解释权:背景、逻辑与构造[J].法学论坛,2019,34(04):152-160.

3 PRIVACY AND ACCOUNTABILITY IN BLACK-BOX MEDICINE, 23 Mich. Telecomm. Tech. L. Rev. 1

4冯洁菡.TRIPS协议下对药品试验数据的保护及限制——以国际法和比较法为视角[J].武大国际法评论,2010,11(01):125-144.DOI:10.13871/b.cnki.whuilr.2010.01.008.

5 Accountability of Algorithms in the GDPR and Beyond: A European Legal Framework on Automated Decision-Making, 30 Fordham Intell. Prop. Media & Ent. L.J. 91, 103

6梁志文.论算法排他权:破除算法偏见的路径选择[J].政治与法律,2020(08):94-106.DOI:10.15984/j.cnki.1005-9512.2020.08.008.

7 ACCOUNTABLE ALGORITHMS, 165 U. Pa. L. Rev. 633


安徽省知识产权局.中国科学技术大学 联合主办 © 版权所有 2018