德恒探索

论人脸识别技术的伦理和法律问题原则

2024-05-06


微信图片_20240507092519.jpg

 

摘要:


人脸识别技术(FRT)属于更大类别的生物识别技术,被政府和私人实体不同程度地用于识别人。执法部门越来越多地使用FRT来帮助识别犯罪嫌疑人和其他相关人员,但往往对这些人不知情或不同意。执法部门可以使用FRT与相关的图像数据库结合使用,以比较和匹配来自不同来源的人脸图像。


FRT可以成为执法部门保护公共安全的有力工具——有可能会帮助执法部门识别犯罪嫌疑人、犯罪受害者或其他感兴趣的人。FRT的采用也可以提高某些政府程序的效率。私营企业还为各种目的实施了FRT,如为用户提供方便的访问个人电子设备,并减少第三方未经授权访问受保护信息的可能性。


但人脸识别同样存在数据泄露和滥用的风险,以及对个人隐私的侵犯,算法偏见与歧视,以及由此导致的大规模监控行为。2024年4月18日据中国经营报等报道某直辖市已在全市严禁酒店强制刷脸。基于此,本文分析了各国目前的人脸识别法律监管相关和有关讨论,并提出了相应的政策建议。


一、人脸识别技术


生物识别技术是指使用自动过程,通过独特的物理特征来识别个体,如指纹、语音模式或面部特征。[1]FRT可以执行多种功能,最常见的是(1)面部识别——将一个未知的人的脸与一个已知的人的画廊进行比较——以及(2)面部验证——确认某人声称的身份。[2]当将未知人的图像与数据库进行比较时,该技术可以确定数据库中的图像足够相似,以注册为可能的匹配。可能会确定一个或多个可能的匹配项。[3]如果没有发现图像足够相似,系统将不返回匹配项。面部识别可用于监视,寻找感兴趣的人,或用于识别无法或不愿回应的受试者。验证可以通过将当前图像与图像数据库进行比较,以确定图像是否匹配,来确认个人所声称的身份。


一些私营公司提供的FRT的错误率不同,这取决于每个公司识别图像的专有技术。许多人脸识别算法通过训练来确定哪些人脸特征最重要。[4]在训练过程中,算法得到同一个人的人脸图像。随着时间的推移,该算法学会了更多地关注那些最可靠地表明这两幅图像中包含同一个人的特征。[5]


FRT的成功使用取决于FRT系统的可靠性。算法因素决定了FRT系统的准确性,包括算法的目的、复杂性和对假阳性的敏感性,以及用于“训练”系统比较和匹配图像的数据(例如,使用的图像数量;比较图像中的人的人口统计数据)。[6]物理使用条件也会影响FRT的准确性。例如,照明、图像质量和相机运动可能会影响FRT系统的性能。[7]性能也可能受到被FRT系统捕获和比较的图像者的身体特征的影响(例如,比较图像中的人的年龄;面部表情)[8]的变化。


二、人脸识别应用


执法部门越来越多地使用FRT作为识别人员的工具。当一个人被逮捕时,警方可以使用FRT和相关数据库,将被捕者的面部照片与其他图像进行比较,以确定此人的身份和犯罪历史。[9]执法部门也可利用FRT来帮助查明其他情况下的人,例如在非拘留环境中相遇时。FRT也可能是正在进行的刑事调查的一个工具。例如,FRT系统可以从安全摄像头的视频信息源中提取人脸图像,并将这些图像与嫌疑人的名单进行比较。FRT也可以用于许多其他执法和安全目的,如识别国际旅行者进入或退出国境,或帮助确保申请政府颁发的识别(例如,驾照或护照)没有以假名发布文档以假名。此外,在这些执法活动中拍摄的图像都可能添加到图像数据库以供将来使用。在美国,许多州和地方执法机构通过联邦调查局的下一代识别系统(NGI)共享数据,这是一个生物识别数据库,包括独特的个人识别符,如指纹和虹膜扫描。


NGI允许执法机构搜索伴随提交指纹的犯罪照片数据库。美国州际摄影系统(IPS)是NGI的一个组成部分,它包含了可由FRT搜索的照片。州和地方政府也可以维护数据库。例如,一些州有自己的面部识别系统,可以将图像与从面部照片和驾照照片中获得的图像进行比较。一些执法机构使用面部识别软件,筛选数据库,这些数据库不仅包含政府发布的照片,还公开发布来自YouTube、脸书和Venmo等来源的照片。[10]


如上所述,FRT也在私营企业中被用于各种目的。[11]FRT可以嵌入到手机和其他设备中,为用户提供快速和安全的访问,从而保护个人信息,并在用户访问其设备时提供便利。另一个常见的用途是在社交媒体上的照片识别,以识别和“标记”图片中的朋友。


一些商业实体将FRT用于安全和安全目的,包括商店使用FRT以防止损失,甚至赌场识别已知或可疑的赌博作弊者或犯罪网络的成员。至少有一个FRT开发者为用户提供了一个相关的图像数据库,据报道,该数据库包含了来自数百万个网站的超过30亿张图片。一些警察部门获得了用于执法目的的商用FRT。最近,一些著名的科技公司宣布,他们将限制将FRT出售给执法部门。


三、人脸识别的法律、技术风险和伦理问题


虽然身份验证在公共安全、安全和效率方面有真正的好处,面部识别的发展引起了一些伦理担忧,这源于这种技术的具体特征及在、其对基本权利的潜在影响。


1.技术特点和识别准确率

面部识别技术普遍存在,而人类控制难以实施,这是人们关注的主要来源。面部识别技术记录人体的特性,一个人不能改变(不像手机标识符),大量的图像已经可用(例如在互联网上),利用面部图像可以远程捕获没有一个人的特征。[12]此外,深度学习技术的使用使得收集大量人的信息非常敏感,随着数据集的增长,人工验证和标签变得几乎不可能。[13]


此外,人们还强调了人脸识别数据的收集和保留人脸识别数据所带来的安全风险,以及人脸识别数据被泄露和滥用人脸识别数据的风险。[14]错误的风险也被强调重视了。实证研究表明,大多数面部识别系统的技术性能仍然相当有限,人脸检测软件可以产生两种类型的错误。当FTR软件无法找到图片上出现的面孔时,就会出现假阴性。当一个人脸检测器将一个非人脸结构识别为一个真实的人脸时,就会出现假阳性。[15]错误率可以是重要的尤其是当照片相比包含不同的照明,阴影、背景、姿态,或表达式,当使用低分辨率图像,和FRT系统也不准确时有大年龄差异。[16]训练数据不足是导致人脸识别软件算法偏差的另一个原因。这些风险可能对基本权利产生非常深远的影响。


2.数据保护和隐私问题

使用面部识别技术意味着收集、比较或存储面部图像以达到识别目的。人工智能面部识别技术的使用,特别是生物识别技术,部署了更复杂的技术和算法,收集高度敏感和个人数据。[17]人工智能和物联网技术的日益结合意味着,更多的数据通过设备(如监控摄像头或自动驾驶汽车)不断收集和分析,使用改进的人工智能技术(如面部识别),为个人隐私和数据保护产生更具侵入性的结果。[18]据报道,许多供应商已经从其他网站上抓取公开的面部图像,以建立他们的生物特征数据库,甚至FRT的研究人员也逐渐放弃了征求人们的同意。[19]


3.偏见和歧视问题

歧视是指在类似情况下,一个人、过去或将要受到的待遇不如另一个人的待遇。算法决策中的歧视可能发生在用于面部识别的算法的设计、测试和实现过程中,通过算法本身的双合并,或由于执行面部识别的人或权威机构移交结果的方式。面部识别技术可能有非常高的假阳性/假阴性率,而偏见可能导致对某些类别人群的不同类型的歧视。性别和种族偏见尤其被记录下来,面部识别技术的准确性差异很大,而且对女性和有色人种的准确性不如白人男性。[20]


实证研究表明,在执法背景下,对深肤色的人/有色人种进行歧视性待遇的风险更高。在许多面部识别技术中,使用包含抽样偏差的训练数据是一个典型的问题,这些技术在黑人中的表现不如白人,在黑人女性中表现最差。已经发现,在美国,假阳性的发生率不成比例地影响有色人种和改变传统的无罪推定在刑事案件中,通过将更多的负担嫌疑人和被告证明他们不是系统识别。[21]


此外,学者们强调,在使用FRT时直接受到滥用和滥用风险影响的人的生活受到更广泛的影响和道德伤害。有些问题与“分配不公正”有关,例如,受歧视社会群体的成员因与该群体有关而被拒绝获得福利、资源或机会。关切还涉及“承认不公正”,例如,当一个受歧视的社会群体成员的身份主张被否认或侵犯,以重申和扩大他们的边缘化地位。[22]


4.大规模监视和对基本权利的关注

人们还指出了与使用面部识别技术可能被推广相关的风险。将面部识别系统的使用扩展到最初授权和控制的目的之外的可能性,会给中长期带来一些风险。这样的扩展可以发生,例如,通过使用收集的数据在社交网络或数据库最初设置为不同的目的,通过使用数据库超出其允许的目的或引入新功能现有系统(例如通过扩展面部识别用于护照控制支付在机场,然后在整个城市)。有人认为,这种扩展可能构成推广者有意策略的一部分,首先在使用面部识别系统的情况下,然后逐渐扩展使用他们的情况下。[23]


在公共空间中,越来越多地使用远程生物识别系统,而人脸识别似乎正在迅速成为欧盟的常态。欧洲委员会的调查表明,无论在哪里使用这样一个系统,都可以跟踪参考数据库中所包括的人员的下落,从而影响到他们的个人数据、隐私、自主权和尊严。[24]因此,新的社会关切,如不可能匿名在公共空间移动,或不利于自由意志的一致性,可能来自于由使用面部识别系统引起的大规模监测系统。从这个意义上说,意大利数据保护局指出,自动处理用于面部识别的生物特征数据可能构成一种不加选择的大规模监测形式。[25]


人们还强调,使用面部识别技术处理公共空间摄像机捕捉到的面部图像可能会干扰一个人的意见和言论自由,并对他们的集会和结社自由产生负面影响。[26]根据联合国人权理事会的一份报告,在集会活动中使用面部识别技术来识别人员对隐私权、言论自由和和平集会有相当大的不利影响。此外,对人的自动识别和可追溯性可能对公民的社会和心理行为产生强烈影响,并突出了使用这种技术时提出的重要伦理问题


这种影响甚至更大,因为有可能看到巩固的结构性种族主义的发展,并威胁到由于面部监视基础设施而造成的现代民主形式或生命社会团结。所有这些担忧都转化为欧盟公民对面部识别技术采取了相当谨慎的态度。


在这种背景下,确定人工智能可以用于自动识别个人的条件,以及区分识别和跟踪个人、有针对性的监测和大规模监测,对于设置正确的框架至关重要。[27]


面部识别的发展所引起的担忧源于技术特征和技术准确性的缺乏,这可能导致对公民自由的严重威胁。虽然使用面部识别系统在公共安全、安全性和身份验证效率方面有真正的好处,但算法错误的风险很高。面部识别技术可能有非常高的假阳性率和假阴性率,并可能导致对某些人群的偏见和各种类型的歧视。一个特别敏感的案例是,在公共可访问的空间中越来越多地使用远程生物识别系统。


四、人脸识别监管


生物识别监测的兴起,特别是面部识别技术,可以在全球不同地区观察到。根据国际特赦组织的一份报告,目前世界上至少有64个国家正在积极使用面部识别系统。中国显然是该技术的主要用户之一。例如,中国的学校使用人脸识别技术来监控图书馆的贷款,并为每个学生编制年度营养报告。


在全球许多国家和地区,例如吉尔吉斯坦斯坦、印度、拉丁美洲、以色列、美国、澳大利亚和俄罗斯。据报道,在俄罗斯,人工智能辅助的监测工具越来越多地用于针对持不同政见人士和人权活动人士,大流行加速了10万面部识别摄像头的安装网络,以跟踪被隔离的个人。在这种背景下,世界各地的政策制定者正在讨论建立或多或少严格的法律框架来控制面部识别系统的使用的可能性。


1.美国对FRT监管

除了一般适用的隐私规则外,目前还没有联邦立法规定私人公司或在美国执法的背景下使用面部识别。然而,美国联邦贸易委员会,根据其消费者保护任务,已经发布了一些指导方针,声明公司不应该在如何使用面部识别算法方面误导其消费者。此外,全国各地的州和地方一级正在讨论对该技术的潜在禁止、限制或暂停使用。美国一些城市,如旧金山、波士顿和波特兰,已经禁止在公共空间使用面部识别技术。加利福尼亚州通过立法,在2020年1月1日之前禁止警察身体摄像头使用的任何面部识别技术使用三年。然而,现有的州和地方法律和法规的拼凑并没有为公共当局、工业和公民提供法律确定性。此外,缺乏一致的联邦方法是国家安全机构(如中央情报局(CIA))的一种责任,这些机构正越来越多地使用FRT。


在这种背景下,有人呼吁通过联邦立法来监管美国面部识别技术的使用,特别是在执法监控的背景下,特别是为使用实时面部识别技术引发的新兴隐私问题提供一个统一的解决方案。在这方面已经提出了一系列建议,包括2019年3月颁布商业面部识别隐私法案的提案,该法案通常禁止组织在没有提供通知和获得其同意的情况下使用面部识别技术收集面部识别数据。其他几项规范面部识别技术使用的联邦法案已经被提出,目前仍在讨论中。


2.欧盟对FRT监管

2021年4月公布的欧盟人工智能(AI)法案草案旨在限制生物识别系统的使用,包括面部识别,这可能导致无处不在的监控。除了现有的适用立法(如数据保护和不歧视)外,人工智能法案草案还建议在欧盟引入管理FRT使用的新规则,并根据其“高风险”或“低风险”的使用特征对其进行区分。大量的FRT将被视为“高风险”系统,这将被禁止或需要遵守严格的要求。禁止在公共场所使用实时面部识别系统,除非成员国出于重要的公共安全原因选择授权这些系统,并批准适当的司法或行政授权。在进入欧盟市场之前,可以允许广泛用于执法以外的面部识别技术(如边境控制、市场、公共交通、甚至学校),并进行符合性评估和符合一些安全要求。相反,用于分类目的的面部识别系统将被认为是“低风险”系统,并且只受到有限的透明度和信息要求的影响。尽管利益相关者、研究人员和监管机构似乎一致同意监管的必要性,但一些批评人士对低风险和高风险生物识别系统之间的区别提出了质疑,并警告说,拟议中的立法将在没有适当的公共监管的情况下实现标准化和自律体系。它们呼吁对案文草案进行修正,包括关于各会员国在执行新规则方面的回旋余地。一些人强烈支持更严格的规定——包括彻底禁止此类技术。


3.中国对FRT的监管

在中国,迄今为止还没有有效的法律或法规明确监管FRT。面部识别受到网络安全法的间接监管,该法律规定了对收集、使用和保护包括生物特征数据在内的个人可识别信息的一些要求。然而,中国国家信息安全标准化技术委员会于2021年4月发布了《人脸识别数据安全要求的标准草案》,旨在制定中国人脸识别数据的收集、处理、共享和传输的非强制性要求。249此外,据报道,中国立法者正在制定一项新的数据隐私法强烈关注生物识别,中国私营部门试图解决隐私问题提出的使用面部识别系统通过自我调节,特别是发行的指导和行业标准。


五、结论与建议


1.尊重人权和基本权利

面部识别技术(FRT)只应作为合法刑事调查的一部分使用,例如识别罪犯/逃犯、失踪人员、利益相关人员和受害者。《国际权利法案》和其他有关人权条约和法律所规定的权利应始终得到尊重,特别是享有人权尊严的权利、平等和不歧视的权利、言论自由、结社和和平集会的权利、儿童和老年人的权利、残疾人的权利、迁移移徙者的权利、土著人民和少数民族的权利以及受拘留或监禁的人的权利。执法部门使用FRT进行调查应尊重这些权利,并为实现合法的警务目标是必要和适当的。执法机构应受到具有有效执法权力的机构和根据国家法律或政策的有效监督。除其他外,这些机构或其他机构应负责听取和跟踪公民的申诉,并评估执法活动遵守人权和基本权利的情况。任何个人都有权在法律设立的独立和公正的法庭上,反对有关使用FRT的行动,获得有效的救济补救。


2.必要合理使用

决定使用面部识别技术应该总是遵循由目标的公平平衡,既要允许执法机构部署最新被证明是准确和安全的技术,被证明是准确和安全的,保护个人免于和社会对其的安全威胁,和保护个人的人权的必要性。作为一项一般原则,绝不应无理由地使用,否则将破坏人权和基本权利。考虑使用面部识别技术的执法机构应该始终提供一个记录数据和合理的论点,关于为什么FRT是选择,为什么其他侵入性较小的选择不是选择的解决方案。执法机构使用FRT的目的应始终针对并限于一个必然与调查目的有关的单一具体目标。国际、区域和国家政策和/或法律应规定执法机构使用FRT的哪些类犯罪或调查是可接受的和/或合法的。承认隐私权和其他人权,从公共和公开的图像收集空间FRT识别目的应该只确定用于做的用例列表,按照相关国家法律或政策在有限的区域和建立处理时间内进行。按照相关国家法律或政策。


3.透明性

执法机构应公开:供应商选择(如果适用)、软件的名称和版本,以及所有软件开发人员的披露(包括核心FRT、图像处理、后处理、GUI显示和系统集成的开发人员)。对使用FRT进行执法调查的明确定义,明确了目的和目标,如查明罪犯/逃犯、有关人员、失踪人员和受害者。探测图像的使用:选择、存储/不存储图像的过程和条件,如果存储,需要多长时间。参考数据库的使用:查阅数据库的程序,以及选择的标准,存储/不存储探针图像,如果存储,持续多长时间;以及确定是否可以对该数据进行任何机器学习的程序,包括训练、学习和模型细化。


4.监督与问责

对特定使用FRT的结果的责任范围应明确界定和透明。执法机构不得在没有审查员的解释和具有正确专业知识的经理的监督下发布FRT的分析和结论。面部检查员的技能是至关重要的,以保持最高水平的准确性和必要的识别过程。在将任何积极的结果传达给有要求进行的调查小组之前,应有系统地进行同行评审(由第二位专家进行盲法验证或检查)。所提供的最终结果应始终基于共识,并以两者中最保守的结论为准。


参考文献:

[1] JOY BUOLAMWINI, VICENTE ORD??EZ, JAMIE MORGENSTERN, & ERIK LEARNED-MILLER, FACIAL RECOGNITION TECHNOLOGIES: A PRIMER 8 (2020).

[2] 2020 GAO REPORT, supra note 1, at 6.

[3] BUOLAMWINI ET AL., supra note 24, at 6.

[4] THE PERPETUAL LINE-UP, supra note 3, at 9

[5] Facial Recognition Technology (Part III): Ensuring Commercial Transparency & Accuracy, Hearing Before the Committee on Oversight and Reform, 116th Cong. (2020)

[6] THE PERPETUAL LINE-UP, supra note 3, at 9–15. If a training set skews toward photos of persons with certain attributes, such as persons of a certain race or gender, different FRT systems may be better at identifying members of a group with those common characteristics. 2020 GAO REPORT, supra note 1, at 32.

[7] 2020 GAO REPORT, supra note 1, at 32; THE PERPETUAL LINE-UP, supra note 3, at 47.

[8] 2020 GAO REPORT, supra note 1, at 32.

[9] THE PERPETUAL LINE-UP, supra note 3, at 11.

[10] See Allison Ross, Malena Carollo & Kathryn Varn, Florida Cops Use This Facial Recognition Tech That Could Be Pulling Your Pics, T AMPA BAY TIMES (Feb. 11, 2020).

[11] 2020 GAO REPORT, supra note 1, at 11–13.

[12] C. Castelluccia and D. Le Métayer Inria, Impact Analysis of Facial Recognition, Centre for Data Ethics and Innovation, 2020, p. 7-8.

[13] K. Haoarchive, This is how we lost control of our faces, MIT Technology review, 2021.

[14] N. Turner Lee, P. Resnick, and G. Barton, Algorithmic bias detection and mitigation: Best practices and policies to reduce consumer harms, Brookings, 2019. See E. Rowe, 2021, p. 32-34.

[15] J. Buolamwini et al., 2020, p. 3.

[16] J. Lynch, Face Off: Law Enforcement Use of Face Recognition Technology, Electronic Frontier Foundation, 2020, p. 11-12.

[17] European Commission, Study supporting the impact assessment of the AI regulation, 2021.

[18] OECD, Artificial Intelligence in Society, 2019, p. 88.

[19] European Union Agency for Fundamental Rights, 2020.

[20] . Buolamwini and T. Gebru, Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification, 2018.

[21] J. Lynch, Face Off: Law Enforcement Use of Face Recognition Technology, Electronic Frontier Foundation.

[22] D. Leslie, 2020, p. 21-25.

[23] C. Castelluccia and D. Inria, 2020, p. 8-9.

[24] European Commission, Impact assessment accompanying the Proposal for a Regulation of the European Parliament and of the Council, 2021, p. 18.

[25] European Parliament, Question for written answer E-002182/2021.

[26] European Union Agency for Fundamental Rights, 2020, p. 29-30

[27] High-Level Expert on AI, 2019, p.33.


本文作者:


image.png


声明:

本文由德 恒 律 所律师原创,仅代表作者本人观点,不得视为德 恒 律 所或其律师出具的正式法律意见或建议。如需转载或引用本文的任何内容,请注明出处。

相关律师

  • 陈波

    合伙人

    电话:+86 10 5268 2796

    邮箱:chenb@dehenglaw.com

相关搜索

手机扫一扫

手机扫一扫
分享给我的朋友