“独家控制” :今年 4 月, 弗吉尼亚州通过了一项法案,要求地方执法机构(但不包括州警察)在使用面部识别技术之前获得立法批准。该法案将于今年 7 月生效。弗吉尼亚州还将要求警方对其使用的系统拥有“独家控制权”,以限制使用 Clearview AI 等商业面部识别产品。
全面禁令:俄勒冈州波特兰市甚至采取了更进一步的措施,全面禁止其市政府部门以及商店、餐馆和酒店使用面部识别技术。
。欧盟希望禁止执法部门在公共场所使用远程生物识别监控,除非出于以下三种用途之一的需要:寻找犯罪受害者,例如失踪儿童;防止“对生命的重大和迫在眉睫的威胁”,如恐怖袭击;或寻找严重罪行的罪犯,即至少三年的刑期。警方在使用面部识别技术用于这些目的之前必须事先获得法律授权。
漏洞:但欧盟委员会的提议给警察部
门留下了很多漏洞。警察将能够在紧急情况下无需事先授权即可使用这些技术,欧盟国家将被允许在公共场所全面授权执法人员使用实时面部识别技术。
偏见
结构性种族主义和人工智能:今年 3 月,英国政府种族和族裔差异委员会发布了一份关于英国种族差异和不平等的极具争议的报告。该报告受到严厉批评,因为其结论之一是英国不存在结构性种族主义。报告中还包括一节关于人 电报数据 工智能可能如何伤害少数群体的内容,并建议对使用算法决策的公共部门组织施加强制性透明义务,并呼吁就如何将《平等法案》应用于人工智能提供指导。
但阿达·洛夫莱斯研究所 (Ada Lovelace Institute)认为,当涉及到结构性种族主义和人工智能时,这种说法就偏离了主题。该研究所副主任 Reema Patel 表示:“如果你不首先承认结构性种族主义的存在,不了解结构性种族主义是如何在历史数据收集实践中被编码的,你就无法真正谈论具有代表性、准确性和透明性的有效数据系统。”
“双层玻璃天花板”:除非算法明确设计用于解决种
族不平等和偏见问题,否则人工智能系统可能会强化结构 提高电子邮件送达率:关键因素和最佳实践 性种族主义,使不透明的决策更加不透明,并增加一层厚厚的术语,使公民无法挑战决策。阿达·洛夫莱斯研究所称这是少数民族的“双层玻璃天花板”。
数据差距:英国是欧洲少数几个收集种族数据的国家之一。其他国家,如法国,则以同化为由抵制数据。这也使得欧洲国家难以评估人工智能系统是否对少数民族造成不成比例的伤害。欧盟委员会的人工智能法律提案旨在为人 香港领先 工智能系统制定标准,保护公民免受有害使用,但活动家和学者警告称,该提案可能还不足以考虑到少数民族。
欧盟人工智能法律的漏洞:欧盟提案的目标之一是拥有高质量的数据集,这些数据集“具有相关性、代表性、无错误,并且考虑到系统的预期目的而完整”。帕特尔表示,这不足以解决结构性种族主义,因为它没有考虑到某些群体可能拥有更好的数据。