首页 » 博客 » AI治理地图v.2.0

AI治理地图v.2.0

2019 年,围绕人工智能的炒作持续升温。Facebook 备受争议的十年挑战赛上的一个表情包或许最能体现这一点——该挑战赛被指责为试图向面部识别算法提供有价值的数据,但掩饰拙劣 治理地 。这个表情包嘲讽了这样一个事实:在 2009 年至 2019 年的十年间,我们目睹了人们熟悉的统计和计算工具被全面重新包装为人工智能和机器学习。虽然这有点夸张,但这一点可能凸显了关于人工智能和机器学习的讨论最终是关于数字技术更广泛的治理,因为数据驱动和算法过程渗透到了我们生活的方方面面。在整个 2019 年,我们继续将所有这些都归入“人工智能”和“机器学习”的标签下,但展望未来,这可能会越来越无益。

纽约市自动决策系统特别工作组对该市算法使用的调查也恰如其分地证明了这一点。这项努力被认为是一个独特的机会,可以让算法的公共使用变得透明和可问责,但现在人们普遍认为它失败了。特别工作组无法发现自动化系统的实际使用方式,因此无法对其监管提出实质性建议。尽管如此,调查结果有助于强调,自动化系统不需要复杂或基于最先进的技术就能产生深远的影响和潜在的负面影响。

人工智能机器人

在某种程度上,该工作组令人失望的结果是可以预料的,因为它必须自愿披露不同城市服务如何依赖自动决策系统;因此它缺乏获得有意义见解的任何法律权力。早在 2016 年初,在英国数据伦理与创新中心成立之前,Nesta 就在我们关于机器 捷克共和国电话号码数据 智能委员会的提案中指出了这一点至关重要。相反,2019 年围绕人工智能治理的重大讨论主要围绕道德的作用和范围展开。

人工智能伦理——虚假的灵丹妙药
在这一年中,各种类型和规模的组织继续制定道德准则,如今这些准则的数量已超过 100 条,许多组织已经成立了道德咨询委员会。为了在这个拥挤的领域创造一些清晰度,出现了多个尝试,试图对正在提出的规范进行分类和分析(伯克曼克莱因中心项目;苏黎世联邦理工学院项目)。虽然人们开始就应该支撑人工智能发展的某些高级原则达成共识,例如透明度、公平性和隐私性,但对于应该如何解释和在实践中实施这些原则,人们并没有达成多少共识。此外,有人担心基于原则的方法可能在很大程度上不适合人工智能治理。

数据
作为人工智能治理的主要机制,道德本身也受到了深刻 并正在采取先发制人的行动 的挑战。在一波争议中,谷歌于 2019 年 4 月解散了其道德咨询委员会,欧盟人工智能高级专家组因行业声音占主导地位、排挤公民社会和彻头彻尾的道德洗白而受到严厉批评,而硅谷利益集团对全球人工智能伦理话语的不当影响的曝光震惊了整个社区。然而,如果就此得出结论说道德反思是多余的,那就错了。伦理学家可以为梳理出高级规范在计算机代码开发或组织过程中的各种解释和实施方式做出很多贡献。然而,在缺乏监管或执行原则的实际机制的情况下,道德准则不可避免地在塑造行为或激励方面发挥的作用很小。道德准则往往让人感觉像是在对存在于商业模式和激励结构层面的更深层次问题的表面进行调整。

重新关注社会影响

为了回应人们对其产品和服务对社会影响的日益担忧、当局屡屡创纪录的罚款、员工不满情绪的蔓延以及欧洲和美国正在进行的调查,一些最大的科技公司已开始呼吁政府制定简单明了且具有约束力的法规(《卫报》;《BBC》;《Techspot》;《Engadget》)。零散的法规或对可能适用的规则的不确定性显然对企业不利,科技公司甚至可能在一定程度上认识到他们的产品可能会对社会产生有害影响。然而,这些对监管的呼吁伴随着游说活动的增加,人们担心公司可能会吸引公众和监管讨论,从而使他们偏离更深层次的结构性问题。

我们
在美国,联邦和州政府之间关于监管的讨论陷入了紧张状态。美国管理与 汤加营销  预算办公室发布了《联邦数据战略》第一年行动计划,其中列出了美国机构应如何管理和保护其数据资产。尽管白宫似乎在对人工智能监管采取了一种自由放任的态度,甚至敦促世界其他地区也这样做,但各州正在带头努力在各个领域监管基于人工智能的技术。隐私和数据保护仍然是主要关注领域,但面部识别和深度伪造可能是 2019 年最主要的主题,有几项法案和具体立法试图限制其使用。今年 5 月,旧金山成为美国第一个禁止在公共场合使用面部识别的城市,加利福尼亚州和马萨诸塞州的一些城市也纷纷效仿(参见美国面部识别法律地图)。

美国纽约市曼哈顿
鉴于人们担心深度伪造可能对 2020 年美国大选产生影响,美国多个州以及联邦政府的立法者都提出了立法倡议。科技公司与学术机构合作开发数字取证工具以检测和防止深度伪造的传播,一场名副其实的“军备竞赛”已经展开。然而,根据最近的分析,目前的努力不太可能提供足够的保障,防止 2020 年美国大选受到干扰。

欧洲

滚动至顶部