刚刚开始:欧洲议会内部市场 (IMCO) 和公民自由 (LIBE) 委员会关于 AI 法案的联合报告将于 4 月 11 日公布,这份报告将仅包括两位谈判代表 Brando Benifei(意大利 S&D 党)和 Dragos Tudorache(罗马尼亚 Renew 党)能够达成一致的要点。其余文本将通过不同政党可能提出的数百甚至数千条修正案来形成。做好准备吧 十年来科技政策之争开始 。
以下是 Benifei 和 Tudorache 目前达成的共识:
定义和用户责任:包括欧盟国家在内的《人工智能法案》的批评者表示,人工智能的定义过于宽泛。贝尼菲周一对记者表示,他们的报告不会限制或缩小定义。两人还希望让人工智能系统的用户承担更多责任。“在许多涉及基本权利的用例中,公共当局是用户,因此他们自然不应仅限于遵循指示和其他一些要求,”贝尼菲说。
治理:图多拉奇表示,该法案目前的治理结构是基于国家当局分别执行该法案。“我们不希望看到 27 个不同的司法管辖区以不同的方式适用,并避免或阻碍我们需要实现的目标,”他说。议会还希望解决这样一个事实,即并非每个当局都有资源来处理像人工智能这样高度专业化的领域。“我们需要非常仔细地考虑我们的公共当局 [和] 国家监管机构如何才能找到合适的人才来应用和执行法律,”图多拉奇说。
与 GDPR 保持 十年来科技政策之争开始 一两人还希望确
保文本与欧洲数据保护制度 GDPR 保持一致。Tudorache 表示,远程生物特征识别(包括面部识别)将是“这种一致性至关重要的一个例子”。
未提及的内容:图多拉切并未像贝尼菲那样表明他是 孟加拉国 WhatsApp 数据 否支持禁止该技术,这可能是两人面临的最艰难的斗争之一。贝尼菲和图多拉切也没有提及他们是否同意自我评估足以遵守该法案,或者哪些类型的人工智能系统应被归类为“高风险”并属于该范围。
Axel Voss 报告:议会人工智能特别委员会的另一份报告表明,人工智能法案可能会引发多大的争议。周二,欧洲议会议员批准了一份路线图,该路线图表明了欧洲议会更广泛的人工智能政治议程,该路线图由欧洲议会议员 Axel Voss(欧洲人民党,德国)起草。POLITICO获得的这份妥协文本收到了 1,300 多项修订。
背景:即使按照欧盟标准来看,这也是一个令人眼花缭 觉醒的人们:部长被指控忽视了有关即将来临的洪水的紧 乱的数字。我的同事 Laurens Cerulus 和 Laura Kayali 告诉我,其他备受争议的报告,如 GDPR 和版权指令分别有 3,000 和 1,600 多项修正案。
为你的记者祈祷:《人工智能法案》只会变得更糟。沃斯的报告不是对一项实际立法的投票,而是欧洲议会未来在人工智能政策方面应采取的政治方向的路线图。《人工智能法案》是一项漫长而复杂的法规,开创了新的先例,很容易达到 GDPR 级别的争议。
偏见
美国人工智能偏见的黄金标准
根除人工智能偏见:欧洲可能希望通过监管为人工智能制定全球标准,但美国的新指导方针可能会让“值得信赖”的人工智能更快成为现实。在一份重要的新报告中,美国政府机构国家标准与技术研究所 (NIST) 推出了关于如何根除人工智能系统中偏见的实用指南。NIST 在美国科技界具有巨大影响力,是美国人工智能技术的全球领导者。
社会技术方法:在考虑偏见时,许多开发人员喜欢认为它可以通过纯技术或统计方法来解决。NIST 报告更进一步,承认解决人工智能中的偏见需要更广泛的方法,同时考虑到人类和系统偏见。需要解决的不仅仅是数据集和算法,还有使用人工智能系统的人和社会背景。
从各个方面打击偏见: NIST 报告为偏见出现的关键领域提供了指导,例如数据集可用性、代表性,并促使开发人员思考他们使用的数据集是否适合 AI 系统所使用的社会技术环境。NIST 还为治理以及测试、评估、验证和验证 AI 系统提供了指导。NIST 还建议如何考虑导致偏见的人为因素,例如个人和组织内部的社会和历史偏见。
重要提示: NIST 报告以欧盟认为某些 AI 应用具有高风 印度手机号码 险的观点为基础,但对公司如何降低这些风险提出了具体建议,例如确保“将团队之间的薪酬和晋升激励与 AI 风险缓解工作相结合,以便风险缓解机制的参与者……真正有动力采用合理的开发方法,进行严格的测试和彻底的审计。”
打击虚假信息:与所有社交媒体平台一样,Twitter 也在努力应对虚假信息。研究人员发现,在 2016 年美国总统大选期间以及最近俄罗斯入侵乌克兰期间,恶意行为者很容易利用该系统。
大约一年前, Twitter 推出了(现在不幸的名字)META,即其机器学习道德、透明度和问责计划,旨在让公司对其算法承担更多责任并带来更多透明度。许多社交媒体公司都有透明度登记册和各种成功程度不一的问责制度。Twitter 的 META 表示,它正在尝试做不同的事情。
面对尴尬的事实: Twitter 通过批判性地评估自己的算法,从其他社交公司中脱颖而出。结果并不总是令人满意。2020 年,Twitter 因其图像裁剪算法而面临公众的强烈反对,该算法显示出潜在的种族和性别偏见。后来 Twitter 的一项分析发现,其图像裁剪算法更偏向白人和女性。10 月份的另一项研究发现,来自民选官员和右翼政治账户的政治内容在 Twitter 上受到了更大的算法放大。
开放访问: Twitter 正在尝试使用增强隐私的技术,例如合成数据和差异隐私,以便外部研究人员可以验证其数据。第三方访问和透明度可能会损害公司的知识产权,“我们最担心的是平台上个人的隐私和安全,”Chowdhury 说。