
人工智能程序在数百万美国人的招聘、住房和医疗决策中发挥着隐藏的作用,监管人工智能程序的首次尝试正面临来自各方的压力,并在全国的州议会中举步维艰。
在七项法案中,只有一项法案通过,旨在防止人工智能在做出重大决定时的歧视倾向——包括谁被雇用、买房的钱或医疗保健——。科罗拉多州州长贾里德·波利斯(Jared Polis)周五犹豫地签署了这项法案。
科罗拉多州的法案,以及在华盛顿州、康涅狄格州和其他地方被否决的法案,面临着许多战线上的斗争,其中包括民权组织和科技行业之间的斗争,还有议员们对涉足一项很少有人了解的技术持谨慎态度,州长们担心自己会成为一个奇怪的州,吓到人工智能初创公司。
波利斯“有保留地”签署了科罗拉多州的法案,他在一份声明中表示,他对抑制人工智能创新的法规持谨慎态度。该法案有效期为两年,在成为法律之前可以进行修改。
波利斯写道:“我鼓励(立法者)在该法案生效前对其进行重大改进。”
科罗拉多州的提案以及六项姊妹法案很复杂,但大体上要求公司评估人工智能的歧视风险,并在人工智能被用来帮助客户做出重大决策时通知客户。
这些法案与今年讨论的400多个人工智能相关法案是分开的。其中大多数针对的是人工智能的各个方面,比如在选举中使用深度造假或制作色情作品。
这七项法案更加雄心勃勃,适用于主要行业,并针对歧视问题,这是该技术最反常、最复杂的问题之一。
美国国务院人工智能特使、曾领导推特人工智能伦理团队的鲁曼·乔杜里(Rumman Chowdhury)表示:“我们实际上不知道所使用的算法是否有效,也不知道我们是否受到歧视。”
虽然反歧视法已经成文,但研究人工智能歧视的人表示,这是另一种野兽,美国在监管方面已经落后了。
“计算机正在大规模地做出有偏见的决定,”民权律师克里斯汀·韦伯(Christine Webber)说,她曾参与针对波音(Boeing)和泰森食品(Tyson Foods)等歧视的集体诉讼。现在,韦伯即将最终批准一项针对人工智能歧视的集体诉讼,这是全国首例和解协议。
韦伯说:“我应该说,旧的制度也不是完全没有偏见。”但是“任何人一天只能看那么多份简历。所以你一天内只能做出这么多有偏见的决定,而计算机可以在大量人群中快速完成。”

当你申请工作、公寓或住房贷款时,人工智能很有可能会对你的申请进行评估:将其发送到排队,给它打分或过滤掉它。据平等就业机会委员会(Equal Employment Opportunity Commission)估计,多达83%的雇主使用算法来帮助招聘。
人工智能本身也不知道该在求职申请中寻找什么,所以它是根据过去的简历来学习的。用于训练算法的历史数据可能会混入偏见。
例如,亚马逊(Amazon)开发了一种招聘算法,该算法接受了旧简历的训练:主要是男性求职者。在评估新申请者时,它会降低带有“女性”一词的简历或列出女子学院的简历的等级,因为它们没有出现在它所了解的历史数据——简历中。这个计划被破坏了。
韦伯的集体诉讼称,一个为租房申请打分的人工智能系统不成比例地给黑人或西班牙裔申请人分配了较低的分数。一项研究发现,用于评估医疗需求的人工智能系统忽略了黑人患者的特殊护理。
研究和诉讼让人们得以一窥人工智能系统的真面目,但大多数算法仍被掩盖着。皮尤研究中心的民意调查显示,美国人基本上没有意识到这些工具正在被使用。公司通常不需要明确披露使用了人工智能。
韦伯说:“拉开帷幕,这样我们就可以看到谁在真正进行评估,使用了什么工具,这是非常非常重要的第一步。”“如果我们不能获得至少一些基本信息,现有的法律就不起作用。”
这就是科罗拉多州的法案,以及加州另一项幸存的法案,正试图改变的。这些法案,包括康涅狄格州的一项旗舰提案,在州长的反对下被否决,在很大程度上是相似的。
科罗拉多州的法案将要求使用人工智能的公司帮助美国人做出重要的决定,每年评估他们的人工智能是否存在潜在的偏见;在公司内部实施监督计划;如果发现歧视,告诉州检察长;并在使用人工智能帮助客户做出决定时通知客户,包括上诉的选项。
工会和学者担心,依赖公司自我监督意味着很难在人工智能系统造成损害之前主动解决歧视问题。企业担心,在这个竞争激烈的新领域,强制透明度可能会泄露商业秘密,包括在潜在的诉讼中。
人工智能公司还推动了一项条款,该条款只允许司法部长,而不是公民,根据新法律提起诉讼。执法细节由司法部长决定。
虽然规模较大的人工智能公司或多或少地接受了这些提议,但一些规模较小的科罗拉多州人工智能公司表示,这些要求可能对大型人工智能公司来说是可控的,但对新兴的初创公司来说却不是。
“我们正处于一个全新的原始汤时代,”Thumper的创始人洛根·切尔科夫尼克(Logan Cerkovnik)说。ai,指的是人工智能领域。“在这种情况正在形成的时候,过于严格的立法迫使我们做出定义,限制我们对技术的使用,这只会对创新有害。”
所有人以及许多人工智能公司都认为,要解决被正式称为“算法歧视”的问题至关重要。但他们表示,该法案尚未达到这一目标。相反,他们建议加强现有的反歧视法。
乔杜里担心,诉讼成本太高,耗时太长,无法成为有效的执法工具,法律应该超越科罗拉多州的提议。相反,乔杜里和学者们提出了一个经过认证的独立组织,可以明确测试人工智能算法中的潜在偏见。
乔杜里说:“你可以理解并处理一个有歧视或偏见的人。“当它融入整个机构时,我们该怎么办?”
点击分享到









