http://nxtelecom.com.cn/

IBM退出面部高德开发识别系统,因为警方无法负

 


 
高德平台(www.nxtelecom.com.cn)主管Q554258报导。在致国会的一封信中,IBM首席执行官Arvind Krishna表示,公司将停止面部识别软件的开发和销售,因为这款软件的部署不公平、不合理。
 
随着每一项技术的发展,好事的潜力很大,高德平台导航坏事的力量也很可怕。意想不到的后果定律潜伏在数字经济的每个角落,克里希纳似乎对政府当局的道德准则没有足够的信心,不允许他们部署和操作这些技术。
 
“IBM坚决反对,也不会容忍任何技术的使用,包括面部识别技术提供的其他供应商,质量监控,种族歧视,违反基本人权和自由,或任何目的不符合我们的价值观和原则的信任和透明度,”克里希纳在信中说。
 
“我们认为,现在是时候就国内执法机构是否应该以及如何使用面部识别技术展开全国性对话了。”
 
这封写给参议员科里·布克(Corey Booker)和卡玛拉·哈里斯(Kamala Harris),以及众议员凯伦·巴斯(Karen Bass)、哈基姆·杰弗里斯(Hakeem Jeffries)和杰罗德·纳德勒(Jerrold Nadler)的信证实,IBM将不再销售通用IBM面部识别或分析软件。似乎存在太多的偏见风险,太多的不值得信任的个人,以及不够的问责和透明度。
 
也许这个故事中最有趣的元素是意外后果法则,其定义如下:
 
用来描述一系列结果的术语,而这些结果并不是预期的结果。尽管意想不到的后果可能是可以预料到的,也可能是无法预料到的,但它们应该是过程中特定行动的产物。非预期后果的概念是六西格玛哲学的一部分,高德开发包括三种结果:积极的影响、可能导致质量下降的潜在问题和消极的影响
 
尽管学者和经济学家对这个不断发展的社会中的动态保持警惕,但大众舆论和政治家很少有远见,在现实世界中考虑到这一点。
 
这就是许多政治或政府举措失败的原因;大多数人都是令人难以置信的短视主义者,他们对社会池塘主要水花之外的任何事情都没有给予足够的关注或思考。涟漪可以积聚动量,产生波纹,影响深远得多。这似乎就是这里发生的事情。
 
在这个例子中,意想不到的结果似乎是面部识别用于大规模监控目的,这与隐私权有不确定的关系,或已显示出偏见。这对美国的非裔美国人和亚裔公民尤为重要。
 
2019年底,美国商务部下属的美国国家标准与技术研究所(NIST)发现,商用人脸识别软件的性能差异巨大。一些正在出售的应用程序可能会错误识别某些人口统计数据(年龄、种族和民族)的成员,其频率比其他应用程序高100倍。非裔美国人和亚裔公民最容易被认错。
 
没有一项技术是完美的,但这显然是该行业尚未给予足够重视的一个领域。当算法应用于现实世界时,会显示出偏见,而且还没有准备好部署,但仍然有数百个商业实现的用例。
 
亚马逊(Amazon)推出了一款与收费相关的零售产品,伦敦警察署(London Metropolitan Police Service)在伦敦多个地方实施了这项技术,以打击持刀和暴力犯罪,而Facebook也在使用面部识别技术来识别照片中的个人。
 
有些实施可能被认为是无害的,有些则会受到非常严重的惩罚,如错误逮捕或监禁。然而,在缺陷被解决之前,不应该以任何形式部署这项技术;任务蠕变是一个真正的威胁,政府也不够值得信任。
 
值得注意的是,IBM反对积极实施面部识别技术的立场并不新鲜。

旧金山市已经通过立法有效地反对使用面部识别,有一些非常具体的案例不属于“地毯禁令”。微软一直呼吁对隐私法进行改革,将面部识别等新技术纳入其中。电子前沿基金会(Electronic Frontier Foundation)也一直在发起运动,反对仓促应用面部识别技术,隐私维权人士建议,需要对问责制和透明度提出更高要求。
 
虽然不是新的,但IBM的立场很重要。IBM的人工智能引擎沃森(Watson)为IBM在人工智能行业创造了领先地位,这在某种程度上是一种至关重要的姿态。IBM可以出售面部识别技术,但它把对社会的责任置于商业雄心之前。
 
需要就面部识别技术的危险展开对话,因为还没有考虑到其后果。实际上,这项技术已经匆忙投入商业应用,应该收回。在技术世界的其他部分,我们谈论可靠性的五九,但这不是被遗忘,就是被忽视了,更不用说问责制和透明度的原则了,它们也不存在。
 
这是一个太多,太快的例子。
 

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。