来自Google和Microsoft等研究人员和学者的重量级AI专家小组敦促不要发表一项新的研究报告,该研究报告声称要根据生物识别或刑事法律数据来识别或预测犯罪行为,并称此类研究具有内在的种族偏见和使歧视性结果自然化。

有关出版物–利用图像处理预测犯罪的深度神经网络模型–计划由Springer Publishing出版。但是在6月22日给施普林格编辑委员会的一封信中,大约1,700名专家研究人员和实践者组成的小组说:“我们敦促审查委员会公开撤销该特定研究的公开发表,并解释用于评估该研究的标准。”该小组还说他们想要:“施普林格发表声明,谴责使用刑事司法统计数据预测犯罪行为,并承认其过去在激励这种有害学术方面的作用。” Also that: “所有出版商都不要在将来发表类似的研究。”

签字者包括华盛顿,马萨诸塞州,哈佛,纽约大学和麻省理工学院以及伯克利法学院等多所大学的教授,他们说,即将出版的出版物值得集体回应“因为它象征着大量的计算研究声称使用生物统计和/或刑事法律数据来识别或预测“犯罪”。”

公开信中说:“这些主张基于不合理的科学前提,研究和方法,这些年来,横跨我们各自学科的许多研究都被揭穿了。尽管如此,这些信誉不佳的说法仍在不断浮出水面,通常是在新的和据称中立的统计方法(如机器学习)(这些出版物的主要方法)的表皮之下。

“在过去的十年中,政府官员已经接受了机器学习和人工智能(AI),以此来消除国家暴力的政治化并重新确定国家的合法性,而这通常是在严重的社会动荡之中。社区组织者和黑人学者一直处于执法部门对使用AI技术的抵制的最前沿,尤其侧重于面部识别。然而,即使行业和研究院投入大量资源为机器学习和AI建立“公平,负责和透明”的实践,这些声音仍被边缘化。”

它增加了:“机器学习程序不是中立的。研究议程和它们使用的数据集通常会继承有关世界的主流文化信仰。这些研究议程反映了处于开发机器学习模型的特权位置的人们的动机和观点,以及他们所依赖的数据。对默认假设的不加批判的接受不可避免地导致算法系统中的歧视性设计,重现使社会等级制度规范化并合法化针对边缘化群体的暴力行为的观念。”

在哈里斯堡大学发布的原始新闻稿中,研究人员声称“仅凭脸部图片就能预测某人是否是罪犯”,准确率达到80%,没有种族偏见。给施普林格的公开信说:“让我们清楚一点:由于“犯罪”类别本身是种族偏见的,因此无法开发出一种系统来预测或识别没有种族偏见的“犯罪”。”

结论为:“种族,阶级和性别之间算法偏见的最新实例表明,机器学习系统具有扩大历史性歧视形式的结构性倾向,并引起了人们对技术伦理及其在社会中的作用的新的兴趣。

“像Springer这样的主要出版商发行的这本书,将为朝着合法化和应用现实世界中屡次被揭穿,对社会有害的研究迈出重要一步。”

您可以阅读完整的信函,并在此处签署给Springer的集体信函: //medium.com/@CoalitionForCriticalTechnology/abolish-the-techtoprisonpipeline-9b5b14366b16