谷歌的仇恨言语检测AI对黑人有偏见

弄巧成拙

用于在线检测和缓和仇恨言论的人工智能算法,包括由谷歌构建的Perspective算法,具有针对黑人的内置偏见。

来自华盛顿大学的科学家发现,都应该以保护被边缘化的群体从网上滥用AI工具惊人的抗黑偏差,根据新科学家-展现着如何善意的尝试,使互联网更加安全可以区分对已经边缘化社区。

内置偏置

根据尚未发表的研究,科学家们研究了人类如何注释一个数据库,该数据库包含了超过100,000条用于训练反仇恨语音算法的推文。他们发现负责标记推文是否有毒的人倾向于用非洲裔白话英语(AAVE)标记的推文是冒犯性的 – 这种偏见然后传播到算法本身。

该团队通过在数据库上训练几个AI系统来确认偏差,发现算法将AAVE与仇恨言论联系起来。

下游效应

该团队随后在540万条推文的数据库中测试了算法,包括Perspective,其作者已经披露了他们的种族。据“新科学家”杂志报道,这些算法的标准范围从一半到两倍,可能是由于在数据库中被认定为非裔人的人所写的帖子。

这意味着自动化内容审核工具可能会根据其海报的种族情况删除大量良性帖子,从而导致某些社区在线沉默和压制。

(0)
上一篇 2022年3月27日
下一篇 2022年3月27日

相关推荐