英国马德拉斯理工学院的研究人员开发了让人工智能更加公平的技术

来自马德拉斯学院(理工学院-马德拉斯分校)和英国贝尔法斯特女王大学的研究人员开发了一种创新的新算法,使(人工智能)在处理数据时更公平、更少偏见。

企业经常使用人工智能技术筛选大量数据,以应对职位空缺过多、监控系统大量数据与活动有关等情况。贝尔法斯特女王大学的研究人员Deepak Padmanabhan说:“人工智能用于探索性数据分析,即所谓的‘聚类算法’,经常被批评在‘敏感属性’方面存在偏见,比如种族、性别、年龄、宗教和原籍国。”据报道,名字的回访率比黑人名字的回访率高出50%。研究还表明,对于40多岁及以上的员工来说,回调率往往会大幅下降。当公司面临一个涉及大量数据的过程时,不可能手动筛选这些数据。集群是在招聘等流程中使用的一种常见流程,在招聘过程中,需要提交数千份申请。虽然这可能会在筛选大量应用程序方面减少时间,但有一个大问题。经常可以看到,这种集群化过程通过产生高度倾斜的集群而加剧了工作场所的歧视。在过去的几年里,“公平聚类”技术得到了发展,这些技术可以防止在单个选择的属性(如性别)中出现偏差。研究团队现在已经开发出一种方法,第一次可以实现许多属性的公平性。“人工智能技术的公平性在等发展中具有重要意义。这些经历了剧烈的社会和经济差异,这些都反映在数据中。”“直接在原始数据上使用人工智能技术,会产生有偏见的见解,影响公共政策,这可能会放大现有的差异。”采用更公平的人工智能方法至关重要,尤其是在公共部门,当涉及到这类场景时,”亚伯拉罕补充道。研究人员表示,我们的公平聚类算法被称为“FairKM”,它可以被任意数量的指定敏感属性调用,从而实现一个更加公平的过程。在某种程度上,FairKM向算法迈出了重要的一步,它承担了确保候选公平的角色,尤其是在人力资源方面。FairKM可以应用于多个数据场景,其中人工智能被用来帮助决策制定,如主动警务预防和探测可疑活动。这项研究工作计划于2020年4月在丹麦举行的EDBT 2020大会上提交。

(0)
上一篇 2022年4月6日
下一篇 2022年4月6日

相关推荐