尽管我们喜欢把人工智能(A I)和机器学习作为超人的东西-机器能比人做得更好-但现实是,人工智能和机器学习只是加快了我们人类偏见通常运作的速度。
正如前谷歌记者Yonatan Zunger在一篇关于人工智能偏见的特别深思熟虑的文章中所写的那样,当我们开始建立一个ML模型时,我们遇到了一个令人不快的事实:“人工智能的最大挑战往往是在写作时开始的,它使我们必须非常明确地说明我们的目标,而几乎没有其他的东西。”
换句话说,机器反映和放大我们的偏见,而不是消除它们。 当我们转向人工智能和机器学习的一切,从营销到司法判决,我们需要高度认识这一点。
不管是好是坏,机器都会按照我们的要求去做。 正如Zunger所强调的,机器通过数据的最好方法不是速度,而是内在的缺乏创造力:
这种“不要无聊”的优势是真实的,但它也指向了问题。
SEE:IT领导者对人工智能未来的指导(技术研究)
就像营销人员喜欢在某种程度上“超越人类”销售人工智能产品一样,他们并不是。 人们编程计算机,而不是反过来,在这个过程中,人们把他们的计算机灌输他们所有的偏见。 正如祖格所言:
或者,正如他所总结的:“人工智能模型为我们提供了一面镜子;当我们真的不想要诚实时,他们就不明白。 如果我们事先告诉他们如何对我们撒谎,他们只会告诉我们有礼貌的小说。” 人工智能模型不是真理的中立仲裁者,换句话说:我们告诉它我们的真理,它把它们吐回我们。
祖格在行动中经历了一系列关于这种偏见的著名(和不那么著名)例子,你应该花时间阅读。 现在出现的不是一种担心,我们永远无法教汽车驾驶,而是一种担心,我们已经期待太多的人工智能和机器学习,我们如何使用计算机说话,或为人类机构。
当我们编程人工智能和机器学习算法时,我们必须明确地决定什么是重要的,这会使我们非常不舒服。 例如,如果你在编程一辆汽车,你会告诉它杀死跑到路上的孩子还是司机? 选一个。 也许这种不适是我们所有人的学习机会。 也许,只是也许,在被迫公开面对我们在编程这些模型时的偏见时,我们可能会学会克服它们,即使我们的机器不能。