建立更好地理解人类目标的机器

在心理学家费利克斯·沃纳肯(Felix Warneken)和迈克尔·托马塞洛(Michael Tomasello)进行的一项关于人类社会智能的经典实验中,一个18个月大的小孩看着一个人将一books书带到一个未打开的橱柜中。该名男子到达柜子时,笨拙地将书撞在柜子的门上几次,然后发出困惑的声音。

接下来发生了一些非凡的事情:幼儿愿意提供帮助。推断出该人的目标后,学步儿童走到柜子上,打开门,让该人将书本放进去。但是,生活经验如此有限的幼儿如何做出这种推断呢?

最近,计算机科学家将这个问题重定向到计算机上:机器如何做同样的事情?

进行这种类型的理解的关键因素可以说是使我们成为最人类的东西:我们的错误。就像幼儿只能从失败中推断出男人的目标一样,推断我们目标的机器也需要考虑到我们错误的行动和计划。

为了在机器中捕获这种社会智能,麻省理工学院计算机科学与人工智能实验室(CSAIL)以及脑与认知科学系的研究人员创建了一种能够推论目标和计划的算法,即使这些计划可能会失败。

这种类型的研究最终可用于改进一系列辅助技术,协作或看护机器人以及Siri和Alexa等数字助理。

谭志轩博士说:“这种能够解决错误的能力对于制造能够可靠地推断出我们的利益并采取行动的机器至关重要。” 麻省理工学院电气工程与计算机科学系(EECS)的学生,也是该研究的新论文的主要作者。“否则,人工智能系统可能会错误地推断出,由于我们未能实现更高的目标,这些目标毕竟是不希望的。我们已经看到了算法以自反和无计划地使用社交媒体为基础时会发生什么,我们将走上依赖和两极分化的道路。理想情况下,未来的算法将能够识别我们的错误,不良习惯和非理性,并帮助我们避免而不是加深它们。”

为了创建他们的模型,团队使用Gen(最近在麻省理工学院开发的一种新的AI编程平台)将符号AI规划与贝叶斯推理相结合。贝叶斯推理提供了一种将不确定的信念与新数据相结合的最佳方法,被广泛用于金融风险评估,诊断测试和选举预测。

该团队的模型比称为贝叶斯逆向强化学习(BIRL)的现有基准方法的执行速度快20到150倍,后者通过观察代理的行为来了解代理的目标,价值或回报,并尝试预先计算完整的策略或计划。新模型在推断目标中有75%的时间是准确的。

加州大学伯克利分校的Smith-Zadeh工程学教授Stuart Russell说:“ AI正在放弃将标准的固定目标赋予机器的’标准模型’。“相反,机器知道它不知道我们想要什么,这意味着关于如何从人类行为推断目标和偏好的研究成为AI的中心主题。本文认真地对待了这一目标;特别是,这是一个迈向建模并进而颠倒人类根据目标和偏好产生行为的实际过程。”

这个怎么运作

尽管在推断代理商的目标和愿望方面进行了大量工作,但许多工作都假设代理商为实现其目标而采取了最佳行动。

但是,该团队特别受到次优的通用人类计划方法的启发:不是事先计划好一切,而是仅形成部分计划,执行它们,然后再从那里进行计划。虽然这可能会导致由于“提前”思考不足而导致的错误,但同时也减轻了认知负担。

例如,假设您正在看着朋友准备食物,而您想弄清楚他们在做什么,这对您有帮助。您猜想您的朋友可能会采取以下几个步骤:可能是先将烤箱预热,然后再做苹果派面团。然后,您仅“保留”与您的朋友的实际操作保持一致的部分计划,然后通过从此处开始的几个步骤进行计划来重复该过程。

一旦您看到您的朋友做面团,您就可以将可能性限制为仅用于烘焙食品,并猜测它们接下来可能会切成薄片苹果,或者得到一些山核桃来做馅饼。最终,您将消除所有您朋友可能无法完成的菜肴计划,仅保留可能的计划(即馅饼食谱)。一旦确定了哪道菜,就可以提供帮助。

团队的推理算法称为“顺序逆向计划搜索(SIPS)”,它遵循此顺序来推断代理的目标,因为它仅在每个步骤中制定部分计划,并尽早削减不太可能的计划。由于该模型每次仅计划几个步骤,因此也说明了代理(您的朋友)可能会执行相同操作的可能性。这包括由于计划有限而导致错误的可能性,例如未意识到打开冰箱之前可能需要两只手。通过提前发现这些潜在的故障,团队希望机器可以使用该模型来更好地提供帮助。

“我们的早期见识之一是,如果您想推断某人的目标,则无需比他们更进一步思考。我们意识到,这不仅可以用来加速目标推断,还可以用来推断目标。行动太短视而无法成功,导致我们从扩展算法转向探索解决当前AI系统的更多基本局限的方法,”麻省理工学院首席研究科学家,谭志轩的共同顾问之一Vikash Mansinghka说,还有麻省理工学院的脑与认知科学教授约书亚·特南鲍姆(Joshua Tenenbaum)。“这是我们更大的月球计划的一部分-对18个月大的人类常识进行反向工程。”

该工作在概念上以Tenenbaum小组的早期认知模型为基础,表明可以将儿童甚至10个月大婴儿对他人目标做出的简单推断量化为贝叶斯逆向计划的一种形式。

迄今为止,研究人员仅在固定目标集上相对较小的计划问题中探索了推理,但通过未来的工作,他们计划探索人类目标和计划的更丰富的层次结构。通过编码或学习这些层次结构,机器可能能够推断出各种各样的目标以及它们所服务的更深层次的目的。

轩says说:“尽管这项工作仅代表一小步,但我希望这项研究将为构建真正理解人类目标,计划和价值观的机器奠定必要的哲学和概念基础。” “将人类建模为不完善的推理者的这种基本方法感​​觉非常有前途。现在,它使我们能够推断出计划何时被误解,也许最终也可以使我们推断出人们是否持有错误的信念,假设和指导原则。”

(0)
上一篇 2022年3月28日
下一篇 2022年3月28日

相关推荐