英伟达已经开发出一种方法,通过首先观察人类活动来训练机器人执行动作。在最初的应用中,机器人学会了在实验室环境中使用aBaxter机器人捡起和移动彩色盒子和玩具车。
从这类研究中获得的知识将用于对机器人进行再培训,并创造出能够在工业环境和家庭中与人一起安全工作的机器人。
英伟达首席研究员Stan Birchfield在接受VentureBeat采访时表示:“在制造环境中,机器人确实擅长反复执行相同的轨迹,但它们无法适应环境的变化,也无法学习任务。”“因此,要让机器人重新执行一项新任务,你必须请一位专家在相当低的水平上对机器人重新编程,这是一项昂贵的操作。”我们感兴趣的是让非专业用户通过简单地向机器人展示该做什么来更容易地教会它一项新任务。”
该系统有一系列的深度神经网络来执行感知、规划和控制,这些网络完全是在合成数据上训练的。
Birchfield说:“现在机器人领域正在发生一种范式转变。”“我们现在可以使用gpu生成无限数量的预先标记的数据——基本上是免费的——来开发和测试算法。这可能会让我们开发这些机器人系统,这些系统需要学习如何与周围的世界进行互动,以更好的规模和更安全的方式。”
本周在澳大利亚布里斯班召开的国际机器人和自动化会议(ICRA)上分享了这一发现。
新的人工智能系统是在英伟达机器人研究实验室(Nvidia robotics research lab)的帮助下开发出来的。该实验室于去年年底首次宣布成立,目前拥有6名员工,并准备于今年夏天在华盛顿大学西雅图分校(University of Washington in Seattle)附近开设办公室。
Nvidia的机器人研究主管Dieter Fox告诉VentureBeat,该研究实验室将继续与机器人社区和Nvidia的内部团队合作,探索人工智能系统训练中使用的合成数据集。
这些知识可以用来加强Isaac SDK,这是一个在2017年5月首次引入的机器人模拟训练框架。
“实际上,英伟达在游戏领域已经工作了相当长的一段时间,例如,它是关于建立三维虚拟环境,照片逼真,并给你一些内容建模。我们想做的是与所有这些拥有这些专业知识的团队合作,帮助他们以某种方式扩展它,使它更好地适用于机器人环境。”福克斯说道。
福克斯说,今天发布的这类研究将是下一代机器人的核心。
他说:“我们说的是机器人,它们必须要开门、开抽屉、拿东西、移动物体,甚至要与人进行身体互动,帮助他们——比如家里的老人。”“这些机器人需要能够识别人,他们需要看到一个人想做什么,他们需要学习的人,学习示范,例如,他们也需要能够预测一个人想做些什么来帮助他们。”
英伟达加入了越来越多的公司行列,比如谷歌(Google)和SRI International,它们对具有环保意识的人工智能系统的开发感兴趣,或者如谷歌人工智能首席执行官杰夫•迪安(Jeff Dean)所说,更多的是“常识”。