苹果公司的智能语音助手Siri可以识别面部表情,从而更准确地解释命令。根据苹果公司在专利商标局(通过Apple Insider)提交的一项专利,苹果公司正在寻找“修改智能代理以响应面部表情的操作”。
该专利谈到在某些情况下,智能软件所采取的措施可能与用户预期的措施不符。智能语音助手可能不仅能够基于面部表情而且还可以基于用户的情绪状态来解释命令。
苹果打算通过让Siri判断用户当前的情绪状态(使用户的反应是消极还是积极的)或“用户表达反应的程度”来增强Siri的能力。因此,Siri可能能够解释命令的上下文,例如,用户是高兴还是烦恼等。
“智能软件代理可以代表用户执行操作。可以响应于自然语言的用户输入(诸如用户说出的句子)来执行动作。在某些情况下,由智能软件代理执行的操作可能与用户预期的操作不匹配。
为了对面部表情的可能含义进行分类和解释,苹果将依靠面部动作编码系统(FACS),该系统是1970年代开发的一种系统,用于通过面部表情对人类面部动作进行分类。在某些情况下,也可以使用自动情感识别技术。
该系统将需要获得来自麦克风的音频输入以及来自摄像机的一个或多个图像,以“识别表示一个或多个图像中的面部表情的信息”。简而言之,Siri除了使用麦克风处理面部表情外,还将使用设备的相机。