IBMResearch发布了可解释的AI工具包

IBM Research今天推出了AI解释360,这是一个开源的集合,使用一系列技术来解释AI模型决策。

在IBM一年前发布了AI公平360,用于检测和缓解人工智能模型中的偏差。

IBM研究人员和负责AI的领导萨斯卡·莫伊西洛维奇在电话采访中对Venture Beat说,IBM正在分享其最新的工具包,以增加对人工智能的信任和验证,并帮助必须遵守法规的企业使用人工智能。

“这从根本上说很重要,因为我们知道组织中的人不会使用或部署人工智能技术,除非他们真正相信自己的决定。 而且,因为我们为这个世界的一个很好的部分创造了基础设施,这对我们来说是至关重要的-不是因为我们自己内部部署了人工智能或我们可能在这个空间中拥有的产品,而是创造这些能力是至关重要的,因为我们的客户和世界将利用它们。

莫伊西洛维奇(Mojsilovic)表示,该工具包也正在共享,因为在创造值得信赖的人工智能方面,业界的进展“非常缓慢”。

人工智能解释360借鉴了IBM研究小组成员的算法和论文。 来源材料包括“TED:教人工智能解释其决定”,这是一篇被接受在AAAI/ACM关于人工智能、伦理和社会的会议上发表的论文,以及经常被引用的“用自表达神经网络实现稳健的可解释性”,被接受在NeurIPS2018年出版。

该工具包采用了许多不同的方法来解释结果,例如可对比的解释,一种试图解释重要缺失信息的算法。

还针对特定的场景制定了算法,例如用于解释原型的Protodash,以及旨在向最近被拒绝贷款的消费者解释信用评分模型结果的算法,或者向需要解释AI模型决策以遵守法律的贷款官员解释..

工具包中的所有八种算法都来自IBM Research,但更多来自更广泛的人工智能社区将在未来添加。

莫伊西洛维奇说:“不是一个研究团队或一个组织可以移动针头;当我们联合起来一起做这件事时,我们都会受益,这就是为什么我们打算种植工具箱。

(0)
上一篇 2022年4月3日
下一篇 2022年4月3日

相关推荐