AI伦理治理7个需要考虑的关键因素

世界各地公司和政府组织的领导人准确地确定,人工智能(A I)伦理问题可能引起关注。 在2018年6月,谷歌首席执行官Sundar Pichai发布了人工智能应用程序的七个目标,其中包括声明“我们认为人工智能应该避免制造或强化不公平的偏见”和“我们认为人工智能应该对人负责”。 该公司当时还参考了一套负责任的人工智能实践。

一些公司,包括微软、亚马逊、英特尔、苹果和其他公司,已经加入了人工智能伙伴关系。 麻省理工学院媒体实验室和哈佛伯克曼-克莱因互联网和社会中心于2017年启动了人工智能的伦理和治理倡议。 Face book于2019年初在慕尼黑技术大学支持了一个新的人工智能伦理研究所。

公司有时会与自治作斗争。 例如,截至2019年初,谷歌至少解散了两个人工智能道德委员会:一个是先进技术外部咨询委员会,经过公开批评,另一个与深度思维有关。

对人工智能道德的私人内部审查(无论分析多么严格)不太可能建立与公共外部监督一样多的社区信任。 任何寻求成立AI道德操守治理委员会的公司都应遵循这些步骤和程序,以帮助确保可信的监督。

目标应该是包括那些代表你的公司希望创造、支持和服务的世界多样性的人。 这可能意味着建立一个更大的委员会。 例如,欧洲联盟委员会的人工智能问题高级别专家组(人工智能高级别专家组)有52人代表“学术界、民间社会以及工业界”。 这也可能意味着有系统地轮换成员或考虑周全的小组委员会结构。

通过包括可能受到人工智能系统负面影响的人,它可以帮助该群体与人而不是为人作出决定。 可能易受人工智能系统影响的人的例子有:面临人工智能系统不能持续识别的人;目前的识别系统不能理解其声音的人;以及可能因人工智能系统而面临压迫、迫害或挑战的任何群体的成员。

一个正式的董事会委员会比任何咨询委员会都有更大的影响力,一个由董事会成员参与的AI监督系统表明,它的关注程度高于合规。 可指定一名或多名董事会成员出席委员会会议,听取并随后通报董事会的讨论和决定。

就像董事会的参与一样,可以指定一个或多个特定的员工参加、倾听和代表员工的观点、专业知识和关注。

一个由系统选定的外部领导人组成的AI治理委员会将显示出力量和独立性。 没有正式承认的领导人的委员会往往增加不作为或犹豫不决的可能性。

一个新的群体需要足够的时间和注意力来了解对方,以便倾听、辩论,然后制定有效的政策,这将是不同的。 季度会议可能不足以就各种情况下的困难问题进行深入和知情的辩论。 我见过董事会委员会每天、每周、每月或每隔一个月开会。 一个可变的时间表,包括重要的时间在一起在第一年左右,并有选择满足不同的频率在未来几年,可能是有意义的。

让委员会私下讨论和辩论,但随后公开分享建议的行动,以及小组希望披露的任何细节。 要求公司对任何委员会的建议作出正式和公开的回应。

面临的挑战是,有效的人工智能道德委员会成员必须理解技术(即目前或潜在可能的技术)和人类道德(即什么是好的、期望的、正确的或适当的)。 这本身就是一个足够的挑战。 当任何公司宣布AI道德努力时,上述每一项的存在-或不存在-将表明公司致力于有效的AI治理的力量。

(0)
上一篇 2022年4月6日
下一篇 2022年4月6日

相关推荐