谷歌今天宣布了TensorFlow Privacy,一个用于其TensorFlow机器学习框架的库,旨在让开发人员更容易地训练具有强大隐私保障的AI模型。谷歌说,它是开源的,不需要“隐私方面的专业知识”或基础的数学知识。此外,使用标准TensorFlow机制的开发人员不应该改变他们的模型架构、培训过程或过程。
它紧跟着今天发布的TensorFlow 2.0 alpha。
谷歌在一篇媒体文章中写道:“现代机器学习正越来越多地应用于创造令人惊叹的新技术和用户体验,其中许多涉及训练机器负责任地从个人照片或电子邮件等敏感数据中学习。”“我们打算将TensorFlow Privacy发展成为一个拥有强大隐私保障的训练机器学习模型的最佳技术中心。”
根据谷歌,TensorFlow Privacy是一种统计技术,其目的是在平衡用户信息的同时,将准确性最大化。为了确保这一点,它使用一种改进的随机梯度下降法(AI系统中优化目标函数的迭代方法)来优化模型,这种方法对训练数据示例引起的多个更新进行平均,剪辑每个更新,并在最终平均值上添加噪声。
谷歌说,TensorFlow的隐私保护可以防止对罕见细节的记忆,并保证无论用户的数据是否用于训练,两种机器学习模型都是不可分辨的。
谷歌写道:“理想情况下,经过训练的机器学习模型的参数应该编码一般模式,而不是具体训练实例的事实。”“特别是对于深度学习,额外的保证可以有效地加强其他隐私技术提供的保护。”
TensorFlow Privacy是在英特尔(Intel)的HE-Transformer公开源代码亮相之后推出的。HE-Transformer是一种“保护隐私”的工具,允许人工智能系统对敏感数据进行操作。它是nGraph的后端,Intel的神经网络编译器,基于Microsoft Research的简单加密算术库(SEAL)。