隐私保护的挑战
例子一
- 一个简单的做法:将数据匿名化
- 这样的做法看似合理,但其实并不能真的保护隐私
- 机器学习模型往往会不经意地“记住”源数据中的元组
- 因此,模型在那些元组上的表现可能跟在其他元组上的 表现会不一样
- 类比与:学生考试时,碰上之前做过的题和碰上没做过的题,反应是不一样的
- 差分隐私要求任何被发布的信息都应当与上图中的信息0类似: 应当避免让攻击者分辨出任何具体的个人数据
- 为此,差分隐私要求被发布的信息需经一个随机算法所处理, 且该随机算法会对信息做一些扰动
- 攻击者并不能观察到,某一个元素对结果输出的影响,从而保证了用户的隐私
- 拉普拉斯机制和随机化回答是两个经典的差分隐私算法,还有许多其他不同的算法,一般而言,不同的应用场景、不同的数据集、不同的输出往往需要不同的算法设计,如何根据应用来设计差分隐私方法是不少领域的学者都感兴趣的问题
- 联邦学习
- 与多方安全计算的结合
- 差分隐私是近年来受到较多关注的一个隐 私保护模型
- 有着较强的理论保证,并在不少场景中得 到了应用
- 但仍有许多有待解决的问题
对机器学习模型的隐私攻击
差分隐私的定义
差分隐私算法
如何设计满足差分隐私的算法
其他噪声机制
差分隐私:应用
差分隐私数据库
差分隐私机器学习
差分隐私数据采集
差分隐私数据合成
前景展望
差分隐私的新方向
总结
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!