自拍照被拿去训练AI?这款AI工具帮你「骗」过人脸识别算法

近期,纽约警察局(NYPD)在使用机器狗方面引发了很大的争议。然而,另一件事你不得不也关注起来:他们已经使用面部识别工具(Clearview AI)超过两年时间。

媲美数千人的数据攻击,你也能实现

许多AI研究人员正在开发确保AI无法从个人数据中学习的工具。

 

众所周知,数据攻击已经不是什么新奇的事物,诸如删除目标公司所拥有的数据,或使用假样本污染数据集从而更难训练准确的机器学习模型。

 

但是,这些通常需要需要数百或数千人参与才能得以实现。而新的技术和传统的数据攻击的区别在于它可以让个人用户去处理自己的照片。

 

「这种新的技术可以用作个人锁定数据的密钥,」澳大利亚迪肯大学的Daniel Daniel说, 「这是在AI时代保护人们的数字权利的一种新的前线防御。」

在Fawkes中导入照片,它将为图像添加像素级扰动,从而阻止先进的面部识别系统识别照片中的人物。与以前的做法不同,例如戴着AI欺骗的面部彩绘,它所生成的图像在肉眼看来没有明显变化。

 

Wenger针对几种广泛使用的商业面部识别系统(包括亚马逊的AWS Rekognition,微软的 Azure)测试了他们的工具。在一个包含50个图像的数据集的小型实验中,Fawkes对所有图像均具有100%的有效性,在经过Fawkes调整的人像上训练的模型无法从新的图像中识别出这些人。

小工具二:「LowKey」让AI根本发现不了你

LowKey可以在线上进行直接使用「lowkey.umiacs.umd.edu」。

 

与基于对抗性攻击的Fawkes不同,LowKey对图像的处理并不是去导致AI犯错,而是更进一步的将图像转化为无法被学习的样本,有效地使AI在训练过程中完全忽略经过处理的图片。

 

在之后将其提供给模型时,AI对其中内容的评估并不会比随机猜测的更好。这种无法被学习的样本比对抗攻击更有效,因为模型无法利用它们进行训练。

文章知识点与官方知识档案匹配,可进一步学习相关知识算法技能树首页概览35099 人正在系统学习中

声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2021年5月6日
下一篇 2021年5月6日

相关推荐