DeepNude因违反“禁不雅内容”遭GitHub下架

前一阵子一度火遍全 ,同时引发激烈争议的“一键脱衣”APP应用 DeepNude, 是一款使用人工智能(AI)能看见透视女性服装的应用程序,是由美国一名「deepnudeapp」程序员通过神经 络(neural net)开发的一款应用,只要给DeepNude一张女性或男性照片(主要是处理女性照片,如果原图裸露的皮肤越多,处理效果越好),AI借助神经 络技术,App应用会自动脱掉男性/女性身上的衣服。

据DeepNude开发者表示,DeepNude研发团队是个几个人的团队,而且相关技术显然也还很不成熟,使用的是开源的算法,而且多数照片(尤其是低分辨率照片)经过DeepNude处理后,得出的图像会有人工痕迹;只有女性照片效果好一点,而在DeepNude输入卡通人物照片,生成得出的图像是完全扭曲的,DeepNude大多数图像和低分辨率图像会产生一些视觉伪像。

据了解,DeepNude最初是一款付费应用,宣称可通过类似deepfakes的人工智能换脸技术,来创建女性的裸照版本,然而这把利器很容易别别有用心者用于色情 复的目的,DeepNude高级专业去水印版本售价50美元,有水印免费提供下载。在迅速火爆全球后,也瞬间引发了 络 区的各类声讨,纷纷明确的表示是对AI利用的反例,而后世界各大媒体也开始纷纷指责DeepNude滥用女性照片而侮辱女性后,DeepNude开发团队关闭了该项目,虽然下架关闭了DeepNude应用,但在下架后一周后该应用程序的副本出现了在GitHub平台上,听闻之后的GitHub小伙伴们确都纷纷都默默的收藏保存了DeepNude种子,主要是用于对AI的研究,以探索更多的可能性。

不过,据国外媒体7月10日最新消息,据美国theverge 道,GitHub正在禁止不雅应用DeepNude的代码,这款“一键脱衣”APP因使用人工智能技术创建女性假不雅照而遭下架。GitHub 向Motherboard表示,DeepNude代码违反了其禁止“不雅内容”的规则,并删除了多个存储库,包括由最初的DeepNude创建者正式运行的存储库。

对于“DeepNude”事件,从上线、病毒式传播、被声讨、下线,再到现在的“开源”,DeepNude这款极具争议的app引发的风波背后,实际上是两种理念的激烈冲突:一边是信息和技术传播的不应受限的自由理念,另一边是对技术滥用和隐私安全的深深担忧。该如何权衡,这是一个值得深思的问题。

以上内容【科技周】综合整理提供,想了解更多最新科技资讯,请关注【科技周】,感谢。

声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2019年6月6日
下一篇 2019年6月7日

相关推荐