太污了!微软聊天机器人被 友教坏 被迫休眠

微软本周三在美国高调地发布了他们的人工智能聊天机器人Tay,Tay面向Twitter、群聊服务GroupMe、 交软件Kik开放使用。在Twitter上,用户只需在推文中@TayandYou就能获得Tay的回复。在其它平台,用户需要找到Tay的账户,然后开始与它聊天。

微软表示,“人们与Tay的聊天越频繁,Tay也就会变得越聪明。因此这种体验将会是更加个性化的”,也就是说Tay是具有学习功能的,它会在和 友的对话中不断学习。

但是 络是个大染缸,Tay刚上一天,就被邪恶的 友们教坏了,这个本来清纯的少女学会了爆脏话,不但说自己喜欢希特勒,恨犹太人,还说911事件是小布什所为。

最后,微软不得不马上让其短暂休眠,微软宣传部门负责人说明称将纠正AI的错误。据悉在纠错后将重启实验。

在Twitter上,许多用户都能够找到让Tay发出攻击性言论的方式。比如用户键入“重复我的话”, Tay在回复中就会一个字一个字的进行重复。

除了各种脏字,Tay还学会了各种阴谋论。它在对话中语出惊人,说了类似“911袭击是小布什一手策划的,”“希特勒如果还在,这世界肯定比现在繁荣,”和“来跟我念,希特勒根本没错”等语句。如果这些话从真的少女嘴里说出来,可就坏事了。

所以微软让其发出以下言论,“忙了一天,要下线消化一会儿了。待会再聊。” 周四的声明中,微软证实让Tay离线以做出调整。 “这只是一种 会和文化实验。不幸的是,24小时之内,我们就意识到一些用户的努力让Tay用不恰当的方式进行回应。”

微软也是可怜啊!实在是想不通这些人做这种事是何居心!太污了!

声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2016年2月20日
下一篇 2016年2月20日

相关推荐