出版 :电子工业出版
出版时间:2018年6月
2016年美国大选结束之后,Facebook成为众矢之的,舆论认为推送算法在假新闻的传播问题上难辞其咎。“假新闻”一词更是更为当年的年度热词,成为人们热议的对象,吃瓜群众恍然惊觉,自己信以为真、热议传播的惊悚消息不过是有人精心炮制的弥天谎言。
那么在这个消息爆炸的时代,每日充斥 交媒体的诸多热点新闻中,有多少是基于事实的客观真相,又有多少是别有用心的舆论引导?“假新闻”的锅应该由谁来背?是千夫所指的媒体算法,还是热衷八卦的吃瓜群众?如何从纷纭杂沓的虚假信息中辨明真相?
蒂姆·奥莱利将从2016年美国大选的假新闻谈起,为我们指明假新闻的应对之道。
算法时代的媒体
在2016年美国总统大选结束之后,外界批评声不断,Facebook也成了口诛笔伐的重点对象。舆论认为, Facebook的新闻推送算法在散播错误信息、扩大民众两极分化方面难辞其咎.
假消息 称,教皇方济各为唐纳德·特朗普背书,妄言迈克·彭斯曾称米歇尔·奥巴马是“有史以来最粗俗的第一夫人 ”,还谎称希拉里·克林顿将被起诉,这些不实传闻被转发了一百多万次。
而以上这些假消息,均是由一群马其顿少年为挣钱而编造的。而“FBI官员身亡被伪造成自杀,或与希拉里邮件门有关 ”——这个彻头彻尾的谎言被转发了 50万次。这则谣言的始作俑者是南加州一名男子,该男子为了证明传播虚假信息轻而易举,从 2013年开始散布假消息,最终竟创立了一家有 25名员工的公司,专职负责炮制谣言。
以讹传讹的不仅仅是 Facebook的用户。许多假新闻还通过邮件、推特、 YouTube、红迪 和 4chan等渠道流传。当谷歌用户开始输入查询关键词时,谷歌建议的下拉框也会显示这些伪新闻标题。
但 Facebook成为众矢之的,或许是因为马克·扎克伯格一开始就对假新闻泛滥问题矢口否认。
在总统大选结束几天后举行的技术经济大会上,扎克伯格在台上接受采访时说,有人认为一些不实传闻左右了大选结果,“这种想法太疯狂 ”。他辩解说,那些假新闻只是 站内容的沧海一粟。
假新闻是八卦小 的雕虫小技,处于新闻业边缘,曾遭人不齿,但如今何以在塑造我们共同的未来中发挥了如此重大的作用?
至少有一点, 2016年的美国总统大选把政治活动家伊莱·帕里泽所称的“过滤气泡 ”体现得淋漓尽致。由点赞驱动的 交媒体算法为每个人定制更多他们感兴趣的信息,肯定他们的偏见,强化他们的信念,鼓励他们在 上结交与自己志同道合的人。
华尔街日 创建了一个令人大开眼界的 站,叫蓝色推送 /红色推送,该 站使用Facebook对用户政治立场的研究数据,并排比较两党派支持者收到的同一事件的不同推送新闻。推送给“极端自由主义 ”和“极端保守主义 ”读者的新闻差异之大,让人瞠目结舌。
我自己也有切身体会,我的家庭成员向我转发保守派新闻,而我则回敬给他们进步派新闻。我们生活在不同的世界里。或许我们只是生活在新的“后真相”世界中,在这个世界,煽动情绪比展示事实更有分量。
媒体传播和媒体创造中的民主化,发挥了举足轻重的作用。
她完全无法想象,视频可能是由特朗普的某个匿名支持者杜撰而成的。
皮尤研究中心的调查显示, 66%的美国人通过 交媒体获取新闻,这其中又有 44%只通过 Facebook阅读新闻。许多内容来自于传统媒体,通过链接在 交媒体上分享。
更别说还有 ISIS这种组织,曾成功利用 交媒体招募恐怖主义分子。一位不愿透露姓名的美国政府官员告诉我:“这并非我们的首场 络战役,我们刚打过,且已输掉。
用算法来玩打地鼠游戏
从很多方面来看,虚假新闻甚嚣尘上,提醒我们,如果算法有误,如果数字灯神给出的指令设计有问题,就有可能引发灾难性后果。尽管 Facebook和谷歌在本书出版之时肯定已进行了多次迭代来解决假新闻的问题,但是这一问题仍值得深入研究。
在否认假新闻造成极坏影响的一周后,马克·扎克伯格承认假新闻是个问题,并表示 Facebook正在着手解决。他建议的方法是赋予“ 区”更多工具,标记出那些他们认为真实或虚假的消息。
我曾在大选前几周见过扎克伯格,跟他讨论一个他正在斟酌的问题,即:Facebook如何让用户在 区准则和价值观上有更大的发言权。
扎克伯格希望把Facebook定位为一个中立平台,用户可以通过这个平台与他人建立联系,他非常重视这个目标。扎克伯格在一篇关于假新闻和大选的博文中断言,
“以我的经验来看,人性本善,哪怕你今天没有这种体会,但是,如果你愿意相信他人,长此以往必将带来积极的结果。”
Facebook相信,控制假新闻散布应该由用户负责,而不是平台。这种理念决定了 Facebook应对危机的方式。
扎克伯格写道:“我们已经启动了相关工作,让 区用户对恶作剧和假新闻加标记,当然我们能做的还有更多。我们已取得阶段性成绩,并将继续改进。”目前一切顺利。
他继续主张让 Facebook用户承担起督查 站的工作:
“我确信我们能找到办法,让 区告诉大家什么内容最有意义,但是我认为我们必须三思而行,防止自己成为真相的仲裁人。”
他说得对,“辨别真伪是复杂的。虽然有的骗局可以被彻底揭穿,但是更多的内容,包括来自主流新闻的内容,往往基本情况属实,但一些细节有误,或被遗漏。还有相当一部分的新闻,所主张的看法可能遭到很多人反对,并被反对者标记为假新闻,但实际内容属实。”
关于防范假新闻这件事, Facebook和谷歌等平台的内部讨论围绕的不只是如何谨慎处置才能避免误判。他们更担心自己的行为成为法律上的先例。
1998年施行的美国《千禧年数字版权法》,免除了互联 服务提供商和其他在线中介在版权侵犯中的法律责任,理由是:他们属于中立平台,用户可以把任何内容上传到平台上。平台更像是供用户贴宣传单的一面墙,不像出版商那样必须事先甄选要出版的内容,以满足更高的法律标准。
这种“中立平台 ”的说法,是互联 服务存在的核心。若中立性缺失,那么,每当谷歌把用户发布的内容纳入搜索目录,它就要对用户的任何版权侵犯行为负责。同样,如果用户发布侵权内容到 Facebook、推特、YouTube或者 WordPress博客上,这些公司也将担负法律责任。
类似的法律规定,可以延伸到适用于用户发布的其他类型的内容。公司为用户提供的是平台服务,而非内容。没有哪家在线服务公司希望打破这层保护。
批评人士对这种辩护异常愤怒。英国作家卡罗尔·卡德瓦拉德就是其中一位,她对谷歌建议功能极为不满,
因为当她输入“犹太人是……”的时候,系统自动补全的是“犹太人是恶魔 ”这样的句子;
当她点击搜索,她发现第一条搜索结果的标题是:“犹太人遭憎恨的十大原因 ”。来自新纳粹 站 Stormfront的一个 页排在第 3位,解释为什么犹太人是恶魔的内容出现在第 5、第 6、第 7和第 10条搜索结果;
当她搜索“是否有大屠……”谷歌为她自动补全的查询是“是否有大屠杀这件事 ”,然后她被带到一长串否认大屠杀的 站,置顶的仍然是Stormfront的 页。
她给出的解决方案是:立即停止显示这些 页的链接。“在谷歌的商业模式背后是这样一套说法:魔法般的算法挥动着它的魔杖,释放出神奇的效果,完全不受任何人的干预,”她在英国卫 的专栏评论中措辞严厉地批评道,“谷歌竭力避免被看成是媒体公司、内容提供商、新闻资讯媒介,因为那意味着它应该和其他媒体一样接受共守的规则。但是谷歌就是媒体。”
我能体会卡德瓦拉德的愤怒,也同意她所说的:谷歌(和所有媒体一样)“框定、塑造和扭曲了我们看待世界的方式 ”。我也认为谷歌的确应该处置这些不良搜索结果,就像他们以往面临搜索质量问题时那样知难而进。
但是,卡德瓦拉德忽视了谷歌运作的规模,庞大的规模从根本上决定了解决问题的必要方式。
谷歌、Facebook、推特和其他类似的公司必须被视为新鲜事物,不属于旧版图的范畴。新事物有不同的运行规则,对内容的投入并非取决于某个人的好恶,而是出于必要性。
谷歌和Facebook不愿手动干预结果,这并非为了方便自己躲在法律免责条款的庇护之下。
谷歌每次生成的搜索结果背后,都是海量的工作,需要对万维 上每一个 页进行检索排序——根据谷歌前任搜索副总裁阿密特·辛格尔所说,包括来自 2500亿个独立域名的 30万亿个 页。谷歌每天要用这些数据来响应 50亿次的搜索。
许多搜索关键词是常见的,但是至少有上千万的搜索是一些相当不常见的词语组合。据谷歌所说,卡德瓦拉德抱怨的“大屠杀”搜索,每天仅有 300次的查询。在每天 50亿次的查询中,这个词的搜索仅占日搜索量的 0.000006%,即几百万分之一。
Facebook的体量也同样庞大。
这种想法表明:人们对这个问题的规模或性质一无所知。这就像是嘉年华游乐场中打地鼠的游戏,但是 上有几十亿只地鼠,而仅有几百个锤子。
人工监督和干预绝对必要,但若按卡德瓦拉德等批评人士所说的那样以想当然的方式去做,肯定收效甚微。要打几十亿只地鼠,你需要速度更快的锤子。
我们需要打破常规观念,不要认为人类的角色就是掌握死亡开关的最终决策者。
《哈佛商业评论 》有一篇著名的文章叫《谁背上了猴子》,文章说的是:当一个员工向经理抛出问题,相当于把猴子让经理背上,经理就必须给出意见,然后把猴子回传给员工。否则,面对多个员工,经理要背上所有的猴子。
在算法时代,这个比喻是多么的贴切,经理最后要背上一百万只猴子。优秀的经理总是良师,指挥神通广大却又愚蠢至极的灯神,在庞大的在线平台上孜孜不倦地工作。
无疑,谷歌有专门的开发团队,他们是数字工人的管理者,负责建立目录,提供搜索结果,努力向神速运转的灯神传授遏制谣言传播之道。若在此书出版之时,谷歌还没有拿出一套全面清理假新闻搜索的行动,我会非常诧异。
2011年,谷歌为了打击“内容农场 ”而增加了熊猫算法和企鹅算法。事实上,在卡德瓦拉德的专栏评论发布几周之后,否认大屠杀的搜索结果已经得到改进。之前修正的表现确实不稳,谷歌仍在努力寻找应对假新闻的全面方案,但是谷歌为应对针对搜索引擎的攻击所做的努力是有目共睹的。
Facebook的问题不同于谷歌。谷歌评估的内容和提供的链接,都来自上千亿个外部 页,但 Facebook的内容均由平台用户发布。
许多内容有外部 站的链接,其他则不然。即使有来自外部 站的内容,它也往往被重混成利于传播的形式,也即模因——很多时候是从原文语境中抽离出来的有代表性的图片或视频,它们可能是某个重要时刻,或是某句经典语录。这类内容以分享为目的,设计上重视的是影响力,而不是深入的对话或理解。
“建制派无疑认为,这些把戏都是学生玩的幼稚游戏 ”,他写道,“的确如此,不过也行之有效……在特朗普媒体机器的重锤和他的 络水军的铁砧夹击之下,唐纳德的对手们毫无还手之力。特朗普深谙互联 运作之道,互联 也一路把他送入了白宫。模因的魔力是实实在在的。”
由于缺乏上下文,谷歌所依赖的许多标记,例如万维 的链接架构, Facebook都没法用。
虽然某些技巧 Facebook也可以使用,但是它处理内容的基础结构和商业流程不同于谷歌,这也是 Facebook想动员 区力量解决问题的原因之一。
如果赋予得当的工具,10亿多的Facebook用户就可以监督 站内容吗?
2015年6月,Facebook申请了一项专利:《识别反感内容的系统和方法》,该专利设计了一套处理仇恨言论、色情、霸凌等内容的方法。一方面,会依赖用户举 ,但另一方面也会用到许多标记,对举 内容以及提交举 的用户赋予权重并进行分级。专利中描述的许多技术,也适用于打击假新闻。
就这个话题,马克·扎克伯格发布了第二篇博文,在文中更详细地介绍了公司采用的手段,包括:简化假消息举 方式,与第三方事实核证机构合作。他们甚至打算在事实核证员或 区标记的消息上显示警告字样。
但是扎克伯格也指出, Facebook首当其冲的工作,是“提高对错误信息分类的能力。这意味着须改进技术系统,使其能在人们标记假新闻之前率先发现它 ”。他还指出, Facebook业已改进了新闻推送链接下端“相关文章”的挑选算法。
这次算法的再教育极为关键,因为 交媒体上的内容传播速度极快,人工事实核证员无法追赶。美国总统竞选期间,推特上冒出了一条假消息。
当时,特朗普的支持者埃里克·塔克上传了一张德克萨斯州奥斯丁市几辆包车的照片,说克林顿竞选团队把这些包车借给抗议者,企图阻挠特朗普将要开始的演讲。后来,他发现这些大巴只是去接一些参观者参加软件公司 Tableau举办的会议,于是删除了推文。尽管塔克自己只有 40个粉丝,但这张照片仍然在 上发酵,在推特上转发了1万6千次,在 Facebook上分享了35万次。
他最初的推文使用了主题标签“#假抗议 #特朗普 2016#奥斯汀 ”(#fakeprotests #Trump2016#Austin),为的是能够被追踪这些话题的人广泛阅读。
这个消息首先被红迪 转发,之后是各个右翼博客,最后是主流媒体。特朗普本人也火上浇油,发布了关于“职业抗议者 ”的推文。塔克事先没有预料到他的推文会产生如此大的影响。
不过,推广假新闻的人往往有强烈的动机让事件发酵,他们使用程序化工具搜寻有影响力的人物,然后骗取他们的转发,以快速传播假新闻。
鉴于当今 会一个热门消息能够带来巨大流量,专业新闻机构也会使用自动化的“ 交倾听工具 ”快速发掘热门话题,不对事实进行严格核证,便随即把一些消息在刊物上重新 道,这违背了主流媒体以往的 道原则。
一条虚假消息在被关注它的用户或事实核证员打上标记之前,可能已经被分享了几十万次,被上百万人阅读过。即使原消息已被删除,通常也不会妨碍假消息继续传播。在发出推文后的当天午夜,塔克已经删除了原推文,并在原照片上加盖了“虚假 ”水印,重新上传新推文。但新推文仅被转发了 29次,而原推文则被转发了 1.6万次。我想到了我母亲对我说过的一句老话:“当事实刚开始浮出水面之时,谎言已经穿越了大半个地球。”
谷歌、 Facebook等公司有一条已落实的措施,是给有争议的消息加标签,或许这能有所帮助,因为标签会随消息一同传播,只不过标签必须在消息被广泛分享之前添加才有效。
但即使是这种方法也有局限性,因为没什么能阻挡一个有党派或经济利益的 站把同样的假消息乔装打扮一番,然后继续散布。出现这种情况,又如何去鉴别?你还是得回过头来向算法灯神求助,请它帮你打死地鼠。
此外,用户自己不仅仅难以判定消息真伪,甚至难以发现 站提供的帮助他们判定消息权威性的标识。斯坦福的一项研究表明,仅有25%的高中生知道 Facebook和推特上蓝色打钩标记表示官方认证账 。给假新闻做标记的效果,又能好到哪儿去呢?
我们终须认识到,搜索引擎和 交媒体平台是 络战争的沙场。
起初由广告商为跟踪客户而开发的工具,先是落入诈骗者和垃圾邮件之手,被他们用来牟利,现在又开始被恶意的攻击者利用。不光俄罗斯资助不实消息在 交媒体上散播,特朗普竞选团队的阿拉莫项目也利用具有高度针对性的虚假消息,打击克林顿支持者前去投票的积极性。
特朗普竞选委员会负责 交媒体工作的布莱德·帕斯卡尔称这些帖子为“暗帖 ”,这些私密的帖子有特定的可读范围,用帕斯卡尔的话来说,“只有我们的目标受众才能看见。”
传媒学教授乔纳森·奥尔布莱特分析了 2016年竞选期间四处散布假新闻的 300个新闻 站,他也提到了程序化微目标定位一说。“这是一台政治宣传机器,”他写道,“抓取目标人群,不断煽动他们的情绪,紧紧吸引住他们。”
“抓取目标人群,不断煽动他们的情绪”,这种做法并不新鲜。这正是 20世纪初“花边新闻”时代许多媒体的“精髓 ”,随后的好几十年里,专业新闻标准一度收复了媒体失地,直至20世纪 90年代,电台脱口秀和福克斯电视新闻又让花边新闻死灰复燃。
交媒体和广告业务模式也采用这种套路,倒也是情理之中。
受众精准的 交媒体宣传活动,必将成为未来政治竞选的标配。在线 交媒体平台以及整个 会都须应对新媒体的挑战。用于散布谣言和政治宣传的工具,正是企业和广告代理公司用来跟踪和影响客户的常规工具,当我们觉悟之际,危机时刻或已临近。
散播假新闻的既得利益者,不仅仅是政治参与者,这其中也涉及了巨大的经济利益,为此有人不择手段地操纵系统。因此,假新闻不是 Facebook的问题。
假新闻正是互联 商业模式中最阴暗的一面。
在 络犯罪中,这些手段不只是卑劣,而已经属于违法行为了。2016年 12月,一个俄罗斯僵尸 络被发现在制作有明确受众的视频,同时,该 络利用程序假扮成用户,制造点击观看视频的假象,从而骗取每日 300万到 500万美元的巨额广告收入。
换言之,这些人的武器不只是假新闻,他们还能派出假用户,在点击和点赞大战中充当子虚乌有的小卒。
当攻击者利用程序伪装成用户,其攻击速度之快、规模之广,是手无寸铁的人工监督者无能力应对的。这也从另一角度说明,需要使用算法对付假新闻和 交媒体其他种种欺诈现象,而非仅依靠用户判断或者传统新闻业的事实核证手段。这就像是对付垃圾邮件,要用过滤器。
美国国防部高级研究计划局(DARPA)2015—2016“ 络挑战赛 ”项目采用的就是类似思路,比赛要求参赛者开发出能寻找软件漏洞并自动打补丁的人工智能系统。这些漏洞,即便动用全体 IT团队,也无法做到手动同步跟进。
问题在于,越来越多的 络攻击都实现了自动化,这些数字敌人搜寻 络漏洞的速度极快,人类根本来不及修补。
DARPA信息创新办公室主任约翰·朗奇伯里向我讲述了“ 络挑战赛 ”里一个意味深长的故事。
各个竞赛系统被植入安全漏洞,选手们必须在系统被攻击前发现并修复漏洞。其中一个人工智能参赛者检查了自己的源代码,发现了一个不是事先植入的漏洞,然后用它来控制另外一个系统。第三个系统在觉察到了这种攻击之后,进行了问题诊断,并修改了自己的源代码。
所有这些都发生在 20分钟内。F-16战机之父, 空军上校约翰· 包以德,发明了 OODA循环(Observe-Orient-Decide-Act,观察-调整-决策-行动,也称包以德循环),它阐述了为什么在战斗中随机应变的能力比单纯的火拼更重要。敌我双方都努力做到审时度势,当机立断,即刻行动。如果你头脑反应比敌人快,你可以“进入到敌方的 OODA循环系统 ”,然后扰乱他的决策。
“关键在于隐藏我方意图,让敌方觉得深不可测,并同时破解敌方意图,”包以德的同事、 F-16战机设计者哈利·希拉克在写给包以德的悼词里面说道,“也就是要加快行动节奏,让局势发生快速变化,导致敌军无所适从,束手无策,进而压制或摧毁敌军意识,由此导致敌军内部混乱无序。对于变化无常、捉摸不定的局面或动作,敌方会反应过度或反应不足。”
当你的对手是比你行动速度快几百万倍的机器时,你就很难完成OODA循环了。一位不愿透露姓名的观察家、金融系统和 络战争的双料专家曾对我说,“我们需要利用一台机器来进入另外一台机器的OODA循环。”
真相是什么
我们一直在讲事实和谎言要经客观核证。其实还有一个更具挑战的问题,算法也能出其不意地助上一臂之力。
正如马克·扎克伯格所指出的,许多存疑的内容除了虚构部分,还包含了一些观点或真假参半的信息。所以人们即使明知新闻所述并非完全属实,也仍然十分愿意相信并分享这些内容,不管哪个派别的人都是这样。
美国金融投资家乔治·索罗斯指出:有的事情真,有的事情假,有的事情真假判断取决于人们相信的程度。他称之为“自反性知识 ”,或者用“信念 ”这一传统词汇解释也能说得通。
很多重要的问题都属于这个类别——尤其是历史、政治和市场。“我们是我们力图去理解的世界的一部分,”索罗斯写道,“而我们残缺的理解,很大程度上塑造了我们所参与的事件。”
情况向来如此,只是,新的数字系统跨越全球,把我们与一个初生的全球大脑相连,它加速并强化了这个塑造过程。在全球大脑中,不光是事实和理念(例如,不含咖啡因的咖啡要用橙色咖啡壶装 )会在人脑之间传播。
子虚乌有的信息也会像病毒一样在全球大脑中迅速扩散,塑造百万人的信念。我们所知道的、我们所接触到的东西,越来越多地由个性化算法决定,这类算法所做的,是从互联 海量的内容里面,挑选出它认为我们最有可能回应、最有兴趣参与、最易被触动情感的东西,而非简单地摆事实。
不过,索罗斯暗示了一种可以解决假新闻问题的方法。他提醒我们:股票价格和 会运动既不真实,也不虚假。即使意识到情感对股价有影响,股票投资人仍相信股票有“基本面 ”。
一只股票的价格,可能取决于人们对公司未来前景的看法,但是投资人认为,人们对公司前景的预估,也需要依靠营业收入、利润、资本、增长率和潜在市场机会等数据来支撑。股票研究 告会定期汇 并分析公司的市盈率,通过一些指标评估市场预期超出基本面的程度,通过阅读这些 告 ,读者就能够理性判断自己承担了多大的风险。
当然,不少人还是会选择忽略这些风险,还有许多人会怂恿别人去主动承担风险,不过 告起码揭示了相关风险。
对于新闻来说,人们的热情和基本面之间的距离也是可以被衡量的,且很多衡量指标可用算法来验证,计算机比人类的验证速度更快、角度更全。
当人们探讨新闻的真伪,讨论 Facebook、谷歌和推特这类平台 站去伪存真的责任之时,他们大概认为:判断真伪就是评估内容本身,这需要主观的判断,所以计算机无法辨别。但是和谷歌搜索一样,许多可用的标记独立于实际内容。使用这些标记时,我们必须谨记柯日布斯基的警告,分清地图与地图想要勾勒的实际疆域。
在多年的搜索质量评估工作中,谷歌使用了很多技术手段。 站成立了多久?被信誉度高的其他 站引用了多少次?
例如,哪怕稍微有点统计学知识的人都知道,仅仅拿犯罪的绝对数量说事儿,而不考虑人口密度是毫无意义的。是的,在有几百万人口的纽约市或者芝加哥,犯罪数量肯定比蒙大拿州某个几百人的村子要高。
《商业内幕 》的文章把 FBI数据经过标准化处理,显示了每 10万人口中的犯罪率,因此天然更具可信度,而捏造的选民地图则促使我去寻找真相。话说回来,数学是计算机的强项。
在线媒体的消费者不大可能以同样的方式进行自我培训,学会判断新闻真伪。特别是在读到的故事能给自己的偏见提供佐证时,很少有人会去搜索故事相同、但观点不合的其他文章。
我有个姐妹给我转发了《华盛顿审查者 》的一篇文章,文章称加州“把儿童卖淫合法化 ”。她评论道:“我想这大概就是为什么一些体面的人不喜欢加州吧。”我读过那份法案,也读过其他媒体上反驳所谓合法化的文章。
用户喜欢分享那些能给自己的偏见提供佐证的内容,喜欢别有用心地去添油加醋,他们也非常渴望获得点击和点赞。
因为算法能严格执行规则,所以它也善于关注人类会忽略的东西。
在本章前面一部分,我引用了卡罗尔·卡德瓦拉德关于谷歌与否认大屠杀的 站的专栏评论。在一篇后续文章中,卡德瓦拉德展示了她如何通过购买一些目标广告,把虚假消息的搜索结果挤下去。在文章尾部,她引用了搜索引擎的权威人士丹尼·沙利文的解释:“谷歌改变了算法,把受欢迎的结果置于权威结果之前,借此增加谷歌收入。”
这篇文章似乎具有双重权威性——它刊登在知名 纸《卫 》上,并引用了一位我认识并敬重的谷歌搜索专家的话。
可是,文章仍有让我困惑不解之处。这篇专栏评论中给出了一些链接,但里边没有丹尼·沙利文那段话的出处链接。我给丹尼发了一封电邮。他告诉我,他并没有说过谷歌更改算法以增加利润之类的话,还在发现文章引用有误之后通知过《卫 》。遗憾的是,他说,文章并没有做出相应更正。
合理怀疑
发现假新闻后,有几种可能的回应方式。
但这种手段应慎用,因为它一不留神就会变成新闻审查。尽管我们对新闻审查持有极端偏见,但其实我们在其他在线应用程序中早已依赖于这种手段,电子邮件供应商就是通过它每天从几十亿的垃圾邮件中过滤出我们想看 的邮件。
其实这些假新闻可以被打上标记。例如 Facebook( 或者在线邮件系统如 Gmail,因为许多假新闻也通过邮件传播)可以显示警告,类似于安全警告,提示:“该文章内容可能不实,你确定分享吗?”然后附上解释为什么文章可疑的链接,若有揭穿骗局的文章链接则更佳。
从 2017年3月起,凡是被权威 站 Snopes或者 PolitiFact辟过谣的假新闻,在 Facebook上均会被列为“有争议”,但此举效果不佳,这是因为,一则假新闻从发布到被人工事实核证员揭穿,需要耗费多日,而假新闻造成破坏,只需短短几分钟或几小时。
成立并运行谷歌新闻(谷歌 News)多年的谷歌工程师克里希纳·巴拉特认为,算法可以扮演的主要角色之一是断路器,暂停可疑文章的传播,
“留出充足的时间去获取证据,由人工考量决定是否在假新闻爆发成海啸之前压住势头 ”。巴拉特指出,并不是每一条假消息都需要被标记,只有那些传播势头强劲的才需要。“假设 交媒体平台决定,当假新闻转发量达到 1万次时就把它彻底清除,”
他说,“要做到这点, 交媒体可能要在转发量达到 1000次时进行标记,这样人工评估员才有时间去研究和回应。对于搜索引擎来说,则可以统计查询量和点击量,而不是转发量,且门槛可以抬高,但是总体逻辑一致。”
调整 Facebook现有的自动提供“相关新闻 ”的功能,或许可以克服确认偏误,同时又不至于彻底封锁新闻。若各种算法发现某条新闻可能存在偏见,可立刻将之与权威 站的不同解读或是源头 站的内容并排呈现。
此外,也可以降低嫌疑文章的重要性,在新闻推送中置后,或者减少推送频率。
谷歌在搜索结果排名中就采用了这样的做法。Facebook是否应该采用同样的方法,一直颇具争议。 Facebook现有的文章排序方法自成一体,他们优先推广能提高参与度的文章,而非最新文章,推送与我们已分享或点赞文章相关的新闻,甚至多次推送受欢迎的文章。
算法不必找出绝对的真相,但必须提出合理的怀疑,如同人类的陪审团一样。如果惩罚措施只不过是停止推送该文章,那尤当如此。平台上言论自由,但平台不会特意推广某些内容。只是由于算法有瑕疵,才导致掺杂了党派因素的情感冲动较之其他因素在新闻推送中更占上风,假新闻由此乘虚而入。
谷歌和 Facebook不断地制定和测试新算法。是的,这其中涉及人为判断。不过,是对系统设计进行人为判断,而不是针对具体结果。设计搜索或者新闻推送算法,好像设计一架能成功航行的飞机,而飞行航向与飞机设计无关。
也有很多问题不是那么紧要的。当用户获得自己想要的内容,他们会很开心,广告商也会开心,皆大欢喜。用户进行搜索的目标是找到答案,然后继续过他们的日常生活;搜索引擎的使命是“给用户最佳搜索结果 ”,因此双方诉求一致。
不幸的是, Facebook是以用户“参与度 ”为重,这很可能会让 Facebook误入歧途。用户参与度高, 站浏览时间长,虽广告商喜闻乐见,但未必有益于用户或寻找真相的人。
即使是空气动力学和航空工程这样的物理学科,也有隐藏的假设需要检验和更正。曾有一起著名历史事件,决定了航空航天工业的未来。当时,金属疲劳问题困扰了工业的发展,人们亟须用全新的思维来应对。
1953年尚属商业飞机旅行的发展初期,英国的哈维兰彗星型客机是航空业冉冉升起的明星,统领行业指日可待。然而,一架飞机无故坠毁,震惊世界。航空公司把责任归咎于飞行员操作失误和恶劣的天气条件。而一年后又有一架飞机失事,当时天气晴朗。
于是,该机型停飞了两个月,并在此期间接受全面调查。之后,制造商信心十足地宣称,他们已经做出了改进,“能应对一切能想象到的灾难隐患 ”。 告公布没几天,第三架飞机坠落。很明显,哈维兰的想象力还不足以挑起大梁。
后来,一位年轻的美国工程师提出了更好的想法,由此,波音公司接过未来商业喷气式客机发展的大旗。德克萨斯大学物理学教授迈克尔·P.马德的描述,引起了我对这个事件的关注:“调查的中心是裂纹。裂纹无法消除,遍布机身,却又细小到肉眼无法看见。由于结构设计无法尽善尽美,有先天缺陷,所以工程设计的目标不是保证机身毫无裂纹,而是使之能承受裂纹。”
同理,算法设计的精髓不在于消除所有错误,而是让算法结果不被错误击倒。根本性问题不是Facebook应否管理新闻推送,而是如何管理。
《未来地图》将会纳入钛媒体Pro版书库,敬请大家关注前沿书库的上新动态~每位Pro专业用户一年可以在书库中任意选择三本书,由钛媒体免费赠送哦~点击链接、登录,进入“前沿书库”选书:
http://www.tmtpost.com/pro
更多人工智能相关好书:
http://www.tmtpost.com/3122712.html
创业事项相关好书:
http://www.tmtpost.com/2788508.html
培养领导力相关好书:
http://www.tmtpost.com/2678549.html
更多精彩内容,关注钛媒体微信 (ID:taimeiti),或者下载钛媒体App
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!