微众银行 CAIO 杨强:人工智能的新三大定律(附视频)

杨强认为,AI 的模型和系统在设计的时候就没有把人考虑进来,进而生成了一个全自动的过程,包括后面发展出来的 Self-supervised Learning 和 AlphaGo Zero。他特意讲到 “这就并不是今天我们在工业和 会上大家所想看到的。”

根据这个结果,杨强认为既然人工智能诞生于数据中,那么在创造它的时候就应该启用新的三大定律人工智能需要保护人的隐私、人工智能需要保护模型的安全、人工智能需要人类伙伴的理解。这也就意味着,人工智能不能脱离人去发展,需要让人和人工智能形成协作关系。

新三大定律之一:需要保护人的隐私

受此启发,杨强团队也开始了联邦学习的尝试,为此还推出了一本同名的书 ——《联邦学习》。其主要思想是可以总结为数据可以保持在原地,但模型通过孤岛不同机构之间加密的情况下的沟通,这个模型就会成长起来,效果就是这个数据可以被使用,但是各方都看不见对方的数据。用剪短的话概括联邦学习:数据不动模型动,数据可用不可见。

杨强表示,这种做法听起来天方夜谭,不过在技术上还真的可以做到。他把模型比喻为养羊,过去是从各个草场里运草过来喂羊,这个过程就是数据聚合过程。然而由于数据会离开其本身所处的数据库,因此各种各样的漏洞使得数据本身的隐私得到泄露。现在则是要让这个羊走动起来,模型去访问不同的草场,那么这个草就不用出本地了,这个羊也得到了壮大。

杨强补充道,联邦学习通过样本和特征的不同,可以分为纵向和横向两种联邦学习方式。不过无论是哪种类型的切割,都已在商用中发挥了巨大的功效。2019 年 6 月 28 日中国人工智能开源软件发展联盟 (AIOSS) 正式出台国内首个关于联邦学习的团体规范标准,《信息技术服务 联邦学习 参考架构》。而 IEEE 很快也会出台一个关于联邦学习的国际标准,在世界范围内推动联邦学习发展是利好。

新三大定律之二:需要保护模型的安全

可就算保护了数据的隐私,不过仍然不能防止数据本身被污染。杨强教授继续往下说着,可能被攻击的就是训练数据本身,叫做数据下毒,可能对模型进行攻击,也就是说模型的隐私可能会被泄露,测试数据可能会做假,模型本身可能是没有办法识别,这也相当于对模型的攻击。

训练下毒攻击可以叫做 Data Poisoning 毒化数据,可以在训练数据当中植入后门。Stop Sign 上面有一个黄色的像素点,对于这个攻击者来说是植入了训练数据,以致于这个模型见到了黄色的点就不顾其余了,没有把这个 Stop Sign 正确地说出来,车就直接开过去了没有 Stop,行人就会出事,就是这种恶意的攻击。

通过可解释人工智能,判断出原始模型维和将哈士奇识别为狼

新三大定律之三:需要人类伙伴的理解

可解释性分为两个部分:第一就是要让人明白在做什么,第二就是要让不同背景的人用不同的方式去明白。杨强以银行的AI风险评估算法为例,指出其既要让监管方和银监理解,即对银监解释整个结果产出的逻辑,又要对系统开发的工程师可解释,使得工程师随时能够进入系统去进行改进,此外对贷款的申请人要能够解释得到的结果。

IEEE 新成立了一个可解释人工智能的标准组,与此同时业界也出现了很多关于可解释人工智能的相关研究。业内对于可解释人工智能的定义为:模型本身要可解释,学习更多结构化、可解释、具有因果关系的模型。通过可解释人工智能,工程师、用户等多方参与者,都可以了解到模型的运行模式,从而强化人工智能的鲁棒性,以此来抗击噪点、下毒等多种攻击手段。

杨强最后补充说:“人工智能的发展不仅要芯片、数据和算法,同时也要注意人,我们要保护人的隐私,保护模型的安全,保证对人类可以解释。”

文章知识点与官方知识档案匹配,可进一步学习相关知识Java技能树首页概览91437 人正在系统学习中

声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2020年6月18日
下一篇 2020年6月18日

相关推荐