这个周末看了两天的AI芯片峰会直播,因为我本职是AI芯片行业,所以对这个峰会格外关注,今天想聊聊这次峰会的感受。
这次峰会,国内几乎所有的AI芯片玩家都去了,国际上如英伟达、高通也去了。
国内,AI芯片第一股的寒武纪,竟然没去。为什么没去,临芯投资董事长的一句调侃可能说出了某些原因。
“大家都知道我一直投资半导体行业,但对AI芯片一直不敢投,前几年我试着投了下寒武纪,结果,出来的时候也就那样了…”
寒武纪令人心寒的估价也让投资人在公开场合调侃似的“唱唱反调”。不过随着寒武纪训练加速卡与阿里的深度合作,不知道未来股价会不会有所改观呢/p>
这场峰会整场看下来,我有一个感受就是——
AI芯片玩家使出十八般武艺希望吊打王者英伟达,有的还偷了英伟达的家!
吊打
要说AI芯片领域的性能标杆,非英伟达芯片莫属,而这也成了大家的共识。
在一些国内AI芯片的性能发布 告中,或多或少都可以看到作为性能基准的V100和T4加速卡。
委婉点说某友商产品;不委婉的话,直接点名英伟达的芯片,然后拿出自家芯片的跑分数据,几倍的性能优势秀肌肉。
比如,百度昆仑芯,依托百度真实业务场景,将AI芯片落地,典型AI负载性能较业界主流GPU性能提升1.5倍。其他厂家在某些 络的推理性能,在功耗相当的情况下,性能3x, 5x 的提升也有很多。
好事啊!
说明国内的AI芯片性能是可以的。但英伟达之所以屹立不倒,倒不是说他们的硬件架构有多强,而是他们的软件生态太强了!
以至于,大家都以软件栈或编程模型兼容英伟达的CUDA为目标,如果不兼容,代码重新开发或者移植的成本确实太大了。
▲峰会演讲截图
除此之外,峰会上上海交大的梁教授团队的演讲,让我感觉——
他们偷了英伟达的家!
“偷家”
梁教授的团队开源了一款名为“青花瓷”架构的GPU,在架构和指令上兼容英伟达的V100,并且做到了byte-2-byte的兼容。
据介绍,他们团队将使用英伟达的软件栈(编译器)编译出来的模型(二进制文件),直接部署在“青花瓷”上跑,有20-30个模型可以直接跑通。
这意味着什么味着,我用你的软件,但可以不用你的硬件!你的每条指令的每一个bit位是做什么的我都搞的一清二楚。
不光不用,我还要把我研究的GPU架构开源,让大家都免费使用,免费维护。看到这个我不禁默默地竖起了大拇指。
不知道坐在观众席的英伟达代表心里什么滋味。
▲上海交大梁教授演讲(图源:芯东西)
软件开源很常见,成功的也有很多,比如大名鼎鼎的 tensorflow, 比如linux内核源码,都是也是依靠全世界数以万计的开发者不断维护和更新,才发展壮大的。
Risc-v 指令集,也是一个开源的指令集,目前其发展速度不可谓不猛,甚至快到了与arm比肩的程度了。
所以软件想壮大,需要开源,毕竟 友的力量是强大的。而硬件开源却不常见。这次的“青花瓷”GPU的开源,或许是国内硬件开源的一次重要尝试。怪不得梁教授把名字都起名为LOGIC(Launch Open-source Gpu In China)。
不过我随后在 上查了查这款“青花瓷”的资料,目前还查不到太多信息,估计未来会有更多信息或代码开源出来吧。
天青色等烟雨
上海交大的这番操作,直接将我的好奇心拉满。不知道远在大洋彼岸的老黄,知不知道在遥远的东方,有个团队将他们的指令集搞得一清二楚,还把硬件开源了。
天青色等烟雨,而我在等你。
英伟达的硬件架构迭代也很快,V100的Volta架构已经是几年前的事了。国内的芯片架构也基本是一年一代的速度在不断迭代。
当然本次峰会不止如此,新的硬件计算架构如存算一体、光子计算、类脑计算、量子计算也在这次峰会上亮相,存算一体已经从科研理论走向了商业流片甚至量产,甚至光子计算芯片也已经克服了软件仿真、光电封装等重重障碍,流片量产了。
光计算已初见雏形,未来的硬件架构到底会是什么样,还真不好说。
▲峰会灵汐科技演讲PPT截图
就像图领奖得主David Patterson说的那样,“未来的10年将是计算机架构创新的黄金10年”。
作为一个AI芯片的从业者,真的希望国内芯片能抓住这次机遇,弯道超车,打破欧美垄断,拥有属于自己的护城河!
文章知识点与官方知识档案匹配,可进一步学习相关知识Python入门技能树人工智能机器学习工具包Scikit-learn212229 人正在系统学习中
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!