当我们讨论智能手机的拍照水平,硬件参数和软件算法几乎是绕不开的两个关键。在一众品牌之中,华为可以算得上是堆砌硬件参数的代表,而谷歌则是将软件算法运用到极致的代表。
自初代Pixel手机以来,谷歌的智能手机就展现出强悍的拍照性能,而且是建立在相对较弱的硬件水准上。例如,前三代Pixel系列手机都只有单摄像头,但却能和同时代的双摄甚至多摄手机打得有来有回。
归根到底,在AI、软件方面有天然优势的谷歌将自身的优势应用到手机拍照调校之中,而他们也自信于可以利用软件算法来抹平手机相机硬件参数的差距。
10月中旬,谷歌发布了第四代Pixel系列手机,而且Google Pixel 4还破天荒地将单摄相机系统升级至双摄,加入了一枚1600万像素的长焦相机。考虑到过去Pixel系列手机在拍照上的强势表现,我们对Pixel 4有着更高的期待也并不过分。
10月21日深夜,Google Pixel 4的测试成绩终于公布,其拍照分为117分,视频分为101分,总分112分。这一成绩对比Pixel 3确实要强不少(Pixel 3总分才102分),但如果对比其他拍照手机,如华为Mate 30 Pro、三星Galaxy Note10+ 5G等等,那可就差得多了。
论排名,Google Pixel 4只排在第八名,而且还是在iPhone 11 Pro系列手机的成绩尚未公布的前提下。
早年有关手机拍照的一些讨论,就硬件和算法的争议,我们认为这二者应该是“螺旋的上升”,同时互相进步的。但是从Pixel 4来看,算法给手机拍照带来的提升也来越不明显,而Pixel系列手机也开始掉队了。
差的不只是“超广角”
当然,Google Pixel 4的表现不好也有运气原因,9月18日DxOMark宣布将会在测试中加入超广角项目的权重,这说明如果相机系统中有超广角镜头,那么在打分方面必然会更有优势。
然而,Pixel 4虽然升级至双摄,但新加入的相机偏偏是长焦而不是超广角,换言之Pixel 4一诞生就是处于评分吃亏的环境中。DxOMark也直截了当地指出,在这个评分体系之中Pixel 4落后于Mate 30 Pro等拍照强机,缺少超广角(和ToF镜头)占了很大一部分原因。
但我们不认为这能够让Pixel 4的静态拍照落后14分之多(Mate 30 Pro静态131分,Pixel 4静态117分),这背后肯定有其他原因。再者,Pixel系列手机由于坚持使用单摄,在过去几年的DxOMark测试中都处于劣势(例如长焦对比、人像虚化对比),但成绩的差距一直都比较小,甚至还试过领先双摄或多摄机型。
去年推出的Pixel 3总分为102分,同期的三星的Note9位103分,iPhone XS Max为106分,Mate 20 Po为112分;Pixel 2的总分为99分,超过了97分的iPhone X,97分的Mate 10 Pro,和94分的三星Note8。
Google Pixel系列手机在拍照上从“领先”到“被赶超”,最主要原因还是算法的优势不再明显。
在其他手机厂商还没有“超级夜景”概念的时候,Pixel系列手机已经实装“HDR+”功能,手机会在瞬间拍摄多张不同曝光的照片,然后处理器将其对齐合并,从而提升画面亮度。
(图片来自Android Authority)
该技术不算新鲜,原理也很简单,但在两三年前很难实现。
首先,这对手机的ISP、CPU等芯片有着极高的性能要求,数据吞吐量十分巨大,以骁龙801、骁龙820等水平的性能难以应付得来;其次,当时除了谷歌之外,其他厂商几乎没有成熟的算法,如果做到瞬间拍摄七八张照片,还要智能对齐画面,并组合照片?大多数手机厂商都一头雾水。
正因为谷歌在AI计算、软件开发领域有着丰富的经验,令Pixel系列手机拥有了“单摄胜多摄”的资本。无论是各类测试还是主观体验,Pixel系列手机都能凭借着超高的动态范围和吓人的夜景表现给人深刻的印象,同时代的其他手机在对比中很难占到便宜。
然而好景不长,当其他厂商也陆续研发出了类似的算法,并推出“超级夜景”功能后,再加上芯片性能的大幅度提升,“把黑夜拍成白天”不再是谷歌的专利,Pixel系列手机的地位自然下滑不少。
更尴尬的是,当华为乃至高通的超级夜景算法迎头赶上的时候,谷歌却无法保住自己的领先优势,如此一来被追上、反超,也不足为奇了。
归根到底,谷歌的算法“不灵光”了,已经无法撑起产品的竞争优势。而友商们在算法追赶之余,还不忘增强硬件参数,手机相机传感器不断增大,CMOS感光能力越来越出色,在镜头搭配上也加入了长焦、超广角乃至ToF镜头。
在Pixel 4上算法的威力还是集中在HDR功能上,新作基本延续了此前的产品思路,甚至有些偏执地强调曝光平衡。
但无论从白天还是夜间的场景来看,Pixel 4的表现已经算不上惊艳,因为现在能拍出类似照片的智能手机,已经非常多了。
谷歌的算法居然不行?
“谷歌的算法没有优势”,这看起来似乎就像是一句笑话。
今天的谷歌,是集云技术、AI应用、大数据计算、智能家居、机器人研发、操作系统等多项业务的超级企业。光是在消费领域,谷歌开发的Google Assistant语音助手就已经展示了模仿真人对话、事实语音转录等骚操作,见到谷歌曾经的或现在的这些成果,相信没人会觉得谷歌的软件算法不行。
但手机摄影并不是云计算,不是AI人工智能,这是一个可以见得到天花板的领域,而且现有技术距离天花板已经很接近了。手机摄影的天花板是“媲美专业相机”,或者说是拍出“用专业相机拍出来的经过精心后期处理的照片”,说白了就是曝光问题。
然而这两年来,HDR乃至增强HDR技术的应用极大地提升了手机拍照的曝光准确性,同时元器件的不断升级也让画面细节、白平衡等要素日趋完善。除了景深等和传感器面积有关的物理性问题外,手机拍照和专业相机拍照之间已经没有明显差距。
面临困惑的不止谷歌,苹果和华为的局面也是类似的。今年iPhone 11系列手机新增了一个名为“Deep Fusion”的功能(尚未正式推送),苹果官方用了不少笔墨来形容该技术的先进性,例如合成速度之快、需要动用多枚相机共同工作、处理数据量之大等等,但就效果而言,其实简单总结就是“均衡曝光”和“多帧合成”。
伴随着华为P20 Pro一同推出的“超级夜景”技术确实改变了整个手机行业,超级夜景技术可以大幅度提升手机夜拍时的照片亮度,而且还能较好地压制画面中的高光溢出。但在此之后,在手机拍照领域华为再也没有推出过有如此影响力的新技术,原因很简单,单纯是在曝光这一块超级夜景技术已经做得足够好了,甚至很难去找到其他手段让“很好”变得“更好”。
解决了曝光问题,基本就解决了手机摄影的大多数问题,这几乎成为了行业共识。再加上在现阶段光靠算法搞不定硬件之间的性能差距(正因为如此Pixel 4才要上长焦镜头),算法已经无法让出色的手机相机变得更加出色。
然而抛开相机算法之外,Pixel 4确实还有一些时髦的软件功能,例如支持语音实时转文字(依赖于Google Assistant)、Motion Sense等等,这些技术背后都是谷歌大秀软件算法的结果。
需要注意的是,这些技术并非单纯算法实现,还是需要依靠相关硬件。例如,Google Assistant工作要调用手机内的AI计算单元,而Motion Sense的实现则要依靠各式各样的传感器。
Pixel 4的拍照表现失去惊艳感,就足以说明其产品策略的失败。事实证明,对数码产品而言软硬结合才能保持竞争力,过分强调算法和过分强调硬件,都不是长久之计。
这一仗,谷歌算是失策了。
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!