谷歌发文解释Pixel 3如何靠AI改进人像功能

发布:2018-12-05 11:35 浏览(6196)

 谷歌的Pixel是目前极少数坚持单摄设计却能获得极佳人像虚化效果的手机之一,甚至在拍照效果上经常优于采用双摄的iPhone。跟前代相比,谷歌今年推出的Pixel 3系列在处理人像拍摄时的表现又有了极大的提升,甚至谷歌还做出了比肩夜视仪的夜拍功能。考虑到Pixel 3与Pixel 3 XL两者用的都是单颗主相机的设计,所以改进大部分还是来源于软件算法的优化升级。谷歌今天官方发文解释了他们究竟是怎样让Pixel 3的人像算法变得如此强大的。

  在去年Pixel 2推出的时候谷歌便开始利用神经网络和相机上的相位对焦技术来确定拍摄时处于前景的对象,但这套方案在面对精深变化不大的场景时就容易出错,而且在以小光圈或者暗光环境进行拍摄的时候也比较容易发生问题。

  为了改善这些,谷歌在Pixel 3上运用了新的神经网络,希望通过对象的常规形状的学习分辨、场景中不同点的清晰度等多项因素,来更准确地判断对象距离。另外在训练这套系统时,谷歌也采用了一些创造性的办法,比如说他们曾做出过把五台Pixel 3绑在一起的“Frankenphone”,以同步记录深度信息,来消除光圈、视差方面的不足,以此来更好地训练手机拍照的AI。

  谷歌在AI上投入了如此多的资源,可见他们对单相机方案有着极大的信心,并将长期使用单摄方案。谷歌一直坚持这种“小众”的方案,却达到了超越双摄手机的效果,也可以认为是谷歌对于自己强大的算法的展示,也为业界提供了不同的思路。


来源:虎牙君  免责声明:转载此文为传递更多市场信息,不代表AI科技财经的观点和立场,请自行参考。

底部第一个二维码 底部第二个二维码
网站版权归AI财经所有

图片分享

×