郑州苹果维修受理门店分享为什么iPhone像素拍得低却好?
郑州苹果维修受理门店分享为什么iPhone像素拍得低却好?
对于对高像素手机的追求,手机制造商已经努力赶上,特别是在过去的两年里,我们可以看到许多手机制造商正在推广他们的4800万像素、6400万像素甚至1亿像素的手机。然而,苹果的iPhone也是一个例外。自iPhone6S以来,苹果一直在使用祖先的1200万像素,现在iPhone12系列仍然是如此。iPhone像素多年来没有改变,但其综合摄影能力处于第一梯队。这背后的原因是什么?
许多用户认为手机像素越高越好。虽然手机摄像头的像素对手机的成像有很大的影响,但很明显,高像素并不意味着拍照。
像素是构成一张照片的最小单位。我们看到的图片实际上是由每个像素点组成的,每个单独的“色点”通常被称为像素。如果一张图片由1200万个色点组成,那么图片像素就是1200万。
成像效果并不取决于像素的高度,光敏元件的大小更为重要。电影时代的感官元件是指底片,而在智能手机时代,光敏元件是指镜头后面用来接收光线的“小板”。
图像质量取决于光敏元件捕获的光量。光敏元件越大,能捕获的光就越多,传感器的光敏性能就越好,可以带来更精致的图像质量。同时,更大的底部可以在相同的像素面积下积累更多的像素点。
例如,虽然iPhone12Promax是1200万像素,但苹果专门为其定制了一个1/1.7英寸的大底传感器,其感光元件尺寸增加47%,像素尺寸增加到1.7微米,低光拍摄效果增加87%。虽然iPhone的像素没有改变,但传感器和其他硬件不断升级,这是其成像水平稳定在第一梯队的重要原因之一。
高像素只能证明图像携带更多的信息和丰富的细节,但这并不意味着照片的质量必须很高。除了受到像素的影响外,手机的成像质量还与手机镜头本身、传感器光传感器元件、图像信号处理器和软件算法有关。
苹果供应链的整合能力在业内很有名,图像也不例外。首先,富裕的苹果一直是iPhone零部件的独家定制。目前,主流手机厂商只有少数传感器供应商,索尼是世界上最大的图像传感器供应商。苹果也使用索尼的CMOS,但质量更好。同时,没有一家厂商能得到与iPhone相同的模块。毕竟,苹果对其供应链有严格的要求。
其次,苹果iPhone在软件算法上的积累也很深。2017年iPhoneX发布,A11仿生芯片也推出。之所以被称为“仿生”,是因为苹果首次在这款芯片上集成了自主研发的Neuralengine神经网络引擎,配合新的ISP算法,iPhoneX率先实现了行业内光照环境检测等一系列拍照算法。
之后,A系列仿生芯片不断更新,其神经网络引擎算法也不断增强照片的优化。例如,iPhone12系列智能HDR3算法将利用机器学习技术智能地调整照片的白平衡、对比度、纹理和饱和度,使画面看起来更自然。
新的计算摄影功能,所有摄像头都支持夜间模式和更快的深度集成技术,进一步提高了应对复杂场景的拍摄能力。苹果可以同时将这些功能算法集成到手机上,以显示其深厚的图像技术基础。
另一方面,任何手机制造商都不能保证在短时间内完全理解新手机摄像头、感光元件和软件算法之间的协作,这需要时间来打磨,苹果也不是问题。苹果不仅拥有来自世界各地的优秀工程师,而且每年只更新一代产品,图像团队有足够的时间来优化产品。与其他手机制造商每年发送多种产品相比,苹果显然有更多的时间优势。
定制镜头、传感器感光元件等硬件,结合图像技术的深度训练,通过收购吸收世界各地优秀的图像技术团队,最终创建了一个完整的iPhone图像系统。