发布网友 发布时间:2022-04-01 03:42
共2个回答
热心网友 时间:2022-04-01 05:11
双摄像头的配置是一种计算摄影(computational photography)模式。计算摄影通过设备内置的算法来分析两个摄像头采集到的信息,以此来弥补单摄像头的短板。现有的自动全景拼接技术就采用了类似计算摄影的思路,拍摄多张照片再合并成一张的HDR高动态范围摄影技术也是类似的原理。人们改善单摄像头缺陷的办法简单粗暴:添加更多摄像头就是了。所以从本质上讲,双摄像头只不过是这一粗暴解决方案的第一步。
苹果实现的双摄像头配置并不是让人眼前一亮的创新,但他们完成的很好。整个双摄像头系统的计算部分不多,只有背景虚化操作要交给软件。目前的iOS系统还没有相应的软件,但苹果很快就会推出对应的系统升级。iPhone 7 Plus配备了一枚1200万像素,28毫米,f1.8的镜头,以及一枚同为1200万像素,但是56毫米,f2.8的镜头。
苹果把iPhone 7 Plus中56毫米的镜头比喻为“长焦镜头”。但其实它远远算不上长焦,只不过放大倍数比28毫米的镜头高了一倍而已。这枚56毫米的镜头可以在拍摄肖像等相片时帮助你避免常见的照片变形问题。
苹果在iPhone 7 Plus焦距上说的有点模糊,它没有说“2倍光学变焦”,而是在配置清单里写着“光学变焦达到2倍”。这个小小的差别可能许多人都没有注意到。从技术上讲,这个系统是可以双倍变焦的,因为你有一个28毫米的镜头和一个56毫米的镜头,等于是两个不同的镜头都可以变焦。而变焦,顾名思义是焦点从一个点移动到另一个点,所以对于苹果的“2倍(2x)”这种说法,我们只能理解为56毫米镜头可以在28毫米镜头变焦达到最远的时候接过变焦的任务,这样使用起来就像是整体变焦能力提升了一倍一样。
如果第二个镜头不是56毫米而是70毫米,那么这实际上就不再是光学变焦了。这种情况应该叫做双焦距。借助相应的算法,多摄像头系统可以实现在两个镜头焦距之间对焦。而苹果只是从第一个镜头转到了第二个镜头,然后称之为“2倍变焦”。
你使用iPhone拍摄的JPEG照片是自动经过压缩和处理的,这种有损压缩会降低相片的颜色数量、降低亮暗区域的保真度。这使得后期编辑图片的时候很容易加重照片被P过的痕迹。
Raw图片则是直接保存了从镜头收到的数据,所以你在编辑的时候不会让人工修改的痕迹越来越明显。而现实是,即便是能编辑Raw图片,你从这样小的一个镜头中采集到的数据再怎么调整曝光、噪音,范围也是有限的。的确,你能操作镜头采集到的所有数据,但问题是镜头就真么大,它本身就没有采集到许多色彩。
热心网友 时间:2022-04-01 06:46
广角和超广角