90% 用户都不知道?手机摄影冷热知识科普
导读:移动摄影,没性能圈那普适性的评价方法(性能与功耗),也没音频圈那么玄学,但却依然很 " 黑箱 ",用户对操作过程一无所知,因此也攒下了很多误解和冷知识。 这次就为大家解
移动摄影,没性能圈那普适性的评价方法(性能与功耗),也没音频圈那么玄学,但却依然很 " 黑箱 ",用户对操作过程一无所知,因此也攒下了很多误解和冷知识。
这次就为大家解答一些移动摄影的日常疑问和冷热知识,结合之前的《简单科普:计算摄影 " 算 " 的是什么?》科普食用,效果更佳 。知道之后,将获得 " 你已超越全国 90% 用户 " 认证。
镜头
手机镜头几乎都是塑料 / 树脂材质。
8P 镜头的 "P",不是 " 片 " 的拼音缩写,而是 Plastic 的英文缩写,中文叫塑料或普拉斯提克。
1G6P 镜头的 "G",是 Glass 玻璃的缩写。Redmi K40 游戏增强版、vivo X70 Pro+、vivo X80 Pro、小米 Civi 2 等部分机器在用。
手机上用玻璃镜片,核心用处其实是降低厚度和降低装配难度,其次才是玻璃能耐高温可以上更多层镀膜。1G6P 的效果与 8P 接近,但透光率更高、厚度更低,唯一缺点是贵。
联名与自研芯片
为什么松下 CM1、华为、夏普、小米的手机都看不到徕卡的 " 可乐标 "?这是徕卡的锅,其要求有可乐标就不能同时出现手机厂 logo,所以大家只会用徕卡的文字标。
徕卡是多栖登陆的 " 渣男 ",合作厂商不计其数,近代就有松下、华为、夏普、小米、Insta360、坚果投影、海信投影等等等等
OPPO 其实也尝试过和蔡司合作,但没谈成,而徕卡则是被小米抢先了,最后只能和一加 " 共用 " 哈苏了(这条算八卦)
2005 年,诺基亚 N 系列开山之作 N90 就首发了卡尔蔡司镜头,比 2021 年带蔡司小蓝标的 vivo X60 系列早 17 年。
华为和徕卡分手后,出了自己的影像品牌 XMAGE,有人说是手机厂推翻相机联名的大山。但其实诺基亚在 2012 年初就有自己的影像品牌 PureView(纯景),首发机型就是大名鼎鼎的怪物——诺基亚 808 PureView。
为了计算摄影,Google 在 2017 年的 Pixel 2 系列上,搭载了和英特尔合作设计的 Pixel Visual Core,同代的还有华为海思的 NPU、增加 " 仿生后缀 " 的苹果 A 系列芯片,多年后的 vivo V1+、OPPO 马里亚纳 X,它们的初始核心用途全是搞计算摄影。
自研 ISP,以前属于一个听起来那么高档的范畴——外挂 ISP。不要怪各大厂都搞自研 ISP,因为高通、联发科的集成 ISP,性能真的不够用。
2012 年的 HTC One X 就有 ImageChip 图像芯片(能每秒 5 张连拍、一次 99 张连拍、录像时也能拍照),比 vivo、OPPO、小米的自研 ISP/NPU 早了 8 年有余。
传感器
主流传感器的尺寸比例对比↑
数码相机,是胶卷相机大佬柯达在 1975 年发明的,最后把自己干趴了。
2019 年主流的 1/2 英寸传感器 IMX586,只比 2018 年主流的 1/2.3 英寸传感器 IMX363 大 5%(因为在 1/2.3 英寸上下," 每英寸 " 分别对应 16mm 和 18mm)。
同样是 1/2.3 英寸,不同 CMOS 间有 14% 的面积差异(ImX377 对 IMX230);同样是 1 英寸,不同型号间也有 12% 的差别。
弱光噪点主要由蓝色像素贡献。裸片硅在可见光波段的光电转换率是峰值的 20%-60%,对 1000nm 红外光达到峰值,另一端的蓝光只有峰值的 15%。
传感器不能无限做小,因为红色光波长范围在 620 – 750nm(即 0.62 到 0.75 μ m)之间,亚波长尺寸的子像素,效果会下降很明显。
现在最小的单位像素尺寸已小于理论极限。三星 2 亿像素的 HP3 传感器,单位像素已经压缩到了 0.56 μ m,豪威也有同尺寸的传感器,但现在都没有量产机搭载。好消息是,这些传感器默认都是 4 合 1、9 合 1 输出,日常等效 1.12 μ m 和 1.68 μ m,离物理瓶颈还很远,但高像素模式就基本废了。
同是 0.64 μ m 的 2 亿像素 HP1、1 亿像素 HM6、5000 万像素 JN1,都是各自像素级别的耻辱,0.56 μ m 的效果真的不堪设想。
索尼传感器最小的单位像素尺寸是 0.8 μ m(IMX586/582/598、IMX686/682、IMX709/787 等),为何索尼没有像三星和豪威那样跟进小像素?因为索尼工厂的制程太落后,无法低成本地把 CMOS 的单位像素做小(三星和索尼核心传感器都是自己生产的,豪威和索尼部分产线是找代工)。以公开信息中的豪威 Purecel Plus 传感器为例,单位像素 1 μ m 用的是 45nm 工艺,0.8 μ m 用的是 28nm,然而索尼自己的厂,集中在 40nm 以上……
传感器是色盲,只能感知光线强弱,不能分辨颜色。实际操作中,是用红绿蓝 3 颜色的滤光片(对应常见的 RGGB 拜耳阵列,但也有 RYYB 等其他方案),让单个像素记录 3 原色中的一个,牺牲了 2/3 的像素数量去换取记录颜色的能力。结果 100 万像素的屏幕会有 300 万个子像素,而100 万像素的 CMOS 只有 100 万个 " 子像素 "。我们平时看到的照片,2/3 的信息都是去马赛克 ( Demosaicing ) 算法插值、猜色重建的结果。
现代传感器滤光片最常用的 Bayer 拜耳阵列,就是柯达科学家 Bryce Bayer 发明的。
但滤光片排列在理念上没有所谓的最优解。最普遍的 RGGB 排列(也有比较常用的 GBRG/GRBG/RGGB,优势是几十年的积累,色彩准、易调,但光线损失大)、有华为在用的 RYYB(Y 是黄色的意思,进光量大,但易偏红和高光溢出)、OPPO 爱用的 RGBW(W 是白色,即无滤光片,进光量大,但色彩淡)、RWB(索性绿色都由无滤光片的白色代替,色彩也是问题)、MONO(黑白,最大进光量,但黑白)。
ToF 镜头(Time of Flight,飞行时间)没那么高逼格。当年的激光对焦就算是 ToF 的一种,2014 年的 LG G3 就有了,后来华为 P9、HTC M10 等大量机型使用(当年意法的 ToF 传感器有效距离只有 2 米),后因双核对焦普及而逐步被没落。更 low 的 ToF 实现,是距离感应器(控制打电话和口袋里自动灭屏那个),2016 年的 iPhone 7 就在用了。
算法 / 计算摄影
手机上的计算摄影并没有那么遥不可及,本质还是把相机老法师手动 / 半自动的拍照方法和后期修图,进行自动化和硬件化。
以前手机拍照会有黑屏 " 咔嚓 " 一下的原因(现在基本不存在了):CMOS 有预览和拍照模式,为了省电和降低 ISP 压力,前者可能是 1080P,甚至可能是 720P 的。按下快门那下短暂黑屏,是 CMOS 转去拍照模式,导致预览视频流短暂中断的结果。
几年前,Google 相机能移植到各种手机上(成为小米 6 的 " 最后一块拼图 "),是因为当时后期处理管线对硬件依赖不强,基础版本只要支持 Neon 就能跑,但非官方设备没有对应的校正(降噪模型等),可能会出现涂抹力度过轻或过重、偏色、还无法达到最佳的效果。
现在大部分自动夜景的样张,其 exif 信息中的快门时长不再有参考性(几秒钟的夜景,结果快门显示 1/4 秒)。其显示的不是多帧合成的总时长,而是长曝光帧 EV0 正确曝光的样张快门速度。
HDR 算法会降低细腻材质的质感(如毛发、线条等密集纹理),多帧合成的帧数越多,翻车几率越大,所以 Google 和很多厂商在光线好时,HDR 是 2 帧合成的(苹果 Smart HDR 是 9 张,Google HDR+ 是 2-8 帧)。
虽然现在流行自研拍照算法,但算法供应商依然是大头。著名供应商有虹软科技(100 亿市值,21 年营收 5.7 亿,2.7 亿研发,444 人研发)、商汤(300 亿市值,2000 人)、旷视科技(市值 200 亿,总数 1400 人)、Core Photonics(以色列,市值 2.5 亿,50 人研发)和 Morpho(日本,研发人员未知,7.6 亿市值)
手机算法值多少钱?在虹软 19 年财报曾有提及,计件模式下,平均每台手机算法费用 0.55 元……
日常使用
为什么相机一开,后台的 app 就没了?
因为相机 app 真的很吃内存。手机大厂为了做多帧合成 + 零延时延时快门,相机打开后就在不停拍照,按下快门后会把最近的 2-15 帧送去做多帧合成(苹果 Smart HDR 和 Deep Fusion 一般都是 9 张)。跑进 RAW 域(笼统理解为,从 jpg 文件到 RAW 文件)的图片处理流程,加上各种算法模型,以及部分机型那机关枪一样的快门响应,内存不爆就有鬼了。
反过来,要不是计算摄影巨大的内存需求,抠到家的苹果也不会让 iPhone 从 2017 年的 3GB 涨到现在的 6GB。这样骗自己,心理会舒服点(苹果只用 9 合 1,没有往上堆,一来是功耗和内存顶不住,二来是边际效用递减,以及样张太多就更难对齐,容易糊片)
都说安卓拍照比苹果好,但为什么安卓机发的朋友圈比苹果差?因为张小龙。安卓版微信对图片压缩更猛、分辨率更低。张小龙!!!
安卓第三方 app 拍照或录视频不如原生相机好?因为第三方 app(包括用微信内置的拍照和录像入口)无法 / 没去调用原生相机的算法,甚至会用预览画面来输出视频,不糊才有鬼(因此改善第三方 app 的影像效果,也成了 2017 年 Google Pixel Visual Core、2021 年 OPPO 马里亚纳 X 等外挂芯片的目标之一)。
拍视频的视野为何比照片小?因为录像没调用所有像素,以常见的 4:3 1200 万像素传感器为例,4K 16:9(比例这里损失一道)录像单帧只用了 1200 万像素中的 829 万像素,8K 视频只用了 4800 万模式中的 3318 万像素,视野自然会小一圈。理论上可用合并采样、超采来避免视角缩水,但算力和功耗要求太高。
近几年所有旗舰手机,连拍时都可能因为处理不及而偶尔出现几张没算法处理的 " 废片 ",俗称 " 夹生 "。iPhone 情况很轻微,但安卓旗舰比较明显,连拍或抓拍时,要珍惜前几下快门,前面都拍不清,后面大概率也是糊的。
即便是在 2022 年,绝大部分安卓旗舰,都会因为发热问题,根本无法坚持 30 分钟的 4K 60fps 录像(效果就更别提了)……而相机的 30 分钟视频拍摄限制,不是防止过热,而是避免进出口时被归类到摄像机,后者的关税更高(虽然确实有不少相机会过热)。
掌握大量可作为谈资的摄影冷 / 热知识,甚至报了 68888 元的大师班学了一个疗程,想着在吃饭和聚会时或许能用上,这是怎样一种体验?
答:就像昨晚梦到和女朋友分手,我哭得很惨,第二天醒来想起自己没有女朋友,哭得更惨了
版权声明:本文部分来自互联网,由小编精心所写,本文地址:http://www.zhubian88.cn/smbk/64926.html,如需转载,请注明出处!