色彩理论是你说的这样没错,但在实务上不是..
假设在拍摄当下,某物体表面的反射光是 A 色
拍摄者在现场看这个物体,脑袋里认知成 B 色
相机拍下这场景,照片在萤幕上显现出 C 色
观看者看着萤幕照片,脑袋里认知成 D 色
那么,相机的行为是哪一种..
是要让 A=C?或 A=D?或 B=C?或 B=D?
摄影的最终目的,是想要达到 B=D,把拍摄当下的氛围完全传达。
但正常来说,不可能完成 B=D 的目标.
目前数位影像在做的,是致力让 A=C,也就是拍到的颜色要还原成当初的场景色
简单假设一个理想场景..
有红/绿/蓝三原色光,以强度 1:1:1 混合,变成纯白色混合光.
这纯白色混合光,在人眼中却不会是纯白色。因为人眼对 RGB 三色的感度不同.
但对相机来说呢,它必须拍出纯白色才行
换句话说,相机拍到的色彩,不能跟人眼看到的相同
这是建立在整个后端设备的色彩转换基础上,必须这样做.
理想的相机必须存下 R:G:B=1:1:1 的纯白色
在理想的萤幕上,也要显示出 R:G:B=1:1:1 纯白色
这样最终在萤幕上看照片时,发出跟原始相同的纯白光,人眼才会感受到相同的感知色
所以,只要过程中参与转换的设备够完美,A=C 就等于达到 B=D
黄光灯泡场景中的白纸,人会把看到的黄纸认知成白色.
若萤幕能输出跟场景完全相同的黄光氛围,那人当然也能把照片中的黄纸认知成白色
这等于原景重现。完全不做任何色彩偏移,从照片感受到的才会最接近原始场景.
当然,目前没有所谓完美的设备,也还不可能达到无色差的目标
但科学作法就是这样先假设有完美设备,在这个基础上设计整个系统
等将来科技更进步了,再一个个排除造成色差的因素
而 Bayer 滤色片也不是理想的 RGB 分色模型,如大部分相机遇到纯紫光会拍出深蓝绿色
现行的数位相机系统本身就存在色彩缺陷,必然会有色偏..
不同光谱的光源,会造成不同程度的色偏,所以才必须判别光源种类来做偏移
这才是白平衡实际上的作用,“在目前这个有缺陷的系统上进行补救”
而最终目标,是让照片色彩回到拍摄时的场景色彩,这样人眼看照片才会跟看实景一样
而 RGB 系统本身的缺点,就是任何色彩都只能用 RGB 来混色.
单波长黄光(580nm),跟用红光(700nm)+绿光(546nm)混出来的混黄光
虽然在色彩理论上可有相同颜色,但本质完全不同
这也是天生限制,无法从 RGB 数值逆向推算原始光的组成波长
所以不可能单靠照片就判别光源种类,只能用机率模型去猜.
构图内也必须有大面积白色或灰色物体,才可能猜得准
若能在拍摄之前就先确立白色点,也就是完成自订白平衡的工作
这会比拍完再调色简单得多,也比事后凭印象记忆还准确得多
更不会因为照片中缺少白色参考物而无法调整.
若 sensor 不是只靠 RGB,而是有足够资讯让它分析出现场光源的光谱结构
例如 Foveon 那种结构进一步发展下去,增加层数,让每一层只收一段狭窄波段的光.
那相机在拍摄当下就能立即判读出光源种类,直接减少猜光源的动作,AWB也会更准确