※ [本文转录自 eyecolor 信箱]
作者: kblover (圣猫天使) 看板: MobileComm
标题: Re: [心得] 摄影师拍照手机笔记: iPhone 12 Pro Max
时间: Thu Dec 3 13:57:02 2020
很久没有来版上看一下,难得看到高手来分享
结果下面一堆似是而非的理解跟推文
推 eyecolor : 你误会了12/03 01:28
→ eyecolor : 我简单举例来说..单独拿一个HDR来说12/03 01:28
→ eyecolor : HDR不就是高动态吗? 假设今天原本感光元件能力12/03 01:29
→ eyecolor : 是 -3EV到+3EV..这是原始RAW的记录范围 (假设)12/03 01:29
→ eyecolor : 但计算摄影.假设算出一张-10EV到12EV的HDR照片12/03 01:30
→ eyecolor : 那么原始RAW再怎么修图就是拉出-3EV到+3EV12/03 01:31
→ eyecolor : 再怎么拉也拉不出计算摄影的动态12/03 01:31
→ eyecolor : 好..可是RAW怎么修图都不会影响画质12/03 01:32
→ eyecolor : 那么在过去我们对计算摄影的照片修图12/03 01:32
→ eyecolor : 修图完后这是会影响画质的..12/03 01:32
→ eyecolor : 但是又很喜欢计算摄影的高动态.又想修图怎么办?12/03 01:32
→ eyecolor : ProRAW就是提供这件事情.他提供一张-10EV到12EV12/03 01:33
→ eyecolor : 的RAW档给你..随便你修图都不会影响画质12/03 01:33
eyecolor满口计算摄影,但不知道是文字不精确,还是没修过图
首先,正常有动过raw档的人都知道
没有raw怎么修图都不会影响画质这件事情
从文字上来看,他似乎连hdr raw这种多年前就存在于photoshop的功能都不了解
hdr跟你用raw image还是用jpg哪有什么关联
以前eyecolor曾经在他版呛他不修图 修图是技术差的人在做的事情
不知道这几年这方面有没有什么进步
→ eyecolor : 这远远超出感光元件能力的RAW档就是ProRAW12/03 01:34
→ eyecolor : 这样可以简单理解了吗?12/03 01:34
也没什么远超过感光元件的能力这件事情
说白的就是多张合成,包含深度资讯
本质上这些资料都依然是从cmos sensor上面抓下来的
然后我再跟其他版友闲聊的时候 洗了整篇推文的eyecolor突然认为我问了他问题
推 kblover : proRaw一定有用到景深的资讯 虽然不知道他深度资讯12/03 11:33
→ kblover : 是不是真的从LiDar抓的 但是他proRaw可以调整景深12/03 11:33
→ eyecolor : 我说明一下12 pro max拍摄状况12/03 11:34
→ eyecolor : 我还没更新到测试版.手机资料太重要我等正式版再说12/03 11:35
→ eyecolor : 所见即所得在人像模式会用软件模拟一下景深预览12/03 11:35
→ eyecolor : 这时候看吸管或杯缘都是被模糊掉的 12/03 11:35
→ kblover : eyecolor你可以自己开一篇吗 看你洗很妨碍阅读12/03 11:35
→ eyecolor : 但等拍好照后点进去照片.会在1-2秒内套用光达资讯12/03 11:36
→ eyecolor : 画面的吸管会渐渐地变得清晰12/03 11:36
→ eyecolor : 很抱歉我懒得回文12/03 11:36
→ eyecolor : 不喜欢我的推文把我黑了.你软件有这功能12/03 11:36
→ eyecolor : 所以ProRAW的景深资讯就是含有光达资料12/03 11:37
→ eyecolor : 只是应该不是原始资料.而是套用过后的资料12/03 11:37
→ eyecolor : 然后我是在回你问题.Kblover大.你嘛帮帮忙12/03 11:38
→ eyecolor : 回你问题还在嫌我洗妨碍阅读12/03 11:38
推 kblover : 我没有问问题啊 = =12/03 11:45
→ kblover : pcman并没有黑名单12/03 11:45
推 eyecolor : 你自己看看上面你问的问题吧.深度资讯不是不从光达12/03 11:47
→ eyecolor : 我回完了12/03 11:47
这里真的是莫名其妙
eyecolor把realtime显示的画面直接当作是拍摄结果
基本上稍微有概念的人都知道preview stream跟capture stream很可能不是同一条
再者,景深的资讯也不一定百分之百是用lidar的资料
也可能用其他颗镜头带来的深度资料
我之所以不说死,是因为我们没有办法知道底层怎么实做这些事情
所以说得比较保守
结果居然让eyecolor认为我在问他问题 这认知也是奇葩
所以我好心告诉他一点观念
→ kblover : ...preview stream跟实际capture stream不一定是同12/03 11:49
→ kblover : 一条路 你连这个都不知道 凭我的程度 我应该没有12/03 11:50
→ kblover : 问题需要问你 请不要自我感觉良好 谢谢12/03 11:50
→ kblover : @xoy 其实重点就是深度资讯是从哪里抓的12/03 11:51
→ eyecolor : DSLR版主我觉得您继续在传统摄影里面可能比较好12/03 11:52
推 kblover : 希望你可以看过src code或是理解技术后再来讨论12/03 11:58
这里我实在不理解,eyecolor到底哪来的自信
推 eyecolor : 我希望您的问题可以更接近计算摄影而不是用传统摄影12/03 11:59
→ eyecolor : 去看完谷歌说明的计算景深后再来问这个问题12/03 12:00
推 eyecolor : 直接呛人也不是太礼貌.这个版也不是你管的 12/03 12:02
推 eyecolor : https://youtu.be/vdZyEhrzS-w12/03 12:14
→ eyecolor : 上面那个影片有实际使用ProRAW情形.虽然很粗浅12/03 12:14
推 eyecolor : 苹果真正技术方面不太会说原理.他不需要用户了解12/03 12:16
→ eyecolor : 但谷歌那边的说明文章会比较清楚一点12/03 12:16
→ eyecolor : https://reurl.cc/A8rone12/03 12:17
→ eyecolor : 不靠光达光是本身机械学习部分.就算双镜头也输给12/03 12:17
→ eyecolor : Pixel的景深边缘计算...12/03 12:18
推 eyecolor : https://www.mdeditor.tw/pl/2JBH/zh-tw12/03 12:21
推 eyecolor : 关于iPhone11过去的人像景深资讯12/03 12:27
→ eyecolor : https://reurl.cc/R1Vxjn12/03 12:27
→ eyecolor : 上面那个网址有深度分析12/03 12:27
推 eyecolor : 如果要理解.也可以补看上篇12/03 12:30
→ eyecolor : https://reurl.cc/WLml1k12/03 12:30
推 eyecolor : 上面二篇文章加上google的说明.补上光达资讯12/03 12:39
→ eyecolor : 整个资料就完整了.这样DSLR版主可以了解了吗12/03 12:40
上面那些资料,除了最后两篇教学怎么用ios的API以外
其他资料,都是属于high level到不行,一个理工大学生看个10分钟也能懂得程度
基本上里面都没有提到所有技术细节如何实作
讲真的我也是不期待eyecolor能拿出什么业界有在用的深度资料出来
但是拿这些出来 看看网络文章就说自己懂计算摄影也太好笑了
虽然我是预期你不懂 但是
如果你懂系统,你可以说说iphone底层ISP的block diagram怎么画
或是至少iphone怎么整合多个不同subsystem的资料在一起
如果你懂ios app,你可以分享一下怎么用API怎么实作
你贴的API讨论的是2017年的iphone 7怎么用双镜头去拿景深资料
还有讲一些座标转换,以及镜头变形怎么校正
该文跟LiDar关系就是,没有关系
还顺便告诉你iphone是可以透过多镜头拿到景深资料的,跟我说的一样
当然
也跟Google是用machine learning的方式还是深度资料来做景深处理,没有关系
所以我好心提醒你,看过high level的技术文件,或是source code再来讨论
结果你贴这些东西出来,我真的很失望
===========
最后
虽然跟哪个版的版主这样的身分无关
但我很抱歉对你推文失了礼貌
对你的时候,这对我来说真的有难度