无论是三星或是华为或是Apple或古早的HTC等等,人像模式浅景深的原理都是透过
双镜头去计算距离或是重叠演算来得出主体与背景,并用软件去做模糊。
也有一些厂商是用单镜头然后用软件去判读,但这类的解决方案多半效果很惨...
但是昨天发表的Google Pixel 2号称能用机器学习来分辨主体以达成单镜头人像浅景
深的效果,且拍的愈多就能辨认的更准确,主镜头前镜头都可以启用。
https://youtu.be/2iObySa91b0?t=7m24s
https://imgur.com/Yr4r284.jpg
截图,这还是前镜头拍的
从测试影片跟照片中看起来,这很威啊!!难道是继HDR+之后,又一个Google用软件
硬干硬件的黑科技...糟糕,心动动了!