Re: [分享] 特斯拉FSD beta 来比眼力有没有比AI好

楼主: ykjiang (York)   2021-04-09 22:29:45
※ 引述《ewings (火星人当研究生)》之铭言:
: ※ 引述《ykjiang (York)》之铭言:
: : OK, 以雷达波的特性,的确如你说的,可以一个雷达波出去,同时有多组天线接收
: : 这部分跟光达有差异。
: 笑死,光达输出的资料从来就是三维的,只有一维的叫雷射测距仪。
: 如果是更早之前还在用LADAR为名的时代,还有更多是利用全像原理,用相位差生成三维资料的技术。
: 对系统来说,不过传感器是用什么原理,输出的资料格式如果是三维的,那就是三维,
: 有差别的只是更新率而已。
: 而光达输出的一直都是三维资料,即使是平面光达,也是三维资料降维。
我没说光达最后的输出资料不是三维,我只是说初代的光达是用一维的雷射测距,经巧
妙设计后得到三维的资料
: : 你讲的应该是 Rolling Shutter 造成的果冻效应,
: : CMOS 会采取 Rolling Shutter 有很多因素,例如为了功耗、快门速度、共用元件等
: : CMOS 后来也有 Global Shutter 的设计
: : Rolling Shutter 是同时一排 cell 曝光(不算逐个 cell,硬要挑的话)
: : Global Shutter 是全部的 cell 一起曝光
: : 至于 CCD 是采用 Global Shutter 的设计
: : 你说的为了输出 NTSC/PAL 逐个 cell 扫描,是发生在后段处理上
: 笑死,再掰嘛
: 特斯拉用的就是CMOS影像传感器,照你的讲法,那也是一维的。
: 现在不管是哪种摄影机,都是输出序列讯号,不管是用rolling还是globe shutter,
: 都是一个一个cell的资料丢到暂存器,再以一维资料格式(NTSC)输出
这部分也是,我一开始表达的也是 camera 的传感元件一开始就是二维的 cell 阵列
一个 cell 一个 cell 读是你要抬杠,才提出来的,然后你还提了果冻效应佐证。
另外,camera 一般内部有 buffer 储存完整的 2D data
输出时才用你说的 NTSC 序列输出,NTSC 基本上是旧时 TV 格式,高分辨率的 camera
不用这种输出格式了。而且 NTSC 还有奇偶交错的问题,在处理上容易碰到另一种跟果
冻效应有点类似的问题,不过这也扯远了。
其余的输出格式还有很多,也是各种取舍,不再赘述。
: : 1__2_.5e834778af184.png
: : 80m镜头,我是敲“侧”前方的两个前向镜头,不是敲(正)前向镜头
: : 而且这已经不是重点了,
: : 如之前推文说的,特斯拉 3D 视觉,主要是靠正前方那三个镜头
: : 基本上没侧前方那两个镜头的事了
: 别搞笑了
: 特斯拉的三个镜头焦距相差那么多,说能构成视觉深度,是你在幻想吧
: iphone手机上面有两到三颗镜头,但是还不是乖乖的上Lidar?
: 不同焦段的镜头,物体的影像在镜头内的像素差距非常大,光是判断是不是同一个物体都要消耗不少演算力了,
: 还妄想能构成深度视觉?
: 更别提特斯拉用的还是非常悲剧的1.2M像素镜头。如果像NIO用的是8M的,还勉强有点机会构成2.5D
: 如果两个焦段差那么多的镜头就能构成深度视觉,你都可以去apple总部前面呛他们白痴才要额外用Lidar了。
我不确定你说的 2.5D 多出的那 0.5D 指的是什么
不过前面推文中也有人给连结了,证明一个摄像头就能测得深度,多个摄像头更准确。
因为车子行进间可以拍很多个对同一物体不同距离下的 frame
至于特斯拉是怎么办到的细节部分,我不知道,唯一确定的要耗费很多算力,
连结如下:
《Autopilot》AK谈论AP开发细节 (2020/02)
https://www.mobile01.com/topicdetail.php?f=741&t=6137451
《Autopilot》FSD初探25-遮住镜头还能在路口转弯吗?
https://www.mobile01.com/topicdetail.php?f=741&t=6246238

Links booklink

Contact Us: admin [ a t ] ucptt.com