Re: [分享] 特斯拉FSD beta 来比眼力有没有比AI好

楼主: ewings (火星人当研究生)   2021-04-09 20:41:46
※ 引述《ykjiang (York)》之铭言:
: ※ 引述《ewings (火星人当研究生)》之铭言:
: : ※ 引述《ykjiang (York)》之铭言:
: : : 二维了。
: : : 雷达基本上是机械动作在扫描
: : : 初代的光达也一样,最新的发展小型化后,有搞阵列方式同时发射好几组雷射,不过
: : : 分辨率还是个问题
: : 还是不晓得你在供三小
: : 从雷达诞生以来,也从来没出现过你口中的“一维”雷达
: : https://en.m.wikipedia.org/wiki/Lichtenstein_radar
: : 拿二战里的德国Lichtenstein銾p达来说好了,雷达发射天线是固定在飞机的机首,
: : 也没有任何的机械机构让天线摇动或转动。
: : 但是利用雷达波打到目标,再反射回上下左右四个天线的时间差,以及A-scope显示器,
: : 就能得知目标的在三维空间中的向量与距离。
: : 而这个方式,特斯拉的雷达也在使用,只是特斯拉选的雷达,精度相比之下像玩具。
: OK, 以雷达波的特性,的确如你说的,可以一个雷达波出去,同时有多组天线接收
: 这部分跟光达有差异。
笑死,光达输出的资料从来就是三维的,只有一维的叫雷射测距仪。
如果是更早之前还在用LADAR为名的时代,还有更多是利用全像原理,用相位差生成三维资料的技术。
对系统来说,不过传感器是用什么原理,输出的资料格式如果是三维的,那就是三维,
有差别的只是更新率而已。
而光达输出的一直都是三维资料,即使是平面光达,也是三维资料降维。
: : : 你讲的 CMOS 果冻效应,不是 CMOS 的本质,而是数位化后,要将资料放在内存,
: : : 从内存读取时有先后顺序,这基本上是电子式的扫描,跟前面的机械式有差距。
: : 这边也是看不懂你在讲三小
: : 就算是类比式的CCD,为了输出NTSC/PAL的序列讯号,也是逐个cell扫描
: : 和数位化一点鸟毛关系都没有
: 你讲的应该是 Rolling Shutter 造成的果冻效应,
: CMOS 会采取 Rolling Shutter 有很多因素,例如为了功耗、快门速度、共用元件等
: CMOS 后来也有 Global Shutter 的设计
: Rolling Shutter 是同时一排 cell 曝光(不算逐个 cell,硬要挑的话)
: Global Shutter 是全部的 cell 一起曝光
: 至于 CCD 是采用 Global Shutter 的设计
: 你说的为了输出 NTSC/PAL 逐个 cell 扫描,是发生在后段处理上
笑死,再掰嘛
特斯拉用的就是CMOS影像传感器,照你的讲法,那也是一维的。
现在不管是哪种摄影机,都是输出序列讯号,不管是用rolling还是globe shutter,
都是一个一个cell的资料丢到暂存器,再以一维资料格式(NTSC)输出
: : 另外,也一样在半个世纪前,就已经有电子扫描阵列雷达的技术
: : (electronically scanned array)
: : 只是这种技术受到管制,车厂还想车卖到世界各地,多半不是很想用
: : : 未来位置,
: : : 你可以搜寻一下,有人就说这个是 4D 雷达
: : 那只是营销用的名词,没有一本教科书用4D雷达这种讲法。
: : : 去年 10 推出的 FSD Beta 8.1 跟今年三月的 FSD Beta 8.2 已经有立体视觉
: : : 预计四月(如果没延期的话)推出的 FSD Beta 9 会是 Musk 说的 4D 视觉
: : : 深度一直为人所诟病的地方。
: : : 就算如后面推文你说的,特斯拉前向三个镜头是不同测交距离的镜头,搞不出立体视觉
: : : 但你忽略了特斯拉侧前方还有两个前向镜头,是完全对称的测焦距离是一样的80M以内
: : https://img.laserfocusworld.com/files/base/ebm/lfw/image/2020/03/2004LFW_jh_
: 1__2_.5e834778af184.png
: : 前方还有另外两个80m的前向镜头?你是还没睡饱吗?
: : 麻烦在图里面指给我看一看。
: 80m镜头,我是敲“侧”前方的两个前向镜头,不是敲(正)前向镜头
: 而且这已经不是重点了,
: 如之前推文说的,特斯拉 3D 视觉,主要是靠正前方那三个镜头
: 基本上没侧前方那两个镜头的事了
别搞笑了
特斯拉的三个镜头焦距相差那么多,说能构成视觉深度,是你在幻想吧
iphone手机上面有两到三颗镜头,但是还不是乖乖的上Lidar?
不同焦段的镜头,物体的影像在镜头内的像素差距非常大,光是判断是不是同一个物体都要消耗不少演算力了,
还妄想能构成深度视觉?
更别提特斯拉用的还是非常悲剧的1.2M像素镜头。如果像NIO用的是8M的,还勉强有点机会构成2.5D
如果两个焦段差那么多的镜头就能构成深度视觉,你都可以去apple总部前面呛他们白痴才要额外用Lidar了。

Links booklink

Contact Us: admin [ a t ] ucptt.com