Re: [分享] 特斯拉FSD beta 来比眼力有没有比AI好

楼主: ewings (火星人当研究生)   2021-04-10 10:59:46
※ 引述《ykjiang (York)》之铭言:
: ※ 引述《ewings (火星人当研究生)》之铭言:
: : ※ 引述《ykjiang (York)》之铭言:
: : : OK, 以雷达波的特性,的确如你说的,可以一个雷达波出去,同时有多组天线接收
: : : 这部分跟光达有差异。
: : 笑死,光达输出的资料从来就是三维的,只有一维的叫雷射测距仪。
: : 如果是更早之前还在用LADAR为名的时代,还有更多是利用全像原理,用相位差生成三
: 维资料的技术。
: : 对系统来说,不过传感器是用什么原理,输出的资料格式如果是三维的,那就是三维,
: : 有差别的只是更新率而已。
: : 而光达输出的一直都是三维资料,即使是平面光达,也是三维资料降维。
: 我没说光达最后的输出资料不是三维,我只是说初代的光达是用一维的雷射测距,经巧
: 妙设计后得到三维的资料
笑死,你又把你自己的妄想拿来当证据了,啥“初代光达”!
https://www.researchgate.net/publication/250192756_Three-Dimensional_Imaging_Laser_Radars_with_Geiger-Mode_Avalanche_Photodiode_Arrays
20年前,连名称都还没统一叫Lidar时,就已经在研究使用光电传感器阵列直接生成三维影像了,
一开始研究光达的时候,就有人从雷射全像技术出发,从来没有你想像的“一维”Lidar
: : : 你讲的应该是 Rolling Shutter 造成的果冻效应,
: : : CMOS 会采取 Rolling Shutter 有很多因素,例如为了功耗、快门速度、共用元件等
: : : CMOS 后来也有 Global Shutter 的设计
: : : Rolling Shutter 是同时一排 cell 曝光(不算逐个 cell,硬要挑的话)
: : : Global Shutter 是全部的 cell 一起曝光
: : : 至于 CCD 是采用 Global Shutter 的设计
: : : 你说的为了输出 NTSC/PAL 逐个 cell 扫描,是发生在后段处理上
: : 笑死,再掰嘛
: : 特斯拉用的就是CMOS影像传感器,照你的讲法,那也是一维的。
: : 现在不管是哪种摄影机,都是输出序列讯号,不管是用rolling还是globe shutter,
: : 都是一个一个cell的资料丢到暂存器,再以一维资料格式(NTSC)输出
: 这部分也是,我一开始表达的也是 camera 的传感元件一开始就是二维的 cell 阵列
: 一个 cell 一个 cell 读是你要抬杠,才提出来的,然后你还提了果冻效应佐证。
: 另外,camera 一般内部有 buffer 储存完整的 2D data
: 输出时才用你说的 NTSC 序列输出,NTSC 基本上是旧时 TV 格式,高分辨率的 camera
: 不用这种输出格式了。而且 NTSC 还有奇偶交错的问题,在处理上容易碰到另一种跟果
: 冻效应有点类似的问题,不过这也扯远了。
: 其余的输出格式还有很多,也是各种取舍,不再赘述。
总归来说,就是你自己鬼扯说啥“一维”的鬼东西,结果,CMOS的工作原理打你的脸罢了。
CMOS要在每一个cell就将电荷转换为电压,就注定只能逐个扫描读取,
就刚好打脸你所谓“光达是一维,而摄影机不是”的蠢说法
: : : 1__2_.5e834778af184.png
: : : 80m镜头,我是敲“侧”前方的两个前向镜头,不是敲(正)前向镜头
: : : 而且这已经不是重点了,
: : : 如之前推文说的,特斯拉 3D 视觉,主要是靠正前方那三个镜头
: : : 基本上没侧前方那两个镜头的事了
: : 别搞笑了
: : 特斯拉的三个镜头焦距相差那么多,说能构成视觉深度,是你在幻想吧
: : iphone手机上面有两到三颗镜头,但是还不是乖乖的上Lidar?
: : 不同焦段的镜头,物体的影像在镜头内的像素差距非常大,光是判断是不是同一个物体
: 都要消耗不少演算力了,
: : 还妄想能构成深度视觉?
: : 更别提特斯拉用的还是非常悲剧的1.2M像素镜头。如果像NIO用的是8M的,还勉强有点
: 机会构成2.5D
: : 如果两个焦段差那么多的镜头就能构成深度视觉,你都可以去apple总部前面呛他们白
: 痴才要额外用Lidar了。
: 我不确定你说的 2.5D 多出的那 0.5D 指的是什么
笑死,连2.5D都没听过,那你是要啥资格在前面鬼扯深度视觉的东西?
第三维的资料精度只能当参考用,统计学上达不到七成的可靠度,就只配用0.5D
: 不过前面推文中也有人给连结了,证明一个摄像头就能测得深度,多个摄像头更准确。
证明啥?证明用Lidar的apple公司是傻子,你才是天才?
要用伪测距骗这种傻瓜特教教徒还不简单?
直接假设路人的身高是170公分,再用摄影机焦距和像素高度换算,就得到伪测距了,
这个方式在100年前就出现了,像狙击镜上面就有刻度让射手可以用人当参考物,粗略的估算距离。
但是如果路人身高不到150,又恰巧特别瘦,或是行进间突然弯腰,使像素高度变化率大幅改变,
让伪测距出现很高的误差怎么办?
你以为特斯拉之前出包,撞上横躺地上的货车、撞上等等红灯的机车的事件是怎么来的?
AI再怎么训练,还是会有大数据资料没涵盖到的少数情况。当自驾车数量增加至上千万辆时
就算这些少数情况发生机率再低,在这么大的母体数量下,发生次数也会变得很高。
所以对自驾系统真正负责任的公司,才会用光达等可以真测距的传感器来设计。
: 因为车子行进间可以拍很多个对同一物体不同距离下的 frame
: 至于特斯拉是怎么办到的细节部分,我不知道,唯一确定的要耗费很多算力,
: 连结如下:
: 《Autopilot》AK谈论AP开发细节 (2020/02)
: https://www.mobile01.com/topicdetail.php?f=741&t=6137451
: 《Autopilot》FSD初探25-遮住镜头还能在路口转弯吗?
: https://www.mobile01.com/topicdetail.php?f=741&t=6246238

Links booklink

Contact Us: admin [ a t ] ucptt.com