Re: [分享] 特斯拉FSD beta 来比眼力有没有比AI好

楼主: ykjiang (York)   2021-04-09 03:48:35
※ 引述《ewings (火星人当研究生)》之铭言:
: ※ 引述《ykjiang (York)》之铭言:
: : 从最基本的原理来说,光达跟雷达就是用来测距,理论上只有一维的资讯
: : 三维的部分是经过一些设计、运算后得到的
: : 反而镜头得到的一开始就是二维资讯,然后可以经过运算得到三维的资讯,
: 这边看完,我的感想只有“供三小?”
: 雷达与光达在原理上是利用扫描的方式,取得距离与向量,本质上资料的维度就是大于二维了。
: 是什么时候变一维的?如果要这么瞎扯,那镜头里的CMOS一次也只能读一个cell的资料,
: 一样得要逐个扫描才能得到二维影像(这个就是所谓的果冻效应的成因),
: 照你的说法,镜头不也一样是一维的?
雷达基本上是机械动作在扫描
初代的光达也一样,最新的发展小型化后,有搞阵列方式同时发射好几组雷射,不过
分辨率还是个问题
你讲的 CMOS 果冻效应,不是 CMOS 的本质,而是数位化后,要将资料放在内存,
从内存读取时有先后顺序,这基本上是电子式的扫描,跟前面的机械式有差距。
: : 特斯拉更进一步从中取得四维资讯(多的那维是时间轨迹预测)
: 这边也不知道在供三小
: 在半个世纪前,雷达后处理技术就已经发展出利用比对前后时间目标的变化,预测目标未来位置,
: 并且持续追踪的技术。甚至还有类似合成孔径雷达(SAR)那种利用时间与位移积分,
: 利用二维扫描形成3维雷达影像的技术。
: 而利用都卜勒滤波技术,甚至不需要比对前后时间的资料,就能直接得到目标的速度,
: 在半个世纪前,雷达就能直接利用都卜勒测速,外插推估目标的未来位置。
: 但也没人讲雷达是四维资料的探测器。
你可以搜寻一下,有人就说这个是 4D 雷达
: 而特斯拉的前镜头并没有构成立体视觉,就算加上时间预测,也只能构成2.5D,
去年 10 推出的 FSD Beta 8.1 跟今年三月的 FSD Beta 8.2 已经有立体视觉
预计四月(如果没延期的话)推出的 FSD Beta 9 会是 Musk 说的 4D 视觉
: (三个定焦镜只能利用影像模糊的程度大致判断距离),这也是特斯拉自动驾驶在视觉深度一直为人所诟病的地方。
: : 以目前的技术:
: : 距离方面,光达的精度比较高
: : 平面部分,镜头的精度较高,然后镜头还可以判断颜色这个重要资讯
: : 以自动驾驶而言,两者的精度都超过人眼了
: : 所以关键还是在 AI 等其他方面
: 无脑特粉才会觉得只靠镜头和AI就行
: 真的在搞自动驾驶的,在研究的是怎么做多传感器的融合。
: https://global.kyocera.com/ces/img/sensing-technology/sec11_img03.jpg
: 像是直接将光达和摄影机做成同一个传感器,就是其中一个方向。
就算如后面推文你说的,特斯拉前向三个镜头是不同测交距离的镜头,搞不出立体视觉
但你忽略了特斯拉侧前方还有两个前向镜头,是完全对称的测焦距离是一样的80M以内

Links booklink

Contact Us: admin [ a t ] ucptt.com