Re: [分享] 特斯拉FSD beta 来比眼力有没有比AI好

楼主: ewings (火星人当研究生)   2021-04-09 02:08:43
※ 引述《ykjiang (York)》之铭言:
: 从最基本的原理来说,光达跟雷达就是用来测距,理论上只有一维的资讯
: 三维的部分是经过一些设计、运算后得到的
: 反而镜头得到的一开始就是二维资讯,然后可以经过运算得到三维的资讯,
这边看完,我的感想只有“供三小?”
雷达与光达在原理上是利用扫描的方式,取得距离与向量,本质上资料的维度就是大于二维了。
是什么时候变一维的?如果要这么瞎扯,那镜头里的CMOS一次也只能读一个cell的资料,
一样得要逐个扫描才能得到二维影像(这个就是所谓的果冻效应的成因),
照你的说法,镜头不也一样是一维的?
: 特斯拉更进一步从中取得四维资讯(多的那维是时间轨迹预测)
这边也不知道在供三小
在半个世纪前,雷达后处理技术就已经发展出利用比对前后时间目标的变化,预测目标未来位置,
并且持续追踪的技术。甚至还有类似合成孔径雷达(SAR)那种利用时间与位移积分,
利用二维扫描形成3维雷达影像的技术。
而利用都卜勒滤波技术,甚至不需要比对前后时间的资料,就能直接得到目标的速度,
在半个世纪前,雷达就能直接利用都卜勒测速,外插推估目标的未来位置。
但也没人讲雷达是四维资料的探测器。
而特斯拉的前镜头并没有构成立体视觉,就算加上时间预测,也只能构成2.5D,
(三个定焦镜只能利用影像模糊的程度大致判断距离),这也是特斯拉自动驾驶在视觉深度一直为人所诟病的地方。
: 以目前的技术:
: 距离方面,光达的精度比较高
: 平面部分,镜头的精度较高,然后镜头还可以判断颜色这个重要资讯
: 以自动驾驶而言,两者的精度都超过人眼了
: 所以关键还是在 AI 等其他方面
无脑特粉才会觉得只靠镜头和AI就行
真的在搞自动驾驶的,在研究的是怎么做多传感器的融合。
https://global.kyocera.com/ces/img/sensing-technology/sec11_img03.jpg
像是直接将光达和摄影机做成同一个传感器,就是其中一个方向。
: ※ 引述《airforce1101 (我不宅)》之铭言:
: : 影像、雷达、光达不太一样,我把影像与雷达、光达拆成两类好了,影像对于讯号处理来
: : 说属于二维阵列,但是雷达与光达可以带回三维的目标资讯,雷达就是低频段的光,因频
: : 率特性不同,所以适用场景不同,光达的脉冲时间很短,所以较于雷达相比,对于相同目
: : 标,可以带回更高精度的资讯。
: : 光达的领域上有关延展性目标,可以参考K. Granstrom, M. Baum, and S. Reuter 所著
: : 的这篇文章 Extended object tracking: Introduction, overview, and application.
: : 在AI辅助下,或许环境良好下影像能做到光达能大多数能做的事,但某些判断影像与光达
: : 先天上的差距还是存在。
: : 其实也好奇,传感器与影像间的关联是否让AI找出并学习其特征向量,有待高手解答了。

Links booklink

Contact Us: admin [ a t ] ucptt.com