Re: [新闻] 美监管机构调查:特斯拉自驾系统存在“

楼主: Arim (象山下智久)   2024-04-28 11:07:48
※ 引述《Sixigma (六西格玛)》之铭言:
: 好了啦 cost down 星人
: 都 2024 年了还不承认纯视觉不足以满足自驾功能
: 明明所有的电脑视觉的论文和资料集和 benchmark
: 无论在 3D Object Detection 或是 Planning 都是融合方案屌打
: 前者有用 Lidar 和没用, mAP 差到 30 都是家常便饭
: paperswithcode 随便看都是
: https://paperswithcode.com/task/3d-object-detection
: 不要说光达啦
: 光是用雷达多个 10 mAP 都正常
: 你知道差 10 mAP 是什么意思吗
: 大概是 300 度近视和 800 度的概念吧
: 还不用说你还可以直接 hard code 写死
: 单相机的物理特性怎么可能玩得过雷达光达
: 没上融合模型之前竟然有人敢吹端到端
: 笑死
: 懂得就懂啦
: 就算算上模拟技术,就是像 Omniverse 那种
: 光达讯号显然也可以模拟啊
: 甚至可能比相机讯号简单多了
: cost down 星人的第一性原理根本就过誉
: 别说什么你开车需要光达吗这种逻辑死亡的谬论
: 开车需要眼睛和大脑,他妈的这些东西是眼睛和大脑吗
: OpenAI 都不敢说的话他怎么敢说
: 除非他出来说我们的研究是纯视觉屌虐融合方案
: 说什么不需要光达或是多余,那就是 cost down 的屁话啦
: 2020 年讲这种屁话大家都还没反应过来
: 现在一堆人搞 nuScenes Waymo KITTI 都不知道搞几轮了
: 梦也该醒了
: 坐等特斯拉被中国车厂的屌虐
: 啊
: 已经被屌虐啦
: 那没事啦
其实我觉得纯视觉是有可能做到 LV4 的,只是马投顾放话的当下还没有 gpt-4v 出来而已,你可以说他放话的当下是在打嘴砲没错,但我觉得未来肯定有机会,github 上已经有人用 gpt 去微调自驾需要的参数
现在大型视觉模型已经可以解释当下发生了什么,看到了什么
老黄也说过通用 AGI 最快在五年内一定能实现,现在就是算力跟不上人类即时的反应速度而已,但那是现在,算力这种东西每年都是在增长
我觉得 AGI 问世的那天就是特斯拉自驾喷发的那天,但就是算力一定要跟上,不然等模型反应过来的时侯就撞车了
然后特斯拉现在应该是没用 gpt 而是用更古早的 CNN,就已经能作到这样我已经觉得很猛了好吗?最近就有新闻说最新的 FSD 可以直接把富豪载到医院了
然后 gpt-5 最快今年就要出来了,你觉得靠纯视觉做到自驾还远吗?剩下的就是算力问题要克服而已
股点就是做铲子的永远都是赢家,gg 甚至比 nv 更好,因为 ai 芯片霸主可能会换,但代做铲子的 gg 应该很难下来了
作者: chandler0227 (钱德勒)   2024-04-28 11:40:00
并不是只要事故率(MTBF)低于人类驾驶就足矣,还要考虑到当系统失效时的功能安全、预期功能安全,这些都是取得政府核发自驾牌照需具备的项目,而现行硬件架构(传感单一&HW4.0用单一power rail),在没有冗余下过不了政府核发自驾牌照这关我在谈自驾系统要有backup政府才有机会放行核发自驾牌照这件事,楼上刻意歪楼解读成政府支持事故率高的人类,我也没办法

Links booklink

Contact Us: admin [ a t ] ucptt.com