Re: [闲聊] 在台湾,特斯拉的先进安全辅助还有优势吗

楼主: Nico0214 (Nico)   2024-08-26 00:42:55
想简单闲聊一下关于特斯拉的科技部分....
本身工作是写code相关,加上有涉及到AI的相关领域....老实说我觉得特斯拉的辅助驾驶和FSD是真的蛮厉害的。
当大部分传统车厂都还在依赖雷达等sensor来实现辅助驾驶,特斯拉早早就投入纯视觉的发展,是真的很大胆也很令人惊艳。
先简单说说我认为纯视觉的优势:
1. 极低的成本,
- 不需要额外雷达和感应器,只要有足够数量的镜头即可。
- 没有其他感应装置,也意味着不需要考虑后续感应装置的维护或更换成本。
- 站在工程师的角度,没有感应器等于少了一个要考虑的变量,其实程式判断写起来应该会比较容易。
EX. 其他车厂即便是用感应器,也是需要搭配镜头的,如果这时候镜头和感应器的判断互相冲突,此时要怎么让系统去判断要相信哪个? 这其实是大大增加了整个程式模型的复杂性。
2. 具有很高的可应用性和规模性 (这部分比较偏向FSD,跟单纯辅助驾驶关联较低)
- 特斯拉的纯视觉+AI模型,我认为当此技术未来成熟之后,是可以随时随地应用在任何地方的,包括未知的地区和星球XD。
讲到FSD,身为科技宅的我也一直有在追踪,先来看看特斯拉近期财报中提到其算力中心使用NVDA的GPU (H100)的数量图变化:
https://imgur.com/8u6fqdB
可以看到在2024年,特斯拉的AI算力是爆发式的增长,这跟算力中心算力的提升曲线几乎相符,也能看到从FSD V12.3~V12.5.X之间,其表现能力也是跟随算力的提升有飞跃性的增长表现。
虽然官方没有公布FSD的数据,但根据国外某个知名的民间FSD统计数据网站,整个FSD V12.X的平均表现是大约320公里才需要干预一次,这跟以前的V11版本比起来是整整进步了一倍。
如果细看到V12.5的话,几乎是将近600公里才需要驾驶介入一次。更别说,特斯拉的AI模型还在日以继夜的训练当中,我觉得未来FSD的成长只会越来越快,可能会超乎我们的想像。
(应该说所有AI模型的训练速度在未来会是我们难以想像的....)
网址 >> https://teslafsdtracker.com/
https://imgur.com/cnCxE1R
但FSD近期成长这么快,是否已经离全自动驾驶不远了? 我自己是觉得还没那么快就是,但照其AI的成长速度,应该也不会等太久。
必须说目前的表现跟Waymo比起来还是有些差距....
但从营运角度来看,一台Waymo的成本好像是30万美元上下,假如每公里营利1美元,那就是说一台waymo的车必须跑30万公里以上才能回本。
而特斯拉的FSD成本并没有像Waymo那么高(毕竟只有镜头...),只要FSD继续进步,那么未来无人出租车这个商机势必会转而跑到FSD这边。
另外,还有一点就是Waymo还必须依赖高精细的地图,这就使的Waymo难以快速规模化进而拓展到整个美国...
但是FSD并没有这个顾虑,这也是我为什么觉得FSD在规模化上有很大的优势XD
虽然车版好像没啥人在讨论车用AI这块,但我觉得车子几乎确定是未来AI浪潮下...首当其中的载体之一。
AI和自动驾驶对于未来的汽车绝对会影响非常大,许多传统车厂如果没有跟上这波趋势,我觉得可能会受到很大的影响...
不知道有没有离题太多XD...回到原文的辅助驾驶本身,家里有一台歪L和一台M3,我个人是觉得两台车其基本的跟车和定速功能在高速公路的表现上其实不会相差太多....
但是必须说特斯拉辅助驾驶的加速和减速是感觉比较接近像是人在操控一样的感觉。
作者: green04 (go!heels!!)   2024-08-26 01:04:00
Good
作者: whitecoat51 (锦衣夜行)   2024-08-26 01:25:00
不知道现在有没有基于光达或毫米波雷达的AI,之后发展前景会不会比纯视觉来得好
作者: moom50302 (武林三羚鳄)   2024-08-26 02:03:00
业内做ai自驾没有不佩服特斯拉的,通常只有业外装内行
作者: aggressorX (阿冲)   2024-08-26 02:56:00
特斯拉H100多到盖工厂来放了...
作者: Crios (Cri~)   2024-08-26 03:01:00
是蛮厉害的 所以台湾可以用FSD了吗?
作者: milichang (米利)   2024-08-26 03:31:00
四楼在说啥,业内人士明明就嗤之以鼻
作者: ilovedirk41 (沉默之邱)   2024-08-26 06:07:00
纯视觉? S跟X的凤凰雷达是?
作者: DYE (跟脑残争最后都会变脑残.)   2024-08-26 06:34:00
Dojo勒?
作者: RV (不要猜我密码)   2024-08-26 06:51:00
M大说得没错,我是觉得这心态..
作者: EPIRB406   2024-08-26 07:18:00
自驾剩特斯拉跟华为而已吧,很多都要放弃了,太不切实际。
作者: longtimens (阿卷)   2024-08-26 07:54:00
一般消费者看的是结果欸 lv2使用体验差不多的话 特优势在哪?
作者: z7890706 (zzz99)   2024-08-26 08:14:00
成本变低也没有比较便宜XD
作者: black32044   2024-08-26 08:19:00
使用体验有差不多?
作者: longtimens (阿卷)   2024-08-26 08:33:00
台湾的话没差很多吧一样是封闭道路才能用啊
作者: jesuskobe (浪子)   2024-08-26 09:29:00
我记得之前也是有人特斯拉跟其他车两台,使用体验跟这篇一样差不了多少,有人还觉得tesla在加速比较快反而不喜
作者: mhmichelle   2024-08-26 10:45:00
感谢分享
作者: eryaniso ( )   2024-08-26 10:54:00
在台湾小赢而已,毕竟功能根本没打开
作者: YummyLin2120 (濠绳再领2120)   2024-08-26 11:14:00
重点感是敢敢说出事负责 不然永远都是不是自动驾驶根本不配叫自动驾驶
作者: DYE (跟脑残争最后都会变脑残.)   2024-08-26 11:44:00
自燃都不肯负责,那自驾怎么负责?
作者: ewings (火星人当研究生)   2024-08-26 12:08:00
讲影像方案传感器资料会不冲突不知道是在讲三小,特斯拉自己的纯视觉方案,长短焦两个镜头的资料一样要做数据融合,视觉资料融合并没有比光达-视觉融合简单
作者: longtimens (阿卷)   2024-08-26 12:38:00
讲那么多 台湾就没什么差啊
作者: lll156k1529 (吃鸡腿)   2024-08-26 12:47:00
没雷达是缺点捏
作者: ewings (火星人当研究生)   2024-08-26 12:48:00
谁和你讲对AI来说雷达+视觉会比两个视觉的资料融合难?你自己想的?就算是更老的机械学习,面对有深度资讯的雷达+影像的资料融合,难度也比没有深度的纯视觉长短焦双镜头简单。谁和你讲非金属在毫米波雷达下是半透明的?你到底懂不懂汽车的传感元件啊?不懂就别出来瞎吹讲雷达和视觉会让电脑不知道处理哪个?你在讲什么笑话啊?你怎么不讲长短焦双镜头出来的视觉讯号会让电脑不知道要处理哪个?只要是多传感器,都需要做传感器间的校准与资讯融合,双镜头一样得要做,而且还比雷达+镜头间的校验还麻烦,消耗的算力更多。不懂硬件就别出来瞎吹
作者: benlu (benlu)   2024-08-26 13:50:00
FSD在台湾为什么不能用呢?因为他会把机车直接撞下去
作者: ewings (火星人当研究生)   2024-08-26 14:05:00
谁和你讲FSD有克服纯视觉精度上的误差了?特斯拉才刚又把4D毫米波雷达装回4代自驾平台而已。特斯拉要用上AI,那表示纯视觉方案的算法更麻烦,和你自己幻想会更简单的情况完全相反。
作者: miel3330   2024-08-26 15:53:00
你干嘛要跟一个明显外行的人讲ML
作者: ewings (火星人当研究生)   2024-08-26 18:48:00
底层逻辑更复杂的东西,你觉得可以丢给AI所以不会更麻烦?那以后你活该成为被AI取代的码农吧…..付你薪水还不如拿去买nvidia运算卡。
作者: mussina27 (斗魂)   2024-08-28 10:32:00
从回文之间就可以发现其实很多不懂原PO解释的内容是什么,只是硬要而已。拿缓冲车当例子可说是冲出跑道杰出的一手,雷达如何检知前方有静止障碍系统如何做出即刻煞车其实这十年来汽车业界硬件方案的实作都差不多,所以才有他牌汽车不断撞缓冲车的新闻。这就是前面推文提到嗤之以鼻的业内人士吗?
作者: shownlin (哈哈阿喔)   2024-08-30 17:02:00
推文e开头的在乱讲什么-.-训练资料缺缓撞车也可以做Anomaly Detection而且AI在视觉和语音领域就是一统江山融合其他Sensor一定是比纯视觉难啊…是不是会议paper都不跟在高谈阔论啊

Links booklink

Contact Us: admin [ a t ] ucptt.com