楼主:
zizou (DIE....)
2025-05-10 09:31:18讲这么多专有名词
其实就是和我一样
被特斯拉和马斯克骗了
不要误会
阿北我是买过两台特斯拉才发现
全自动驾驶的重点根本就是:
出了事谁要负责
不要跟我说什么端到端, 无保护左转, 全视觉
纠结这些就是被话术
这么多年过去了
如果全自动驾驶真的能行
特斯拉和马斯克唬了这么多钱后
至少至少在高速公路上....至少
总可以负责任地说出了事我负责
我赔得起
但做不到
特斯拉车上这么多镜头
电脑算力这么强
他一定预估过这样的成本
自动驾驶一定会在高速公路这种简单场景
让你不用扶方向盘
甚至公司承担这个责任
这一天我在买了两台特斯拉后
深深觉得3年5年可能都做不到
所以可能是这样
马斯克才故意倒行逆施
这样就可以把自己唬烂骗钱的行为
合理化到政治立场的问题
※ 引述《LimYoHwan (gosu mage)》之铭言:
: 最近一堆低能媒体说什么“川普政府放宽自驾车法规”,
: 事实根本不是放宽,而是AI 把整套旧时代的法规打爆,监管被逼着重写一套新的验证规
: 则。
: 先讲清楚:SAE 分级早就过时了
: 所谓的 L0~L5 是美国一个民间组织 SAE(汽车工程师学会)自己订的参考表格 在2014
: 里面都一堆过时老人 不然就是传统车厂老人
: 根本不会AI
: 不是政府、不是法规、没有执照功能
: 原本是用来描述“驾驶 vs 系统”谁负责开车的分工
: 问题来了:现在的 AI 自驾根本不是模组接管的逻辑。
: Tesla FSD 、Wayve、Ghost 都是端到端神经网络,直接从视觉感知预测车辆轨迹,
: 整个决策是统一建模出来的,根本没有“感知模组、控制模组、驾驶可以中途接手”这种
: 设计。
: 所以你拿 SAE L3 去说 FSD 不够格,根本就是用卡式电话去检验 iPhone 处理器。
: 以前的法规是为“人类驾驶+机械控制”设计的
: 旧的 FMVSS 法规管的是:
: 有没有方向盘、后视镜、煞车灯、保险杆高度
: 车子撞墙会不会碎
: 软件几乎没在管,因为默认人类掌控一切
: 但现在是什么?
: 车是 AI 在开
: 决策是神经网络从影像推理出来的
: 每次 OTA 更新都可能改变整台车的驾驶逻辑
: 一秒做几千万次浮点运算来规划路径
: 你怎么可能还用“有没有按钮”、“转向盘几度”这种标准去管这种车?
: NHTSA 推出的新制度(AV STEP / ADS NPRM)有两大特点:
: 1)改用行为绩效评估(Performance-Based)
: 不再强制你装方向盘、镜子
: 改看你实际上能不能在数百种真实场景下(交织匝道、夜间行人、突发路障)安
: 全
: 驾驶
: 看你 OTA 更新之后,有没有变更稳,错误率有没有下降
: 谁表现好,谁就能上路,不管你是多模组还是端到端
: 2)但对“关键安全模组”仍然要求冗余与容错能力
: NHTSA 没有全面放飞,对于煞车、转向、主电源这种会致命的控制层,
: 仍然需要符合 功能安全(FuSa)标准,尤其是要能进行 MRM(最小风险动作)
: 换句话说:你神经网络可以出错,但你不能让车失控
: Tesla FSD 虽是单网络决策,但底层硬件有双煞车、双 MCU
: Waymo/Cruise 则是多传感冗余 + 远端接管 + ASIL-D 控制器
: 所以结论不是“松绑”,而是“重写赛制”
: 旧制度问:“你装了哪些东西?”
: 新制度问:“你能不能跑完所有场景,而且比人还稳?”
: AI 让车自己开了,法规也要跟上
: 现在的监管不是不要安全,而是:
: 不管你怎么设计,只要你能证明你更稳、更聪明,就放你上场。做不到,就下线。
: 装一堆光达但是会撞缓撞车一样吃屎
: 这才是现在 自驾产业真正的监管逻辑。
: 不要再用 2014 的 SAE 分级去看 2025 的 AI 自驾车了,真的跟不上。