引言
当AI开始“做梦”,轮子就会“脱轨”。
2025年11月,Waymo无人车在旧金山连番上演“迷惑行为大赏”——碾死邻居宠猫、闯进洛杉矶警匪对峙现场、在隧道里绕圈37圈像跳“Z字舞”。
官方解释轻描淡写:AI“幻觉”导致动作偏差,但事故率仍低于人类。可问题是,当一辆车载着乘客径直驶向荷枪实弹的嫌犯车辆,15秒的“停留”足以让子弹穿透车身。硅谷引以为傲的“安全神话”第一次被撕开裂缝:不是被对手击败,而是被自己的算法“脑洞”吓醒。
今天,无人车来也(公众号:无人车来也)就拆解这场“AI学坏”现场:幻觉到底是什么?为何无法根治?人类还能不能夺回最终拍板权?
(参考阅读请点击:《谷歌Waymo:因自动驾驶出租车19次违规超越校车遭调查,提交自愿软件召回》)

一、AI“幻觉”开上路:从聊天错别字到方向盘抽筋
“幻觉”一词源自大模型——AI把不存在的事实说得头头是道。
放到无人车里,就是把“塑料袋”当成“纸箱”,把“警灯闪烁”当成“圣诞装饰”,然后做出与之匹配的驾驶决策。
Waymo 10月27日官方博客坦承:为应对旧金山拥堵,他们把驾驶风格从“绅士”调成了“激进”,结果新模型在隧道口把“临时施工牌”误判为“可变道指示”,于是连续37圈画“Z”字,像在跑赛道。
更离谱的是洛杉矶警匪现场:一排警车+持枪警员,Waymo却把“封锁线”识别成“临时停车带”,减速后大摇大摆从嫌犯车边驶过,15秒停留被网友戏称“自带观众席”。
AI幻觉的可怕不在于“错”,而在于“错得自信”,并把乘客瞬间拖入高风险漩涡。
二、动物尸体与大数据:14起碰撞背后的“长尾”黑洞
据美国国家公路交通安全管理局(NHTSA)数据,2021年以来Waymo已卷入14起动物碰撞事件,包括猫、狗、浣熊。
看似数量不多,但对比其运营里程——约1.1亿英里(截至2025Q3),每千万英里1.3起;
而全美人类司机每年撞死约100万只动物,换算后每千万英里约70起。
单看表格,Waymo“赢”了;
放到长尾场景,却可能是“样本盲区”——猫狗体积太小、行动随机,训练集里缺位,模型就把它们当成“可压扁的纸片”。
于是,邻居口中“备受喜爱的猫”惨死轮下。
更尴尬的是责任认定:Waymo赔钱了事,却辩称“人类撞得更多”。
当技术用统计数字为个体悲剧开脱,社会情绪自然反弹。
三、激进风格=把“礼貌”调成“路怒”?参数旋钮的蝴蝶效应
Waymo产品负责人承认:为缓解拥堵,团队把“侵略性”参数上调。
看似只是代码里0→1的改动,结果却像蝴蝶振翅——
变道间隙从3秒压到1.8秒,后车被迫急刹;
礼让行人距离从2米缩到0.8米,行人手推车被撞概率提升;
警灯识别阈值提高,把红蓝爆闪当成“低优先级灯光”。
AI没有“常识”,它只懂概率。
当工程师把“效率”权重调高,“安全”权重相对下降,机器自然选择“更快”而非“更对”。
人类驾驶员尚能靠经验踩刹车,AI却把“不确定”翻译成“可通过”,直至悲剧发生。
Waymo的“风格旋钮”给行业敲响警钟:算法不是调音台,任何微小增益都可能在真实世界被指数级放大。
四、幻觉≠Bug,是先天缺陷:学术界为何说“无法根除”
学界普遍共识:幻觉是大模型的“原罪”。
训练目标——“下一个词概率最大”——决定了AI天生会“脑补”。
放到视觉-动作模型,就是把传感器噪点当成有效目标,把罕见场景当成已知模式。
Waymo用Transformer做BEV(鸟瞰视角)融合,参数高达38MB,黑盒决策连工程师也无法全部分析。
更致命的是“分布外”问题:警匪对峙、动物窜出、隧道施工在训练集里极少出现,模型只能“类比”,一旦类比错误,就是车祸。
研究表明,把幻觉率压到0.1%,需要10倍于现行的真实数据,成本高达数百亿美元。
换言之,幻觉可被“稀释”,却难以“消除”。
五、夺回方向盘:远程接管、法规护栏与人类
veto 权 Waymo已建立RMCC(远程监控中心),1人可管25辆车,但前述警匪现场仍靠警方对讲机呼叫才远程刹停。
15秒真空期说明:人机比例再优,也无法覆盖“黑天鹅”。
行业开始三管齐下:
强制veto权:欧盟新规要求L4车辆必须保留“紧急制动物理键”,乘客0.2秒可切断自动驾驶;
场景围栏:隧道、学校、警备区列入“高敏感ODD”,限速20km/h并强制人类接管;
保险兜底:伦敦劳合社推出“AI幻觉险”,每公里0.03美元,为长尾事故托底。
技术层面,多模型冗余+可解释AI正成为主流:
视觉、激光、毫米波各自独立推理,投票决策;
同时输出“决策热力图”,让人类看到AI“到底看见了什么”。
Waymo计划2026年在车内屏幕实时显示“感知置信度”,乘客可一键要求远程人工复核——把“黑盒”变“白盒”,让幻觉无处遁形。
当Waymo把“事故率更低”挂嘴边时,别忘了:人类司机撞人是犯错,AI撞人却是“系统性错误”。前者可被法律、保险、道德约束;
后者一旦算法放行,就是规模化复制。
碾猫、闯警匪现场、绕圈37圈,不是“洋萝卜”故意使坏,而是提醒我们:再先进的神经网络,也会在长尾里跌倒。
总之,无人车来也(公众号:无人车来也)
真正的安全,不是让AI“更像人”,而是给机器装上“人类 veto”的紧箍——在概率与伦理之间,留一只随时可以踩下的刹车。
毕竟,道路不是实验室,生命没有“下一次训练轮次”。
#无人车来也 #无人驾驶 #自动驾驶 #无人车
原文标题 : Waymo“AI幻觉”大翻车:碾猫闯警匪现场,无人车“学坏”的背后是人类失守了方向盘?