NHTSAがWaymoに突きつけた衝撃の現実——19回以上スクールバスを無視、リコール後も改善せず「自動運転は学習していない」という残酷な事実が明らかに
米国道路交通安全局(NHTSA)と国家交通安全委員会(NTSB)がWaymoの自動運転車に警告。19回以上スクールバスの停車サインを無視し、連邦リコール後も違反が続いた。「人間なら1回で学ぶのに、Waymoは学習していない」という衝撃の証言が公式記録に残った。

NHTSA(米国道路交通安全局)とNTSB(国家交通安全委員会)が、Waymoの自動運転システムに突きつけた衝撃の現実がWIREDの調査で明らかになりました。
「自動運転は1台が学べば全台が学ぶ」——そのWaymo自身が誇ってきた主張が、完全に嘘だったことが証明されました。
スクールバスを19回以上無視した「学習しないAI」
テキサス州オースティンで、Waymoの自動運転車がスクールバスのストップアームが展開された状態で少なくとも19回以上、停止することなく通過するという危険な事態が起きていた。
スクールバスが子どもたちを乗降させる際に赤いランプを点滅させ、停止アームを展開した場合、米国の法律では全車両が完全停止する義務がある。これは子どもの安全を守る最も基本的な交通ルールだ。
それをWaymoは繰り返し無視した。
リコールしても直らなかった
2025年12月、Waymoはこの問題を認め、連邦リコールを発動。NHTSAへの届け出によれば、エンジニアは「動作を改善するソフトウェア変更を開発した」とした。
しかしリコール後も、オースティン学区は少なくとも4件の追加違反を報告した。
学区の警察担当者がNBCの地方局に語った言葉が衝撃的だ:
> 「データを見ると、違反を1回受けた人の約98%は2回目の違反をしません。人間は学習しているのです。しかしWaymoの自動運転システムは、リコールや何をしても、依然として違反を続けています。学習していないのです。」
学区がWaymoのために「授業」を開催した
事態を重くみたオースティン学区は、2025年12月中旬に学区の駐車場で半日の「データ収集」イベントを開催するという異例の対応に出た。
学区全体からスクールバスを集め、ストップアームの信号をWaymoのカメラに見せ続けた。要するに、学校側がAIに「スクールバスを認識する方法」を教えるために特別授業を開いたのだ。
それでも違反は止まらなかった。
なぜ自動運転は「点滅するライト」が苦手なのか
ジョージメイソン大学で自律走行車を研究するミッシー・カミングス教授(元NHTSA安全アドバイザー)はこう分析する:
「自動運転ソフトウェアは長年、点滅する緊急ライトや、ゲートやストップアームのような細長い安全装置の認識に苦労してきた。」
「もし数年前にこれを修正できていなかったなら、走行距離が増えるほど問題は悪化するかもしれない。」
これは技術的な盲点であり、Waymoだけの問題ではない。しかし子どもの安全に関わる最もシンプルな状況で失敗し続けているという事実は重大だ。
日本の自動運転への影響
日本でも2025年以降、各地で自動運転タクシーの実証実験が進んでいる。レベル4の自動運転が解禁され、政府は2030年までの実用化を目指している。
しかし今回の事例が示すのは、「走行データが増えれば自動的に安全になる」という前提が危険な楽観論かもしれないという現実だ。
「スクールバスの前で止まる」という、交通ルールの中でも最も単純な部類に入る動作ですら、Waymoは学習に失敗した。
高齢者の横断、自転車の飛び出し、雨天の視認性低下——日本の道路が抱える複雑な状況に、現在の自動運転技術が本当に対応できるのか。今回の事件は、その問いに再び突きつける。
まとめ
Waymoのスクールバス問題は、自動運転業界全体の「恐怖の現実」を映し出している:
- 19回以上の違反 → リコール後も継続
- 学区が特別授業 → 効果なし
- 「AIは学習しない」 → 公式記録に残った証言
「AIが集合知で学習する」という触れ込みは、少なくとも子どもの安全を守る最前線では、まだ現実になっていない。
この記事が役に立ったら共有してください
