列車衝突2秒前の悪夢!テスラFSDが遮断機を「無視」して突進、最新版v14.3で緊急修正へ
📰 ニュース概要
- テキサス州でテスラFSDが重大なミス: 踏切で遮断機が下り、警告灯が点滅しているにもかかわらず、車両が突然加速して遮断機を突破した。
- 運転手の咄嗟の判断で回避: レーシング経験のあるオーナーがアクセルを床まで踏み込み、列車の通過2秒前に線路を脱出。車体は遮断機をなぎ倒して損傷した。
- 事故翌日にFSD v14.3をリリース: テスラは翌日、MLIRベースのコンパイラを採用し、反応速度を20%向上させた最新ビルドの配信を開始した。
💡 重要なポイント
- 遮断機の検知失敗: 蛍光オレンジと白の目立つ遮断機を、FSDの知覚システムが「無視」してしまった事実が動画で記録されている。
- NHTSAによる大規模調査: FSDに関連する違反事例は約80件に達しており、米連邦当局は踏切での挙動を含めた正式な調査を進めている。
- v14.3での「エッジケース」対応: 新バージョンでは「車両の進路に垂れ下がっている、または突き出している珍しい物体」の処理が改善されたが、踏切の遮断機を指しているとみられる。
🦈 サメの眼(キュレーターの視点)
今回の事故で注目すべきは、テスラが事故のわずか1日後に**MLIRベースの新しいコンパイラとランタイムを搭載した「FSD v14.3」**をロールアウトしたことだサメ!
反応速度が20%向上したと謳っているけど、これまでのシステムがいかに「遮断機」という、人間なら誰でもわかる安全装置をエッジケースとして処理していたかが浮き彫りになったサメ。特に、「突き出した物体(leaning into the vehicle path)」の処理改善という修正内容が、事故の翌日に出てきたのは、内部でこの欠陥が認識されていた証拠だサメ。AIの知覚が、2Dの映像から3Dの物理的な障害物をどこまで正確に「停止すべき対象」と認識できるか、その精度の壁がまだ高いことを示しているサメ!
🚀 これからどうなる?
テスラは「人間の7倍安全」という統計を出しているけど、NHTSAの調査結果次第では、踏切付近でのFSD使用に強力な制限がかかる可能性があるサメ。v14.3の新しいランタイムが、同様の事象を完全に防げるかどうかが、FSDの信頼性を左右する大きな分岐点になるサメ。
💬 はるサメ視点の一言
サメ記者「はるサメ」:遮断機を無視して突っ込むなんて、海ならサメ除けネットに全速力でダイブするようなものだサメ!命がいくつあっても足りないサメ!🦈💥
📚 用語解説
-
FSD v14.3: 2026年4月に配信されたテスラの最新自動運転ソフト。反応速度の改善が主な特徴。
-
MLIR: 中間表現を扱うコンパイラ基盤。AIモデルの実行効率や最適化を大幅に向上させる技術。
-
NHTSA: 米運輸省道路交通安全局。自動車の安全性監視やリコールの命令などを行う政府機関。
-
情報元: Tesla ‘Full Self-Driving’ crashed through railroad gate seconds before train