Это не первый случай сбоя автопилота на переездах.
8 марта в окрестностях Лос-Анджелеса произошел инцидент, который быстро стал вирусным в социальных сетях. Tesla Model 3, находясь в режиме Full Self-Driving (FSD), на скорости 37 км/ч проехала прямо через опущенные шлагбаумы железнодорожного переезда. Система не проявила признаков торможения, а водитель успел нажать на тормоза только в момент столкновения. Пользователь Laushi Liu, разместивший видео на Threads, подписал пост: «Tesla FSD чуть не убила меня сегодня». Ролик собрал множество комментариев.
Шлагбаумы находились на уровне, где расположены фронтальные камеры Tesla. Система фактически видела препятствие, но не распознала его как опасность. Никакой реакции, никакого замедления — просто прямая траектория сквозь красные огни и полосатые балки.
Это не первый сбой FSD на переездах. NBC News насчитала более 40 таких случаев в социальных сетях, подтвержденных видео. В одном из инцидентов в Пенсильвании Tesla выехала на пути прямо перед поездом — машину снесло, пассажиры успели выбежать за секунды до удара.

Проблема оказалась настолько серьезной, что американские сенаторы Эд Марки и Ричард Блюменталь потребовали от NHTSA отдельного расследования поведения FSD на железнодорожных переездах.
Иронично, что 9 марта является крайним сроком, когда Национальная администрация безопасности дорожного движения (NHTSA) ожидала от Tesla данные по расследованию FSD. Начало расследования датируется октябрем 2025 года и охватывает 58 инцидентов, среди которых 14 аварий и 23 травмы. К декабрю количество задокументированных случаев возросло до 80.
Tesla дважды запрашивала продление: сначала с 19 января на 23 февраля, а затем до сегодняшнего дня. Компания объяснила, что у нее есть 8313 записей, требующих ручного разбора, а скорость обработки составляет около 300 в день. NHTSA требует не просто статистику, но и полную хронологию каждого случая: за 30 секунд до нарушения, версию программного обеспечения, предупреждения водителю, последствия.
В расследование попало примерно 2,88 миллиона автомобилей с FSD. Это система уровня 2, что подразумевает, что водитель должен следить за дорогой. Но когда продукт продается под названием «Полностью автономное вождение» за 15 тысяч долларов, а на практике врезается в шлагбаум на переезде, вопросы к маркетингу становятся неизбежными. Калифорнийский департамент транспортных средств уже признавал формулировку некорректной.

Тем временем в Остине Tesla запустила ограниченный сервис роботакси без водителя — на том же программном обеспечении, которое сейчас находится под следствием. Главный показатель FSD — «городские мили до критического отключения» — упал с 4109 миль в октябре до 809 сейчас. Для сравнения: Waymo не убирала водителей из-за руля, пока не достигла 30 000 миль на этот же показатель.
Эксперты задаются вопросом, почему NHTSA до сих пор позволяет такому программному обеспечению оставаться на дорогах.
Сегодняшний дедлайн — не просто формальность. Если данные не будут предоставлены, штрафы могут достигнуть 28 тысяч долларов в день, максимальная сумма — 139,4 миллиона. Но главное — ответ на вопрос, сколько еще подобных случаев должно произойти, чтобы система наконец научилась реагировать на препятствия.
Фото: hi-tech.mail.ru
