Белорусский информационно- аналитический ресурс

транспортно-транзитный потенциал Европы и Азии

RussianBelarusianEnglish

Для Tesla красный не указ

27.10.2025

Для Tesla красный не указ

Илон Маск вернулся на главные страницы новостных сайтов. С тех пор, как 9 октября Национальное управление безопасностью движения на трассах США (National Highway Traffic Safety Administration, NHTSA) начало расследование в отношении 2,88 млн автомобилей Tesla, вот уже третью неделю СМИ дружно перемывают косточки миллиардеру.

Между тем проблема серьезная, и касается она качества автомобильного ПО, в первую очередь так называемых «систем полного автономного вождения». Это те самые программные комплексы, рекламу которых законодательно упорядочили в Великобритании, отцензурировали решением Минпрома в Китае и планируют лишить почетного звания автопилота в ЕС. У Tesla есть такая система: Full Self-Driving (FSD) – полное автономное вождение, но на практике полнотой не отличается и требует участия человека. Зато к аналогу FSD подешевле Enhanced Autopilot с урезанным функционалом претензий нет.

По оценке NHTSA, система приводит к поведению автомобиля, нарушающему правила безопасности дорожного движения. В частности, у регулятора имеются данные о том, что Tesla с FSD проезжали на красный свет и перемещались против направления движения при перестроении. Насчет красного света собрано минимум шесть жалоб. Содержание примерно такое: Tesla с включенным FSD приблизилась к перекрестку на красный сигнал светофора, продолжила движение через перекресток на красный и затем попала в аварию вместе с другими авто.

Подробно цитируется обращение в ведомство некоего водителя из Хьюстона, датированное 2024 годом. По версии жалобщика, FSD не распознает сигналы светофора. Анонимный хьюстонский эксперт считает, что именно в силу этого транспортное средство проезжает на красный и останавливается на зеленый. Автовладелец пытался разобраться с неполадкой, однако производитель не пошел ему навстречу: «Tesla не хочет ничего исправлять или даже признавать наличие проблемы, хотя они провели со мной тест-драйв и своими глазами все видели».

Вызывает вопросы и поведение FSD при приближении к железнодорожным переездам: судя по всему, система не вполне отличает железнодорожный транспорт от неподвижных объектов. В связи с чем демократы в Сенате требуют расследования зафиксированных столкновений Tesla с объектами на железной дороге.

  • Всего NHTSA рассматривает 58 сообщений о нарушениях безопасности дорожного движения при использовании FSD, включая 14 аварий и 23 травмы. Акции Tesla под влиянием начала расследования упали на 2,1%.

Характерно, что жертвы этих инцидентов (от одного человека до «нескольких») упоминаются как-то вскользь, мимоходом. Но это не первое и, видимо, не последнее расследование NHTSA, связанное с бизнес-империей Маска. В октябре 2024 года агентство инициировало аналогичные действия в отношении 2,4 млн автомобилей Tesla с FSD из-за четырех зарегистрированных столкновений в условиях ограниченной видимости (солнечные блики, туман, пыль в воздухе), в том числе аварии со смертельным исходом. В январе 2025 года NHTSA начало еще одно расследование в отношении 2,6 млн автомобилей Tesla из-за неполадок функции удаленного управления.

На этот раз претензии конкретнее: Tesla декларирует, что FSD довезет вас практически куда угодно под вашим активным контролем, требующим минимального вмешательства, однако ни беспилотным, ни полностью автономным это автомобиль не делает. При наиболее драматичном для Маска сценарии на основании расследования NHTSA вправе потребовать отзыва машин с рынка как представляющих угрозу безопасности.

Стоит добавить: в начале года NHTSA пережила сокращения персонала, инициированные департаментом по достижению госэффективности (DOGE), руководимым на тот момент Маском, а ныне, как и все госучреждения США, жестоко страдает от шатдауна – приостановки финансирования правительственных учреждений.

Как обычно, эксцентричный миллиардер оказывается на прицеле госрегулятора в силу положения его компании на рынке: статистически автомобилей Tesla много – немало и инцидентов с ними. Однако у всех крупных автопроизводителей есть аналогичные системы и все автопроизводители завышают степень их автономности.

Параллельно «охоте на Маска» NHTSA запустило предварительное расследование в отношении 2000 беспилотных автомобилей Waymo. Это уже не сомнительное FSD II-III уровня автономности, а автоматизированная система вождения V поколения ADS. Роботакси Waymo в беспилотном режиме не остановилось при приближении к школьному автобусу с мигающими красными огнями и объехало его спереди, пока пассажиры покидали автобус. В общем, не просто нарушило правила, а еще и создало угрозу жизни детей. Но эпизод с Waymo как-то померк на фоне злоключений Tesla.

Неожиданный резонанс расследование по Tesla получило в Европе. Евросовет по безопасности на транспорте (ETSC) призвал Еврокомиссию и государства ЕС создать независимое агентство, уполномоченное расследовать случаи нарушения безопасности при использовании частично автоматизированных систем вождения. Хотя FSD не одобрена для использования в Европе, но в ETSC уже сделали вывод: нужна организация для независимой оценки и изучения рисков, связанных с системами помощи водителю II уровня.

Оливер Карстен, профессор транспортной безопасности в Университете Лидса (Великобритания) и эксперт ETSC по вопросам автоматизации, подытожил: «На рынке все больше систем, стирающих грань между ассистентом и автоматикой. Прежде чем расширять их функциональные возможности, регулирующим органам необходимо получить убедительные доказательства того, что они безопасны». Заодно предлагается закрыть дискуссии о том, что авто с системами II уровня автономности могут выполнять т.н. «маневры по инициативе системы» в городе, например, трогаться с места на светофоре.

В любом случае NHTSA стоит сказать спасибо за то, что агентство взялось за тему ПО для автомобилей: проблема явно назрела и перезрела. Каким окажется результат, гадать не будем: научить программу останавливать авто при красном сигнале светофора – задача творческая.

Алексей КАРАМАЗОВ, «Транспортная безопасность»

« »

Читайте также