Система Autopilot Tesla — одна из самых обсуждаемых технологий в автопроме — с момента запуска в 2014 году стала источником десятков громких скандалов. Компания позиционирует её как продвинутую помощь водителю (SAE Level 2), но критики и регуляторы обвиняют Tesla в вводящем в заблуждение маркетинге («Full Self-Driving Capability»), что провоцирует водителей на чрезмерное доверие. К декабрю 2025 года Autopilot и FSD (Full Self-Driving) связаны с сотнями аварий, десятками смертей и несколькими крупными расследованиями.

Ключевые скандалы и инциденты
- 2016 год — первая смерть: В мае в Флориде Model S на Autopilot врезалась в тягач, не распознав белый прицеп на фоне яркого неба. Водитель Джошуа Браун погиб. NHTSA открыла первое расследование, но закрыла его, не найдя дефекта системы, хотя рекомендовала улучшения.
- 2018 год — серия аварий: В Калифорнии Model X на Autopilot врезалась в разделительный барьер, водитель Уолтер Хуанг погиб (играл в телефон). В том же году в Юте и Флориде — столкновения с припаркованными машинами экстренных служб.
- 2019–2021 годы — волна смертей: NHTSA зафиксировала 11 смертей, связанных с Autopilot, когда машины врезались в стоящие пожарные или полицейские авто с мигалками. Один из самых резонансных — 2021 год, Техас: Model Y врезалась в дерево, два пассажира погибли в пожаре.
- 2023–2024 годы — эскалация: Более 20 смертей за два года. В 2024 году в Сиэтле Model S на FSD врезалась в мотоциклиста, водитель погиб. В Калифорнии — авария с пешеходом. Tesla отозвала более 2 млн автомобилей для обновления ПО Autopilot после расследования NHTSA.
- 2025 год — новые случаи: В ноябре в Аризоне Model 3 на FSD врезалась в школьный автобус, пострадали дети. В декабре — ещё два инцидента с пожарными машинами. Общее число аварий с участием Autopilot/FSD превысило 1000 по данным NHTSA.
Регуляторные последствия
- NHTSA: С 2021 года ведёт два крупных расследования (ODI и Defect Petition). В 2024 году потребовала от Tesla данные о 1 млн автомобилей. В октябре 2025 года — новый отзыв 362 тыс. машин из-за риска проезда на красный свет в FSD Beta.
- DOJ (Минюст США): С 2022 года уголовное расследование по подозрению в мошенничестве с ценными бумагами — Tesla якобы вводила инвесторов в заблуждение, преувеличивая возможности Autopilot.
- SEC: Штрафы Маску за твиты о «полной автономии».
- Европа и Китай: Ограничения на использование FSD, требования дополнительных тестов.
Позиция Tesla и Маска
Маск неоднократно заявлял: «Autopilot безопаснее человека в 10 раз», ссылаясь на внутреннюю статистику (на 2025 год — 1 авария на 7–10 млн миль против 1 на 670 тыс. миль у обычных водителей). Компания обвиняет водителей в невнимательности: система требует держать руки на руле. Однако критики указывают, что маркетинг («Full Self-Driving») провоцирует злоупотребления.
Текущая ситуация (декабрь 2025)
Tesla продолжает rollout FSD v13 и готовит robotaxi Cybercab, но скандалы не утихают. Более 500 исков от семей погибших, общая сумма требований — миллиарды долларов. Аналитики предупреждают: новые регуляторные ограничения могут затормозить развитие автономного вождения и ударить по акциям компании.
Autopilot остаётся символом амбиций Tesla — и её самой большой уязвимостью. Пока Маск обещает «полную автономию уже скоро», семьи жертв и регуляторы требуют ответственности за каждую потерянную жизнь.