Во вторник Wall Street Journal (WSJ) опубликовал видеоролик, в котором критически рассматривается технология помощи водителю Tesla (NASDAQ:TSLA), уделяя особое внимание "постоянным проблемам", связанным с использованием компанией систем на основе камер.
Видеоролик является частью подробного исследования функции "Автопилот" компании Tesla, в ходе которого выяснилось, что эта технология сыграла значительную роль в ряде столкновений, в том числе с летальным исходом.
В ходе исследования были собраны данные и записи с более чем 200 столкновений, связанных с автопилотом Tesla, показывающие, как программа помощи водителю обрабатывает визуальную информацию с камер Tesla Vision в режиме реального времени.
На видео показан смертельный инцидент, произошедший в мае 2021 года с участием Стивена Хендриксона, который управлял Tesla Model 3 с включенным автопилотом во время поездки на работу. На дороге находился перевернувшийся полуприцеп, который система Tesla не распознала, что привело к аварии на высокой скорости, в результате которой Хендриксон погиб.
"Ошибки, которые допускают эти системы, включают случаи, когда они не были обучены распознавать изображения перевернувшегося полуприцепа. Система просто не понимала, что видит", - говорят специалисты, проанализировавшие видеозапись.
В видеоролике WSJ также отмечаются случаи, когда Autopilot неправильно распознавал огни автомобилей экстренного реагирования, что приводило к столкновениям.
Эксперты утверждают, что аварии, связанные с автономным вождением Tesla, вызваны как проблемами с оборудованием, так и с программным обеспечением, например, задержкой обновлений ПО и неточно настроенными камерами. Хотя эти выводы свидетельствуют о серьезных проблемах с безопасностью, для оценки утверждений Элона Маска о том, что автономное вождение Tesla безопаснее, чем управление автомобилем человеком, могут потребоваться дополнительные независимые исследования.
The Wall Street Journal сравнил отчеты о столкновениях отдельных штатов с национальной базой данных, которую ведет Национальная администрация безопасности дорожного движения (NHTSA), и воссоздал 222 столкновения Tesla. В 44 случаях Tesla с активированным автопилотом "неожиданно изменила направление движения", а в 31 - "не остановилась или не уступила дорогу", причем последний случай стал причиной самых критических аварий.
Эксперты, изучившие видеозаписи столкновений и работу алгоритмов программы Autopilot, отметили, что потребуется время, чтобы научить систему ориентироваться во всех возможных дорожных ситуациях.
Эта статья была подготовлена и переведена с помощью искусственного интеллекта и проверена редактором. Для получения дополнительной информации ознакомьтесь с нашими правилами и условиями.