Крошечные красные наклейки смогли обмануть программное обеспечение Tesla Autopilot

Обещание автономных транспортных средств включает в себя идею о том, что автомобили с роботами-пилотами у руля смогут обеспечить нам безопасность. Чем больше автомобилей едет по дороге, тем меньше вероятность возникновения ошибки, вызванной человеком. Конечно, если эти автономные системы страдают от собственных проблем, то они просто подвергают нас риску другими способами. Исследователи из Tencent Keen Security Lab недавно опубликовали статью, в которой показаны некоторые недостатки технологии самостоятельного вождения, в частности, программного обеспечения, используемого в автопилоте Tesla.

Крошечные красные наклейки смогли обмануть программное обеспечение Tesla Autopilot

Самая тревожная атака, отмеченная в газете, была одной из самых простых в исполнении. Согласно документу, исследователи смогли обмануть функцию автопилота Теслы в смене полос движения и потерять свое положение на дороге, добавив шум к разметке полосы движения. В одном случае на земле были размещены маленькие красные наклейки, чтобы поверить транспортному средству в необходимость смены полосы движения. Атака может заставить транспортное средство в полосу встречного движения. Атака сработала при дневном свете и не требовала каких-либо помех, таких как снег или дождь, которые могли бы усложнить систему автопилота для обработки дороги.

Некоторые из взломов, обнаруженных экспертами по безопасности, похожи на фильмы. В одном примере, минуя несколько уровней защиты, предназначенных для защиты от злоумышленников, исследователи смогли написать приложение, которое позволило бы им взломать функции рулевого управления Tesla. С помощью приложения злоумышленник может использовать контроллер видеоигры или смартфон для управления транспортным средством. Команды отменяют системы автопилота Tesla, а также сам руль. Атака имела некоторые ограничения на автомобили, которые недавно переключились с заднего хода на вождение, но могли полностью захватить автомобиль в парке или в круиз-контроле.

«Этот тип атаки прост в развертывании, а материалы легко получить». пишут исследователи. «Наши эксперименты доказали, что в этой архитектуре есть риски для безопасности, и распознавание обратных полос является одной из необходимых функций для автономного движения по незамкнутым дорогам. В сцене, которую мы строим, если транспортное средство знает, что фальшивая полоса указывает на обратную полосу, она должна игнорировать эту фальшивую полосу, и тогда она может избежать дорожно-транспортного происшествия ».

Исследователи безопасности в Tencent Keen Security Lab сообщили Тесле о проблемах, а Тесла сообщила, что проблемы были устранены в последних обновлениях безопасности.

Читайте