03 апреля 2019, 17:32

Хакеры взяли управление Tesla на себя. Продвинутые электромобили взламывали уже много раз

Читать 360tv в

Если вам было интересно, почему автопилот Tesla не приспособлен для движения по московским (и российским) дорогам, то вот отличный пример. Китайцы сумели обмануть искусственный интеллект, просто нанеся на проезжую часть небольшие наклейки, которые машина приняла за разметку и отклонилась от маршрута. И это не первый раз, когда с автопилотом Илона Маска что-то не так.

Беспилотные транспортные средства уже перестают быть загадочным явлением благодаря Илону Маску и его Tesla с автопилотом. Увы, даже передовой производитель машин с авторулением не может гарантировать полную безопасность, которая обязательна на дорогах общего пользования. Наверное, в России у системы автопилота при каждом повороте должен происходить когнитивный диссонанс: на части дорог нет разметки, некоторые полосы начерчены на земле, а совокупность светофоров и резвых водителей может вызвать перегрузку в системе авто. Если взглянуть на электромобили объективно, то ставить крест на Tesla в России пока рано, так как у нас их покупают и вполне успешно ездят.

Реклама

К слову разметке. Мы наверняка знаем, как автопилот Tesla путается в полосах движения. Ниже — длинный ролик, поэтому опишем его вкратце. Tesla едет по серпантину с одной полосой. На некоторых поворотах присутствует обочина, отделенная от основной дороги прерывистой линией разметки. Так вот, автопилот считает, что прерывистая линия разметки — это правая полоса. То есть думает, что на дороге всего две полосы, хотя это не так. В итоге Tesla просто съезжает на обочину, а потом тут же возвращается на полосу, теряя время и задерживая другие машины.

Но теперь вернемся к взломщикам самого успешного электромобиля в истории. Специалисты по кибербезопасности из лаборатории Keen Lab дважды обманули автопилот Tesla. В первом случае технологию запутали с помощью трех небольших наклеек на асфальте, по правой стороне дороги. Машина определила эти предметы как разметку и отклонилась от маршрута, выехав на полосу встречного движения.

Второй эксперимент Keen Lab был направлен не на сенсоры, а на обман самого автомобиля. Тест показал, что систему автопилота Tesla Model S можно взломать с помощью беспроводного джойстика, даже если водитель не активировал автопилот. То есть вполне возможно рулить контроллером от Xbox или PlayStation.

В своем отчете хакеры заявили, что если фальшивая полоса ведет на встречку, то автомобиль должен ее игнорировать, так как только это спасет от ДТП. В то же время в Tesla уверены, что эксперимент с наклейками на асфальте не говорит о серьезной проблеме, ведь водитель всегда может отключить автопилот и взять управление на себя, потому что «он должен быть готов к этому в любое время». Говоря об управлении с помощью джойстика, в Tesla отметили, что об этой проблеме производитель узнал в прошлом году и тут же ее исправил. Кроме того, от клиентов не было жалоб на эту неисправность.

К слову, сам Илон Маск похвалил ребят из Keen Lab.

«Отличная работа от Keen, как обычно».

Ребята из Keen Lab уже не первый раз ищут уязвимости Tesla. В 2016 году программисты провели сессию под названием Free-Fall: Hacking Tesla from Wireless to CAN Bus («Свободное падение: взлом Tesla — от беспроводного соединения до CAN-шины»).

В результате эксперимента выяснилось, что автомобилем Tesla может удаленно управлять посторонний человек. Помимо всяких мелочей вроде открытия люка, складывания сидений, хакеры смогли дистанционно парализовать работу головного устройства. А ведь это очень серьезно, так как все управление осуществляется с помощью этого монитора. Также исследователи смогли заставить машину резко затормозить, просто нажав кнопку на портативном компьютере, который находился в отдаленном офисе компании. К тому же им удалось сложить зеркала в то время, пока машина меняла полосу. В эксперименте были и тесты типа открытия багажника на ходу, что может быть крайне опасно во время движения.

Автомобиль Tesla самой дешевой модели и комплектации в России стоит от четырех миллионов рублей. Например, Model S с минимальным количеством опций обойдется почти в пять миллионов рублей. Исследователи из Левенского католического университета (Бельгия) научились взламывать брелоки от Tesla за несколько секунд, используя оборудование за 40 тысяч рублей. Это произошло в 2018 году, отметило издание Wired.

Хакеры рассказали, что брелоки, поставляющиеся вместе с автомобилем, очень ненадежны и оснащены весьма скудной криптографией и шифрованием. Чтобы открыть или закрыть дверь, брелоки Tesla Model S посылают зашифрованный сигнал радиосистеме авто, однако используют 40-битные шифры. По современным меркам это весьма слабая защита. В итоге исследователи вычислили все возможные ключи для пар кодов и создали таблицу размером шесть гигабайт, в которой содержались все комбинации. После этого нужно было лишь взять ближайший брелок и клонировать его. На все у хакеров ушло 1,6 секунды.

На ролике молодой человек подходит к машине и получает ID целевой системы, после чего приближается к владельцу и воспроизводит сигнал на расстоянии метра от владельца машины с ключом. Брелок отвечает цифровым сигналом. Конечный этап взлома — поиск нужной пары ключей в таблице.

Ребята сообщили о проблеме в Tesla в августе 2017 года, после чего производитель признал свою ошибку и заплатил исследователям 10 тысяч долларов в рамках программы bug bountry — сервиса, который платит людям за обнаружение ошибок и багов.

В 2018 году владелец Model S показал, как с помощью апельсина можно обмануть автопилот автомобиля, о чем рассказал сайт Gizmodo. Он зафиксировал фрукт на руле и смог проехать около 45 километров. Дело в том, что автопилот Tesla работает, только если водитель держит руки на руле. «Баранка» определяет давление и приложенное к ней усилие, после чего решает, можно ли включать авторуление. Владелец закрепил апельсин, чтобы создать видимость рук на руле, и проехал несколько десятков километров.

Были и хакеры другого формата. Джейсон Хьюз, известный специалист по безопасности, уже давно увлекается взломом Tesla. В 2016 году он взял контроль над задним приводом Model S, а в 2017-м заставил машину думать, что у нее 570 лошадиных сил — такие моторы ставят в «заряженные» версии Model S, а у Хьюза была самая простая. В итоге хакер выставил авто на продажу за 150 тысяч долларов — это почти 10 миллионов рублей.

Реклама

Реклама