Взломанная Tesla: Что не так с продвинутым автомобилем Илона Маска

Взломанная Tesla: Что не так с продвинутым автомобилем Илона Маска

03.04.2019 Выкл. Автор Алексей

Беспилотные автомобили уже перестали быть чем-то фантастическим. Начало этому положил, конечно, Илон Маск, но сегодня его детище — уже не единственный пример подобной техники, хотя по-прежнему остается самым передовым. Однако и Tesla успешно обманывают взломщики.

С одной стороны, именно благодаря Tesla мы знаем, что полную безопасность на обычных дорогах машина без живого пилота обеспечить не может. Все дело в разметке, на которую ориентируется «искусственный пилот». Путается он и в полосах движения.

К примеру, отправилась Tesla в путь по серпантину с односторонним движением, на некоторых участках которого есть обочина. От основной части дороги ее отделяет прерывистая линия. Недолго думая, искусственный разум принимает ее за линию, отделяющую правую сторону дороги. А в итоге съезжает на обочину.

Дважды обмануть пилот Tesla смогли специалисты по кибербезопасности из лаборатории Keen Lab. Первый раз они просто нанесли небольшие наклейки на проезжую часть. Машина их восприняла как часть разметки, отклонилась от маршрута и оказалась на встречной полосе.

Телеканал «360» рассказал и о втором случае, когда китайские специалисты «обманули» саму машину. Систему автопилота Tesla Model S они взломали при помощи беспроводного джойстика, несмотря на то что в тот момент автоматическое управление даже не было активировано. Оказалось, что «взять управление на себя» машиной можно с помощью обычного контроллера от Xbox или PlayStation.

Однако в Tesla на все находят оптимистичные ответы. К примеру, в компании считают, что эксперимент с наклейками на асфальте не говорит о серьезной проблеме, ведь водитель всегда может отключить автопилот и взять управление на себя, потому что «он должен быть готов к этому в любое время».

Говоря об управлении с помощью джойстика, в Tesla отметили, что об этой проблеме производитель узнал в прошлом году и тут же ее исправил. А сам Маск даже поблагодарил взломщиков, которые выявили уязвимость.

Загрузка...

Однако такая «уязвимость» обнаруживается в Tesla не в первый раз. Два года назад специалисты из Keen Lab доказали, что автомобилем легко можно управлять посторонний человек. Хакеры смогли даже дистанционно парализовать работу головного устройства автомобиля, а также заставить его резко тормозить, для чего просто нажали кнопку на удаленном компьютере. Кроме того, в ответственный момент, когда Tesla перестраивалась, меняя полосу движения, хакеры умудрились свернуть зеркала заднего обзора.

Даже самый простой по комплектации автомобиль Tesla стоит в России как минимум четыре миллиона рублей. А для того чтобы «взломать машине мозг», достаточно оборудования стоимостью в 40 тысяч рублей. В прошлом году это проверили исследователи из Левенского католического университета (Бельгия). Как выяснилось, у брелоков Tesla по современным меркам очень слабая защита.

В 2018 году владелец Model S показал, как с помощью апельсина можно обмануть автопилот автомобиля, о чем рассказал сайт Gizmodo. Он зафиксировал фрукт на руле и смог проехать около 45 километров. Дело в том, что автопилот Tesla работает, только если водитель держит руки на руле. «Баранка» определяет давление и приложенное к ней усилие, после чего решает, можно ли включать авторуление. Владелец закрепил апельсин, чтобы создать видимость рук на руле, и проехал несколько десятков километров.

Различные уязвимости у Tesla хакеры ищут с завидным упорством. Оно и понятно: за распознанные баги Маск платит довольно крупные суммы. И рассыпается в благодарностях.

Loading...