Хакери могат да накарат колата на Tesla нарочно да се блъсне
Компаниите, които разработват автономни коли твърдят, че това е бъдещето по отношение на сигурността. По време на конференцията Def Con в Лас Вегас обаче, учени показаха как може да се компрометира системата за автоматично управление на Tesla и вместо да заобикаля препятствията по пътя, колата да ги удря.
Специалистите уточняват, че са тествали само поведението на сензорите при спрял автомобил, като са открили начин да ги блокират, без това да се отрази като грешка в системата. Така дори те да засекат препятствие, колата няма да отчете сигнала и няма да предприеме маневра за заобикалянето му.
Разбира се това е само доказателство, че такава възможност съществува, а не цялостно разработен метод за хакерска атака, тъй като все още е необходимо хакерът да бъде сравнително близо до автомобила, за да му въздейства. Демонстрацията е направена с Tesla Model S и теоритично доказва как може дистанционно да бъде предизвикана катастрофа.
Освен това специалистите са открили, че могат да заблудят сензорите и по отношение на разстоянието до даден обект, като ги манипулират да отчитат, че той е по-близо или по-далеч или „заглушат“ обекта чрез свръхнатоварване с шум.
За сега не е ясно дали колата реално би ударила препятствие или човек, но тостовете на софтуерно ниво са категорични, че такава възможност съществува. Учените са накарали автопилота на Tesla да не засече човек на пътя и са го заблудили, че пред колата има препятствие, при положение, че такова няма. Със същия метод са успели да объркат конкурентния софтуер на Audi, Volkswagen и Ford.
За момента Tesla не коментира темата официално. Според Чен Ян, един от откривателите на уязвимостта, компанията е реагирала положително и добронамерено на съобщението за проблема и е започнала работа по отстраняването му.