Autonomo transportlīdzekļu solījums ietver ideju, ka automašīnas ar robotpilotiem pie stūres spēs nodrošināt mūsu drošību. Jo vairāk uz ceļa ir pašbraucošu automašīnu, jo mazāka ir cilvēku izraisītas kļūdas iespējamība. Protams, ja šīs autonomās sistēmas cieš no savām problēmām, tās vienkārši pakļauj mūs riskam citos veidos. Tencent Keen Security Lab pētnieki nesen publicēja a papīrs kas parāda dažus pašbraukšanas tehnoloģiju trūkumus, jo īpaši tajā izmantoto programmatūru Teslas autopilots.
Satraucošākais uzbrukums, kas izcelts dokumentā, bija viens no vienkāršākajiem izpildāmajiem. Saskaņā ar dokumentu pētnieki varēja piemānīt Tesla Autopilot funkcionalitāti, lai mainītu joslas un zaudētu savu pozīciju uz ceļa, pievienojot joslu marķējumam troksni. Vienā gadījumā uz zemes tika uzliktas mazas, sarkanas uzlīmes, lai transportlīdzeklis uzskatītu, ka ir jāmaina josla. Uzbrukums var piespiest transportlīdzekli pretimbraucošajā satiksmē. Uzbrukums darbojās dienasgaismā, un tam nebija nepieciešami nekādi traucējumi, piemēram, sniegs vai lietus, kas varētu apgrūtināt Autopilota sistēmas ceļu apstrādi.
Ieteiktie videoklipi
Daži drošības ekspertu atklātie uzlauzumi izklausās pēc filmām. Vienā piemērā, apejot vairākus aizsardzības slāņus, kas paredzēti, lai neļautu uzbrucējiem, pētnieki varēja uzrakstīt lietotni, kas ļāva viņiem nolaupīt Tesla stūres funkcionalitāti. Izmantojot lietotni, uzbrucējs var izmantot videospēļu kontrolieri vai viedtālrunis lai vadītu transportlīdzekli. Komandas ignorētu Tesla Autopilota sistēmas, kā arī pašu stūri. Uzbrukumam bija daži ierobežojumi automašīnām, kuras nesen pārslēdzās no atpakaļgaitas uz braukšanu, bet varēja pilnībā pārņemt automašīnu stāvvietā vai kruīza kontroli.
Saistīts
- Elons Masks ierosina, ka autopilots tika izslēgts nāvējošā Teksasas Tesla avārijā
- Kas ir Tesla Autopilots un kā tas darbojas?
- Elons Masks saka, ka "dziļš" Autopilota atjauninājums drīzumā tiks ieviests Teslas
"Šāda veida uzbrukumu ir vienkārši izvietot, un materiālus ir viegli iegūt," rakstīja pētnieki. “Mūsu eksperimenti pierādīja, ka šai arhitektūrai ir drošības riski un reversās joslas atpazīšana ir viena no nepieciešamajām funkcijām autonomai braukšanai pa neslēgtiem ceļiem. Mūsu būvējamajā ainā, ja transportlīdzeklis zina, ka viltus josla norāda uz atpakaļgaitas joslu, tam vajadzētu ignorēt šo viltoto joslu un tad tas varētu izvairīties no ceļu satiksmes negadījuma.
Tencent Keen Security Lab drošības pētnieki informēja Tesla par problēmām, un Tesla ir ziņojusi, ka problēmas ir novērstas jaunākajos drošības ielāpos.
Redaktoru ieteikumi
- Inženieri atklāj, ka Teslas autopilotu var viegli apmānīt
- Braukšana brīvroku režīmā ar Enhanced Super Cruise 2021. gada Cadillac Escalade
- Jaunā Tesla pašpiedziņas programmatūra varētu samazināt vadītāja iejaukšanos par vienu trešdaļu
- Tesla vadītājs, kurš izmanto Autopilotu, tiek turēts aizdomās par DUI pēc ietriekšanās Arizonas policista automašīnā
- Cadillac Super Cruise vs. Tesla autopilots
Uzlabojiet savu dzīvesveiduDigitālās tendences palīdz lasītājiem sekot līdzi steidzīgajai tehnoloģiju pasaulei, izmantojot visas jaunākās ziņas, jautrus produktu apskatus, ieskatu saturošus rakstus un unikālus ieskatus.