Tesla, come ti aggiro l’autopilot: i consumatori smascherano Musk

Tesla, l’autopilot al centro delle polemiche dopo un incidente mortale. Musk lo difende, ma un esperimento mostra che i controlli non sono sicuri come dice il Ceo.

Tesla autopilot, Model Y
La Model Y, protagonista dell’esperimento dei consumatori (Photo by Craventure Media on Unsplash)

L’autopilot montato sulle Tesla non sarebbe così sicuro come asserisce l’azienda californiana. O meglio, i controlli di sorveglianza non sono rigidi quanto si sperava, ma sono aggirabili tramite qualche accorgimento. Lo dimostra un esperimento condotto da Consumer Reports, che ha di fatto smentito il ceo di Tesla Elon Musk, secondo cui sarebbe impossibile utilizzare la guida assistita senza nessuno al volante.

Il sistema di guida è balzato al centro della cronaca nera dopo che sabato scorso due persone sono rimaste carbonizzate in una Tesla Model S in seguito a un violento scontro con un albero avvenuto in Texas. I soccorritori non hanno trovato traccia del conducente: le due vittime occupavano rispettivamente il sedile del passeggero e una delle sedute posteriori. Una circostanza che ha fatto pensare per esclusione che la macchina fosse governata dall’autopilot.

Musk: “Senza pilota l’autopilot non funziona”. Ma è davvero così?

L’esperimento ha smentito Musk

E così Musk è intervenuto in prima persona per sedare i sospetti: l’autopilot di Tesla è progettato per non entrare in funzione senza nessuno al volante, proprio perché è un assistente di guida e non una guida autonoma. Di conseguenza non ha nulla a che fare con la tragedia della strada in questione. A quanto pare, tuttavia, la versione del plurimiliardario è stata facilmente confutata dall’esperimento. Ecco come.

Consumer Reports è riuscita senza nemmeno tanti sforzi ad aggirare le restrizioni dell’autopilot, riuscendo di fatto a far viaggiare una Tesla senza conducente. L’esperimento è stato condotto a bordo di una Model Y. Il “laboratorio” in cui si è svolto è un circuito privato di meno di un chilometro.

Tesla, autopilot ingannato: ecco come

L’ingegnere capo di Consumer Reports, Jake Fisher, ha avviato l’autovettura e inserito l’autopilot. Quindi ha impostato la velocità a zero tramite la tastiera installata sullo sterzo, di fatto fermando la macchina. Ha poi applicato una catena non troppo pesante sul volante, per simulare la resistenza minima che avrebbero offerto le mani di un guidatore. Dopo di che è scivolato nel sedile del passeggero, perché aprire lo sportello avrebbe disinserito l’autopilot, e finalmente ha fatto ripartire il veicolo sempre regolando la velocità tramite il tastierino digitale del volante.

Bollino rosso dei consumatori: “Controlli di sicurezza chiaramente insufficienti”

Google Pay Bitcoin Tesla investe
Tesla, controlli sicurezza inadeguati sull’autopilot? (Photo by Austin Ramsey on Unsplash)

PROVA UN ALTRO CONTENUTO>>>Stranger Things, nuovo indizio sull’uscita della quarta stagione

Durante il brevissimo tragitto la vettura non si è minimamente accorta non solo che nessuno stesse controllando la strada, ma nemmeno che il sedile di guida fosse vuoto. La stessa casa automobilistica di Musk insiste sul fatto che l’autopilot deve essere costantemente tenuto d’occhio perché non è un pilota automatico. Ma non dispone di tecnologie per assicurarsi che ciò avvenga. “Voglio essere chiaro – sono state le parole di Fisher – usare l’autopilot senza guidatore significa mettere a repentaglio la propria vita e quella degli altri. Abbiamo svolto il nostro test su un circuito privato e in piena sicurezza. È stato decisamente preoccupante vedere come è facile aggirare i controlli di Tesla, che sono chiaramente insufficienti“.

TI POTREBBE INTERESSARE—>Certificato verde in vigore dal 26 aprile: cos’è e come funziona

L’ingegnere ci ha anche tenuto a sottolineare che l’esperimento non può avere una diretta relazione con la tragica fatalità della scorsa settimana: “Non siamo in grado di fornire dettagli in merito all’incidente. Ma questo sistema non è abbastanza affidabile così com’è. La guida assistita commette errori e in presenza di una situazione che non riesce a leggere, si disinserisce. Se in quel momento non c’è una persona pronta a prendere in mano i comandi, l’esito può essere fatale”.

Impostazioni privacy