L’Ai spiegata agli umani
Tesla – e in particolare il suo CEO Elon Musk – non hanno particolari problemi a usare eccessi ed enfatizzazioni quando presentano le capacità di guida autonoma delle proprie autovetture. A conferma di ciò, recentemente l’azienda di Palo Alto ha rilasciato la beta del proprio aggiornamento software “Full Self Driving” che tuttavia full self driving non è.
I vari livelli di guida autonoma
Nel 2016 la SAE (Society of Automobile Engineers) con lo standard J3016 ha definito cinque livelli di guida autonoma (sei, se contiamo il “livello 0” fatto di guida totalmente non-autonoma). Spiegati brevemente, il Livello 1 è considerato un semplice assistente alla guida, come il cruise control o il mantenimento autonomo di una distanza fissa con l’auto che precede. Il Livello 2 consiste in un assistente avanzato, che può prendere il controllo del volante, dell’acceleratore e del freno, ma dove il conducente deve monitorare tutte le attività ed essere in grado di prendere il controllo in qualsiasi momento.
Il Livello 3 è uno spartiacque, perché da questo punto il conducente umano non ha bisogno di monitorare costantemente tutti gli aspetti della guida. Le auto con questo livello sono in grado di monitorare l’ambiente e compiere decisioni autonome come ad esempio sorpassare un’auto più lenta (nota bene: sorpassare, non semplicemente superare). Il conducente umano deve essere sempre in grado di prendere il controllo se necessario. Dal Livello 4 si può iniziare a parlare di auto a guida autonoma come quelle che vediamo nei film di fantascienza: fanno tutto da sole, anche risolvere eventuali problemi, e il conducente non è tenuto a prendere il controllo (ma potrà farlo di sua iniziativa). Diciamo che da questo livello in poi ci si potrà addormentare in auto ed essere accompagnati a casa senza rischi. Unico neo: le auto a questo livello ancora non sono in grado di guidare proprio in tutte le condizioni. Aree urbane troppo difficili, ad esempio, o zone con condizioni meteo spesso avverse sono ancora off-limits.
Il Livello 5 è l’auto senza volante né pedali che può guidare dappertutto, con pioggia, neve e vento, e affrontare qualsiasi problema si possa verificare sulla strada. Come si può immaginare, tali auto sono ancora molto lontane dallo scorrazzare per le nostre vie.
Perché il Full Self Driving non è ancora guida autonoma
Torniamo a Tesla e al suo Full Self-Driving (FSD). Nonostante il nome, si tratta ancora di un Livello 2 poiché necessita di un conducente umano attivo e presente in ogni momento, con la mano sul volante. Ha messo quindi più di una persona in allarme la decisione dell’azienda di rilasciare la beta dell’FSD ai suoi clienti, benché in numero limitato. Laddove prima si potevano vedere Tesla guidare autonomamente solo su autostrade o strade a scorrimento veloce, ora l’aggiornamento FSD consente a diverse Tesla di guidare autonomamente anche dentro i centri abitati. Ne è la prova questo video, dove un utente-vlogger prova la nuova funzionalità all’interno del proprio quartiere.
L’azienda ha avvisato gli utenti che il software è ancora in beta e – detto con parole loro – “potrebbe fare la cosa sbagliata nel momento peggiore“. Non serve molta fantasia per immaginare un’auto a guida autonoma che, facendo “la cosa sbagliata nel momento peggiore”, accelera contro dei pedoni, o accede a una strada contromano, o svolta su un marciapiede. Eventi estremamente improbabili, certo, ma distribuendo l’aggiornamento software a oltre 1 milione di veicoli entro l’anno, la probabilità che una circostanza del genere si verifichi inizia a essere tutt’altro che remota. O detta in altri termini, se un evento molto raro si verifica solo una volta su un milione, attivando l’FSD su un milione di auto è altamente probabile che tale evento si verifichi. Per la cronaca, i dati di Tesla per il Q3 2020 registrano un incidente ogni 4,59 milioni di miglia con l’autopilot (ma non l’FSD) inserito.
Ma se le auto a guida autonoma sono già oggi più sicure di quelle a guida umana, perché tanta prudenza?
Il trattamento riservato negli ultimi anni al riconoscimento facciale ci insegna che la troppa arroganza può portare al rigetto sociale di una data tecnologia di intelligenza artificiale. La persona qualunque, oltre ad avere un’innata diffidenza verso qualsiasi tipo di cambiamento, tende a valutare una innovazione tecnologica in base al grado di utilità e di danno che questa apporterà alla sua vita. I software che riconoscono i volti delle persone potrebbero essere molto utili per la lotta al crimine, ma è bastato usarli ovunque e male, dandoli in mano a chi non sapeva gestirli, per creare un vero e proprio rigetto da parte dei cittadini e, a seguire, di molti politici.
La stessa cosa potrebbe succedere alla guida autonoma, se imposta con la stessa presunzione e tracotanza. Come fa notare il New York Times in un recente articolo, le sperimentazioni di guida autonoma avvengono in ambiti geografici ben delimitati e tutte le aziende che vi lavorano cercano di farlo con piccolissimi passi, proprio perché quando sono in gioco le vite umane c’è poco spazio per la superficialità. Basterebbe davvero poco, ad esempio un paio di incidenti gravi e “giornalisticamente interessanti”, per scatenare reazioni neo-luddiste che potrebbero rallentare l’ascesa di una tecnologia, come la guida autonoma, sicuramente vantaggiosa per noi esseri umani, che ogni anno dobbiamo registrare 1,35 milioni di morti sulle strade di tutto il mondo.
Troppi errori nel rilascio di queste tecnologie sarebbero nocivi per l’intero settore. Da Tesla, che non è estranea a incidenti con vittime, mi aspetterei meno beta-test sulla pelle dei cittadini.