ANALISI

Manyika, Google: “Con l’AI i guadagni in produttività non sono garantiti”



Indirizzo copiato

La visione del vicepresidente senior di Google, che figura tra i TIME100 Most Influential People in AI, è che le aziende utilizzino l’AI per aumentare il loro fatturato, non solo per ridurre i costi. “Non si vince tagliando, ma creando output di maggior valore”

Pubblicato il 2 set 2024



Gemini Google

James Manyika, vicepresidente senior di Google per la ricerca, mette in guardia dai facili entusiasmi riguardo l’adozione dell’intelligenza artificiale nelle aziende. “I guadagni di produttività derivanti dall’AI non sono garantiti”, afferma in una intervista pubblicata dal Financial Times. I datori di lavoro devono usare la tecnologia per aumentare il fatturato delle aziende, non solo per ridurre i costi, sostiene.

Sam Altman e la “svolta del 2024”

Durante un panel tenutosi a novembre 2023, il co-fondatore di OpenAI, Sam Altman, aveva previsto che ci sarebbe stata una svolta nell’intelligenza artificiale nel 2024 che nessuno aveva previsto. James Manyika, inserito dal Time nei 100 Most Influential People in AI, è d’accordo.

Questo primo semestre ha soddisfatto le aspettative? La vendita di azioni tecnologiche estive ha riflettuto la sensazione che l’adozione dell’AI richieda più tempo del previsto.

Manyika sottolinea ciò che è stato realizzato. I transformer — la tecnologia alla base dei modelli linguistici di grandi dimensioni — hanno permesso a Google Translate di più che raddoppiare il numero di lingue supportate, portandole a 243. Il chatbot Gemini di Google è in grado di passare senza problemi (almeno in certi contesti) tra testo, foto e video. Permette anche agli utenti di inserire query sempre più complesse.

Ad esempio, durante il tragitto da San Francisco alla Silicon Valley, Manyika sperava di poter ascoltare un riassunto delle ricerche recenti nel suo campo: voleva inserire 100 articoli tecnici in Gemini e poi ascoltare due voci AI che ne discutevano. “Ora posso farlo. Questo è un esempio di una grande svolta”, ha dichiarato.

Ma molti utenti vedono i modelli linguistici di grandi dimensioni come Gemini come curiosità intelligenti, non come tecnologie cruciali per il business. Manyika trascorre davvero il suo tragitto ascoltando voci AI che discutono articoli tecnici? La risposta sembra essere che preferisce ancora i podcast umani.

Come vicepresidente senior di Google per la ricerca, la tecnologia e la società, Manyika deve trovare un equilibrio. Deve spiegare il potenziale trasformativo dell’AI, convincendo al contempo i politici e il pubblico che Google non la sta perseguendo in modo sconsiderato.

Chi è James Manyika

Nato e cresciuto in Zimbabwe, prima di ottenere un dottorato in robotica a Oxford, è un portavoce dei benefici della tecnologia per il mondo in via di sviluppo. Manyika, 59 anni, ha trascorso la sua carriera presso McKinsey, prima di unirsi a Google nel 2022.

“Al momento, tutti, dai miei vecchi colleghi del McKinsey Global Institute a Goldman Sachs, stanno pubblicando questi numeri straordinari sul potenziale economico — nell’ordine dei trilioni — [ma] ci vorranno un sacco di azioni, innovazioni, investimenti, persino politiche abilitanti… I guadagni di produttività non sono garantiti. Ci vorrà molto lavoro”, sostiene Manyika.

I precedenti nella tecnologia

Nel 1987 l’economista Robert Solow osservò che l’era dei computer era visibile ovunque tranne che nelle statistiche sulla produttività. “Potremmo avere una versione di ciò — dove vediamo questa tecnologia ovunque, sui nostri telefoni, in tutti questi chatbot, ma non ha fatto nulla per trasformare l’economia in modo veramente fondamentale”, afferma Manyika.

L’uso dell’AI generativa per redigere codice software non è sufficiente. “Negli Stati Uniti, il settore tecnologico rappresenta circa il 4% della forza lavoro. Anche se l’intero settore tecnologico l’adottasse al 100%, non farebbe differenza dal punto di vista della produttività del lavoro.” La risposta risiede perciò in “settori molto grandi” come la sanità e il commercio al dettaglio.

L’ex primo ministro britannico Tony Blair ha detto che le persone “avranno un’infermiera AI, probabilmente un medico AI, proprio come avranno un tutor AI”. Manyika ne è meno convinto: “Nella maggior parte di quei casi, quelle professioni saranno assistite dall’AI. Non penso che nessuna di quelle occupazioni sarà sostituita dall’AI, non in un futuro concepibile”, dice.

Google's James Manyika on Social Intelligence

Non si vince tagliando i costi ma creando output di valore

Mentre era in McKinsey, Manyika previde che la pandemia avrebbe permesso alle aziende di perseguire la trasformazione digitale: ammette che molte lo hanno fatto “in una direzione di riduzione dei costi”. Ora Manyika concorda sul fatto che i dirigenti siano incentivati a sostituire i lavoratori con l’AI, piuttosto che utilizzare la tecnologia per assisterli.

Come potrebbero i modelli linguistici di grandi dimensioni trasformare la vecchia industria della consulenza gestionale? Manyika enfatizza il potenziale per modelli come Gemini di redigere e riassumere. “Nel mio ruolo, ho team che lavorano su molti progetti: potrei dire, ‘Dammi un aggiornamento sullo stato del progetto Y,‘ e mi darà riassunti da tutti i documenti che sono nella mia email e dalle conversazioni che stiamo avendo.”

Riassumere e redigere sono i compiti che, ad esempio, svolgono i giovani avvocati. Quindi, gli studi legali sono destinati a trasformarsi radicalmente, poiché i giovani non saranno più necessari? Manyika non la pensa esattamente così. La sua visione è che le aziende utilizzino l’AI per aumentare il loro fatturato, non solo per ridurre i costi. “Non si vince tagliando i costi. Si vince creando output più preziosi. Quindi spererei che quegli studi legali pensino, ‘OK, ora abbiamo questa nuova capacità produttiva, quali attività a valore aggiunto aggiuntive dobbiamo fare per capitalizzare su ciò che ora è possibile?’ Quelle saranno le aziende vincenti”, afferma.

Il motore di ricerca di Google ha una posizione dominante?

Il motore di ricerca di Google domina il web — il mese scorso un giudice statunitense ha stabilito che si tratta di un monopolio illegale. Ma molti editori temono che l’AI possa peggiorare le cose.

Google ora risponde a alcune query di ricerca con riassunti AI. I chatbot forniscono una fonte alternativa di informazioni. In entrambi i casi, gli utenti di internet potrebbero trovare ciò di cui hanno bisogno senza cliccare su alcun link — interrompendo così il flusso di entrate pubblicitarie agli editori che hanno fornito le informazioni.

“Ma ti invia anche al sito. Forniamo ancora link in Gemini, giusto?”, afferma Manyika, e indica un’opzione nella risposta di Gemini chiamata “mostra bozze”. Questo è il tentativo di Google di mostrare che il chatbot non produce una “risposta singolare e definitiva” — eseguire la stessa query due volte avrà risultati diversi.

Disincentivare gli utenti dal cliccare sui link sarebbe “un autogol terribile”, dato il modello di business basato sugli annunci di Google, sostiene Manyika. Che paragona la preoccupazione degli editori per il traffico ai timori, quando la ricerca è passata dai desktop agli smartphone, che solo un link sarebbe stato visibile e il resto sarebbe stato ignorato. “Le persone sono comunque andate su tutto il resto, in molti dettagli.”

La domanda più importante è se Google sia stata spinta a lanciare prodotti AI più velocemente di quanto avrebbe voluto, per non rimanere indietro rispetto a OpenAI e agli altri. Al punto da commettere errori marchiani: i riassunti AI di Google hanno consigliato agli utenti, ad esempio, che è salutare mangiare rocce.

L’AI può sbagliare, ma occorre andare avanti

Solo uno su 7 milioni di riassunti AI ha una violazione della politica sui contenuti, come suggerire agli utenti di mangiare rocce, dice Manyika.

“Non sempre faremo le cose giuste. Google ha tenuto in sospeso molte cose. Quando mi sono unito all’azienda, ha scelto di non rilasciare la tecnologia di riconoscimento facciale”, dice. Manyika tralascia volutamente di menzionare che, al contrario, OpenAI ha investito nella scansione dell’iride.

La redazione automatica comporta altri rischi. Otteniamo indizi sulla personalità e competenza di qualcuno dal suo stile di scrittura. Se i chatbot prendono piede, forse non saremo in grado di farlo.

Altro esempio: non è dannoso che, poiché gli studenti usano i chatbot, molti insegnanti non possano più assegnare compiti scritti? “Quante volte pensi che un insegnante che corregge 100 saggi legga ogni saggio dall’inizio alla fine?” risponde. Questo non è esattamente il punto.

Manyika è amico del cantante will.i.am, che “ha fondato una scuola a Compton, un quartiere povero di Los Angeles. Dice che a quei ragazzi è stato promesso per decenni che qualcuno sarebbe andato da loro a insegnare a programmare. Ma non è mai arrivato nessuno. “Ora, quando quegli studenti usano un modello linguistico di grandi dimensioni per redigere codice, è una cosa buona o cattiva?”, si chiede-

Il paradosso apparente è che, proprio nell’era in cui Google ha brillantemente diffuso le informazioni del mondo, il mondo appare più suscettibile alla disinformazione. “Non so se dare la colpa a Google,” dice Manyika. “Forse no, ma sconvolgere il modo in cui otteniamo e elaboriamo le informazioni ha potenzialmente gravi e imprevedibili conseguenze”.

E per finire… il calcolo quantistico

In ultimo, Manyika sposta la conversazione sul calcolo quantistico. “Pensiamo che il calcolo quantistico ci permetterà di costruire l’AI in modo diverso. Rimanete sintonizzati”… ammonisce. “Vedrete alcune notizie importanti sui traguardi entro la fine dell’anno. Ciò che non è ancora accaduto… è che nessuno ha mostrato un calcolo che in linea di principio non si può fare con un computer classico.”

E conclude: “La forza di chi crede nella tecnologia è produrre un nuovo trucco mentre il mondo sta ancora annaspando per valutare il precedente…”.

Articoli correlati

Articolo 1 di 4