report

L’AI Generativa regina fra le tendenze degli ultimi anni: +700% nelle ricerche Google



Indirizzo copiato

Secondo il McKinsey Technology Trends Outlook 2024, l’AI generativa ha registrato un notevole incremento nelle offerte di lavoro e negli investimenti. La dimensione dei prompt che i grandi modelli linguistici (LLM) possono elaborare – le “finestre di contesto” – è aumentata da 100mila a 2 milioni di token

Pubblicato il 17 lug 2024



McKinsey Technology Trends Outlook 2024

L’intelligenza artificiale generativa (gen AI) è stata una tendenza di spicco dal 2022, con l’incredibile aumento dell’interesse e degli investimenti in questa tecnologia che ha sbloccato possibilità innovative in tendenze interconnesse come la robotica e la realtà immersiva. Lo afferma il McKinsey Technology Trends Outlook 2024, pubblicato a luglio.

Nonostante le difficili condizioni generali del mercato nel 2023, i continui investimenti in tecnologie di frontiera promettono una crescita sostanziale nell’adozione da parte delle imprese in futuro. Sebbene l’ambiente macroeconomico con tassi di interesse elevati abbia influenzato gli investimenti in capitale azionario e le assunzioni, gli indicatori di base – inclusi ottimismo, innovazione e necessità di talenti a lungo termine – riflettono una traiettoria positiva a lungo termine nelle 15 tendenze tecnologiche analizzate.

AI generativa, uno dei due trend di spicco del 2023

I due trend che hanno spiccato nel 2023 sono stati l’AI generativa (gen AI) e l’elettrificazione e le energie rinnovabili. L’AI generativa ha registrato un aumento di quasi il 700% nelle ricerche su Google dal 2022 al 2023, insieme a un notevole incremento nelle offerte di lavoro e negli investimenti.

Il ritmo dell’innovazione tecnologica è stato straordinario. Nel corso del 2023 e del 2024, la dimensione dei prompt che i grandi modelli linguistici (LLM) possono elaborare, noti come “finestre di contesto”, è aumentata da 100mila a 2 milioni di token. Questo equivale grosso modo alla differenza tra aggiungere un articolo di ricerca a un prompt del modello e aggiungere circa 20 romanzi.

E le modalità che l’AI generativa può elaborare hanno continuato ad aumentare, passando dalla sintesi di testi e generazione di immagini a capacità avanzate in video, immagini, audio e testo. Questo ha catalizzato un’ondata di investimenti e innovazione mirati a sviluppare sistemi di calcolo più potenti ed efficienti. I grandi modelli di base che alimentano l’AI generativa, come gli LLM, vengono integrati in vari strumenti software aziendali e vengono utilizzati per scopi diversi come alimentare chatbot rivolti ai clienti, generare campagne pubblicitarie, accelerare la scoperta di farmaci e altro ancora.

McKinsey si attende che questa espansione continui, spingendo i confini delle capacità dell’AI. La consapevolezza dei leader senior sull’innovazione dell’AI generativa ha aumentato l’interesse, gli investimenti e l’innovazione nelle tecnologie AI, come la robotica, che è una nuova aggiunta alla nostra analisi dei trend di quest’anno. I progressi nell’AI stanno inaugurando una nuova era di robot più capaci, stimolando maggiore innovazione e una gamma più ampia di implementazioni.

McKinsey Technology Trends Outlook 2024

Intelligenza artificiale generativa: la tendenza e perché è importante

L’Intelligenza artificiale Generativa (AI Gen) ha compiuto progressi significativi, spingendo i limiti delle capacità delle macchine. I modelli di AI Gen vengono addestrati su vasti e diversificati set di dati. Prendono dati non strutturati, come il testo, come input e producono output unici – anch’essi sotto forma di dati non strutturati – che spaziano dal testo e codice a immagini, musica e modelli 3D.

Nell’ultimo anno, abbiamo assistito a notevoli avanzamenti in questo campo, con modelli di generazione di testo come GPT-4 di OpenAI, Claude di Anthropic e Gemini di Google che producono contenuti che imitano le risposte generate dagli umani, così come con strumenti di generazione di immagini come DALL-E 3 e Midjourney che creano immagini fotorealistiche a partire da descrizioni testuali. Il recente lancio da parte di OpenAI di Sora, un generatore di testo in video, dimostra ulteriormente il potenziale di questa tecnologia. Anche la composizione musicale sta subendo una rivoluzione, con modelli come Suno che creano pezzi originali in vari stili. L’AI Gen ha suscitato un interesse diffuso, con individui e organizzazioni di diverse regioni e settori che esplorano il suo potenziale.

Secondo l’ultimo McKinsey Global Survey sullo stato dell’AI, il 65 percento degli intervistati afferma che le loro organizzazioni utilizzano regolarmente l’AI Gen in almeno una funzione aziendale, rispetto a un terzo dell’anno scorso, e i casi d’uso dell’AI Gen hanno il potenziale di generare un valore annuo compreso tra 2,6 trilioni e 4,4 trilioni di dollari.

Tuttavia, è importante riconoscere i rischi che accompagnano l’uso di questa potente tecnologia, tra cui bias, disinformazione e deepfake. Man mano che progrediamo nel 2024 e oltre, McKinsey prevede che le organizzazioni investiranno nella mitigazione dei rischi, nel modello operativo, nel talento e nelle capacità tecnologiche necessarie per scalare l’AI Gen.

Gli ultimi sviluppi dell’AI Gen

L’AI Generativa è una tendenza in rapida crescita e costante innovazione. Nel suo rapporto annuale, McKinsey individua i recenti sviluppi nei seguenti punti:

  • I modelli generativi multimodali sono in aumento. Man mano che l’AI Generativa continua a evolversi e a guadagnare maggiore attenzione in vari settori, diventa sempre più chiaro che la multimodalità giocherà un ruolo fondamentale. Combinando testo, immagini, suoni e video, i modelli di AI possono generare output applicabili a una vasta gamma di settori e funzioni aziendali. Questa ricerca della multimodalità si sta intensificando tra i principali attori come OpenAI e Google (con la sua app web Lumiere AI). Ad esempio, Gemini di Google mostra un potente sistema multimodale capace di elaborare informazioni in vari formati, inclusi testo, codice, tabelle, immagini e persino audio.
  • I potenti modelli open-source stanno sfidando i loro omologhi closed-source in termini di prestazioni e adozione da parte degli sviluppatori. Mentre gli investimenti significativi stanno incoraggiando lo sviluppo di modelli linguistici proprietari di grandi dimensioni (LLM), come GPT-4 con visione (GPT-4V), la comunità AI sta anche assistendo a un aumento dei modelli open-source, come Llama 3. Questo slancio è alimentato dall’entusiasmo degli sviluppatori e degli utenti che accolgono con favore l’accesso senza precedenti per costruire strumenti innovativi e studiare sistemi complessi. L’accessibilità dei modelli open-source sta attirando una base di sviluppatori in crescita.
  • La finestra di contesto nella elaborazione del linguaggio naturale (NLP) si sta espandendo. Questa espansione consente prompt più lunghi e intelligenti. Ad esempio, all’inizio del 2024, Google ha rilasciato la più grande finestra di contesto sul mercato con Gemini 1.5 Pro, che ha una finestra di contesto standard di 128.000 token, con il potenziale di raggiungere 2 milioni di token. Questa finestra di contesto più grande consente al modello di generare risposte più coerenti e rilevanti dal punto di vista contestuale considerando una quantità maggiore di testo. Tuttavia, l’espansione della dimensione del prompt può paradossalmente portare i modelli a “perdersi nel mezzo,” poiché tendono a concentrarsi su parti specifiche del testo evitando il resto.
  • Gli LLM stanno sempre più venendo integrati in vari strumenti aziendali. Si sta assistendo a un aumento significativo nell’integrazione degli LLM in vari strumenti aziendali. Questo aumento è alimentato dalla crescente domanda di automazione, efficienza, esperienze utente personalizzate e dalla capacità di decifrare modelli complessi che possono portare a intuizioni praticabili. Di conseguenza, un numero crescente di fornitori sta scegliendo di integrare gli LLM nelle loro applicazioni e strumenti. Questa tendenza è particolarmente prominente nei domini del marketing e dell’assistenza clienti, con Salesforce Einstein e ServiceNow che ne sono esempi principali.
  • L’approccio multiagente ha guadagnato notevole trazione con lo sviluppo rapido degli LLM e la continua innovazione. Le aziende ora riconoscono i benefici di impiegare più modelli linguistici che lavorano in armonia piuttosto che fare affidamento su un singolo modello. Questo approccio offre una nuova prospettiva nell’affrontare sfide complesse, sfruttando le capacità di più agenti AI, ciascuno specializzato in diversi domini, per risolvere un singolo problema in modo collaborativo. Lavorando insieme, questi agenti possono non solo accelerare la risoluzione dei problemi, ma anche sfruttare prospettive ed expertise variegate per fornire soluzioni più efficaci ed efficienti. Alcuni degli strumenti che utilizzano questo approccio tendono a essere instabili, ma man mano che i modelli migliorano, il loro throughput dovrebbe aumentare significativamente, rendendoli sempre più rilevanti per il futuro.

Gli sviluppi nell’adozione a livello globale

Molte aziende hanno fatto progressi durante l’anno 2023 nell’adozione della gen AI e attualmente stanno lavorando per scalarla all’interno delle loro attività. Sebbene l’adozione della gen AI sia aumentata in vari settori, il settore della tecnologia, dei media e delle telecomunicazioni si è distinto come leader nell’implementazione della tecnologia. La mancanza di supporto per le lingue locali rappresenta una sfida per l’adozione a livello globale. Alcuni paesi, tra cui India, Giappone e paesi del Medio Oriente, hanno spinto per sviluppare i propri modelli linguistici di grandi dimensioni (LLM).

In Africa, la priorità data alla localizzazione e alla prossimità dei dati ostacola la costruzione di LLM. Recentemente sono stati fatti progressi significativi con l’emergere di modelli multilingue. Le capacità multilingue potrebbero diventare essenziali per qualsiasi LLM, con l’attenzione principale che si sposta sul grado di localizzazione, inclusi l’uso di slang, termini tecnici e altre sfumature.

Dimensioni dell’adozione

La traiettoria di adozione delle tecnologie avanzate varia per ciascuna tecnologia e per ciascun caso d’uso all’interno di quella tecnologia. I progressi lungo le seguenti dimensioni potrebbero consentire di raggiungere il livello successivo di adozione per la Gen AI:

  • un ROI chiaramente definito per casi d’uso orizzontali e verticali diffusi per settore, insieme a una capacità dimostrata di controllare i rischi e garantire la sicurezza con lo sviluppo e l’implementazione di nuove soluzioni di intelligenza artificiale
  • costi computazionali ridotti, insieme al miglioramento delle efficienze complessive dell’AI (ad esempio, miglioramento della latenza).

Casi reali di applicazione della Gen AI

Esempi concreti che coinvolgono l’uso dell’Intelligenza artificiale Generativa:

  • ING, un’istituzione finanziaria globale, ha sfruttato la Gen AI per migliorare il servizio clienti nei Paesi Bassi, uno dei suoi mercati chiave. Mentre l’attuale chatbot classico solitamente risolve il 40-45% delle chat, ciò lascia altri 16.500 clienti a settimana che necessitano di parlare con un agente dal vivo per assistenza. Riconoscendo il potenziale della gen AI, ING ha sviluppato un chatbot personalizzato per fornire assistenza immediata e su misura. Questo ha portato ad aiutare il 20% in più di clienti ad evitare lunghi tempi di attesa e a offrire gratificazione istantanea nelle prime sette settimane di utilizzo rispetto alla soluzione precedente. Si prevede che il chatbot raggiunga 37 milioni di clienti mentre si espande in dieci mercati.
  • Recursion, un’azienda biotecnologica, ha sviluppato una nuova piattaforma di Gen AI e ha addestrato un modello linguistico di grandi dimensioni (LLM) per accelerare la scoperta di farmaci. Questa piattaforma consente agli scienziati di accedere simultaneamente a più modelli di machine learning che possono elaborare grandi quantità di dati biologici e chimici proprietari per risparmiare tempo durante lo sviluppo dei farmaci.
  • Itaú Unibanco, la più grande banca del settore privato in America Latina, ha creato campagne pubblicitarie dedicate alle atlete di calcio femminile utilizzando l’IA. La campagna ha evidenziato una legge brasiliana del 1941 che vietava alle donne di giocare a calcio. Ha utilizzato immagini generate dall’IA da conversazioni con giocatrici reali e storici, tra gli altri, per creare la campagna “Squadre brasiliane che non sono mai esistite”, spianando la strada a una nuova generazione di pubblicità basate sull’AI.
  • Nubank sta sperimentando un assistente virtuale basato su gen AI per potenziare il servizio clienti. L’assistente virtuale si concentra sulla fornitura di opzioni personalizzate relative al credito all’interno dell’ecosistema di Nubank. Aiuta i clienti a comprendere l’uso della loro carta di credito, esplorare opportunità di credito garantito e utilizzare il servizio di pagamento online NuPay senza influire sui loro limiti di credito. Inoltre, potrebbe offrire prestiti personali in base al profilo e all’idoneità del cliente. Per la fase iniziale, questa soluzione innovativa sarà disponibile esclusivamente per i membri di NuCommunity, la piattaforma di coinvolgimento dei clienti di Nubank. L’assistente, sviluppato utilizzando GPT-4 e strumenti proprietari di Nubank, è stato progettato per evolversi e migliorare attraverso interazioni continue con i clienti, garantendo un servizio dinamico e incentrato sul cliente.

Le tecnologie sottostanti alla Gen AI

Molti tipi di software e hardware alimentano la gen AI attraverso l’intero stack tecnologico:

  • Livello applicativo. Tipicamente, questa è l’interfaccia con cui l’utente finale interagisce (ad esempio, chat).
  • Livello di integrazione/strumenti. Situato tra il livello applicativo e il modello di base, questo livello si integra con altri sistemi per recuperare informazioni, filtrare le risposte, salvare input e output, distribuire il lavoro e abilitare nuove funzionalità. Esempi includono il framework di programmazione per grandi modelli linguistici LangChain e database vettoriali come Pinecone e Weaviate.
  • Modelli di base. Sono modelli di deep learning addestrati su grandi quantità di dati non strutturati e non etichettati che possono essere utilizzati per una vasta gamma di compiti direttamente o adattati a compiti specifici attraverso il fine-tuning.
  • Infrastruttura digitale. Implica l’uso dell’astrazione digitale dell’infrastruttura fisica per supportare l’archiviazione dei dati, l’elaborazione e il calcolo. L’astrazione digitale include database (ad esempio, SQL e NoSQL) e servizi tecnici core (ad esempio, calcolo, archiviazione e rete).
  • Infrastruttura fisica. Comprende hardware che consente esigenze di calcolo, archiviazione dati e rete, inclusi data center, chip acceleratori di AI e tecnologie meccaniche, elettriche e idrauliche dei data center.

Gen AI, le incertezze chiave

Le principali incertezze che influenzano l’intelligenza artificiale generativa includono:

  • preoccupazioni riguardanti la sicurezza informatica e la privacy sono rilevanti, in particolare per quanto riguarda i rischi di perdita di dati e le vulnerabilità (inclusi i dati dei clienti e quelli protetti).
  • considerazioni etiche riguardano l’uso responsabile dell’intelligenza artificiale generativa, inclusa la governance dei dati, la giustizia e l’equità, la responsabilità e la spiegabilità.
  • regolamentazione e conformità che potrebbero influenzare la ricerca sull’intelligenza artificiale generativa e le sue potenziali applicazioni.
  • proprietà intellettuale e protezione dei contenuti generati da modelli open-source rimangono una questione irrisolta.
  • impatto ambientale che potrebbe aumentare poiché l’addestramento dei modelli richiede risorse computazionali esponenzialmente maggiori.
  • le imprecisioni sono il rischio più riconosciuto e sperimentato nell’uso dell’intelligenza artificiale generativa, e possono influenzare i casi d’uso lungo tutta la catena del valore dell’intelligenza artificiale generativa.
McKinsey Technology Trends Outlook 2024

Le grandi domande sul futuro

Le aziende e i leader potrebbero voler considerare alcune domande quando si procede con l’intelligenza artificiale generativa:

  • come evolverà il costo della creazione di modelli e come influenzerà le dinamiche competitive?
  • l’adozione aziendale sperimenterà lo stesso livello di crescita esponenziale e monetizzazione visto nell’adozione da parte dei consumatori?
  • come si svilupperà il mercato in termini di soluzioni open-source rispetto a quelle closed-source?
  • come dovrebbero le aziende affrontare i rischi legati all’intelligenza artificiale generativa, inclusi la privacy e la sicurezza dei dati, l’equità, la conformità e la protezione del copyright?
  • quali strategie dovrebbero adottare i decisori politici per affrontare il rischio di ingegneria sociale da soluzioni di modelli linguistici di terze parti?
  • quando i tassi di errore e l’evitamento delle allucinazioni raggiungeranno un livello accettabile per implementazioni su larga scala dell’intelligenza artificiale generativa nei casi d’uso quotidiani?
  • quali lavoratori vedranno cambiare i loro ruoli a causa dell’intelligenza artificiale generativa e in che misura saranno colpiti?
  • Man mano che i progressi tecnologici come i modelli di intelligenza artificiale generativa, gli acceleratori e la capacità di elaborazione continuano a evolversi, quali sono i casi d’uso primari che le aziende dovrebbero prioritizzare e come dovrebbero posizionarsi per essere rilevanti in futuro in termini del loro grado di coinvolgimento, che sia come creatori, utilizzatori o innovatori?
McKinsey Technology Trends Outlook 2024

Intelligenza artificiale applicata

Mentre attraversiamo il 2024, l’impatto delle tecnologie di intelligenza artificiale analitica, comprese le applicazioni di machine learning (ML), visione artificiale e elaborazione del linguaggio naturale (NLP), continua a crescere in tutti i settori. Le aziende stanno utilizzando i dati per ottenere informazioni utili ad automatizzare i processi, trasformare le attività aziendali e prendere decisioni migliori. La ricerca di McKinsey stima che le applicazioni dell’intelligenza artificiale possano sbloccare un valore economico potenziale compreso tra 11 trilioni e 18 trilioni di dollari all’anno.

L’entusiasmo attorno all’intelligenza artificiale generativa (gen AI) ha portato a una crescente consapevolezza del valore potenziale dell’intelligenza artificiale applicata. Nel recente sondaggio globale sullo stato dell’IA nel 2024, il 67 percento degli intervistati ha affermato di aspettarsi che le loro organizzazioni investiranno di più nell’AI nei prossimi tre anni.

Il sondaggio evidenzia che le organizzazioni continuano a vedere ritorni dagli sforzi di AI in vari domini aziendali. Anche i regolatori e i decisori politici stanno prendendo atto dell’impatto crescente dell’AI, con il Parlamento Europeo, ad esempio, che ha approvato il regolamento sull’intelligenza artificiale dell’UE, AI Act.

Tuttavia, il percorso verso l’adozione dell’AI è pieno di sfide e opportunità di apprendimento, come la trasformazione della cultura organizzativa per promuovere collaborazione, fiducia e adattamento a nuovi modi di lavorare; l’acquisizione, l’utilizzo e l’organizzazione di fonti di dati grandi e preziose; e l’interpretazione dei risultati dei modelli per costruire la fiducia degli utenti finali in essi. I leader dovrebbero anticipare sfide come conflitti di governance in tutta l’azienda, data la natura trasversale dell’AI, e la rapida evoluzione del quadro normativo ed etico. Nonostante queste sfide, stabilire protocolli e misure di sicurezza, insieme a una gestione efficace del cambiamento, può aiutare a mitigare i rischi e garantire l’integrazione riuscita dell’AI nelle operazioni aziendali.

McKinsey Technology Trends Outlook 2024

Industrializzazione del machine learning

L’industrializzazione del machine learning (ML), nota anche come operazioni di machine learning (MLOps), è il processo di scalare e mantenere le applicazioni di ML all’interno delle imprese. Nel 2024, gli strumenti di MLOps stanno rapidamente evolvendo, migliorando sia in funzionalità che in interoperabilità. Questi strumenti stanno facilitando la transizione dai progetti pilota a processi aziendali robusti, permettendo la scalabilità delle soluzioni analitiche e migliorando la produttività dei team.

L’industrializzazione di successo del ML può aiutare a sostenere le soluzioni, ridurre i tempi di produzione delle applicazioni di ML di otto-dieci volte e diminuire le risorse di sviluppo fino al 40 percento. Inizialmente introdotto da alcune aziende pioniere, il MLOps sta diventando più ampiamente adottato man mano che più aziende utilizzano l’AI per una gamma più ampia di applicazioni.

L’ascesa dell’intelligenza artificiale generativa (gen AI) ha rimodellato il panorama dell’AI, richiedendo un corrispondente aggiornamento delle capacità di MLOps per rispondere alle sue esigenze uniche. Questo è il campo più recente per nuovi sviluppi nella tendenza dell’industrializzazione del ML. Le operazioni di MLOps e dei modelli di base (FMOps) sono essenziali per industrializzare e scalare la Gen AI in modo sicuro ed efficiente.

Articoli correlati

Articolo 1 di 3