È passato solo un anno dal lancio di ChatGPT, eppure l’intelligenza artificiale generativa è ormai sulla bocca della maggior parte dei dirigenti aziendali. L’AI generativa è stata quella che George Colony, CEO di Forrester, ha recentemente definito come “la più importante tempesta tecnologica degli ultimi 40 anni”, e i responsabili della tecnologia nella regione EMEA sembrano concordare. L’intelligenza artificiale oggi è una priorità per il 90% dei responsabili delle decisioni in ambito IT, DevOps e progettazione delle piattaforme secondo il report State of Enterprise AI di Vanson Bourne e Nutanix.
Sistemi di AI e ESG, quanto consuma l’intelligenza artificiale
Tuttavia, come per ogni rapido progresso tecnologico, ci si deve interrogare sull’infrastruttura IT esistente e sulla sua capacità di farvi fronte. I sistemi attuali sono davvero all’altezza dell’intelligenza artificiale?
La risposta è no. In primo luogo, c’è un problema di efficienza energetica. Questo è un aspetto che Gartner aveva già sottolineato a gennaio, affermando che entro il 2025 “l’IA consumerà più energia della forza lavoro umana, azzerando la compensazione delle emissioni di carbonio”. Inoltre, il recente studio Growing energy footprint of AI, suggerisce che il settore dell’intelligenza artificiale potrebbe consumare tanta energia quanto una nazione delle dimensioni dei Paesi Bassi entro il 2027.
La necessità di affrontare, o perlomeno di far affrontare, le considerazioni relative alla rendicontazione ESG è stata evidenziata nel report “State of Enterprise AI”. Oggi la maggior parte dell’inferenza e dell’addestramento dei modelli di intelligenza artificiale/machine learning viene eseguita su GPU ad alte prestazioni, supportate da memoria e storage altrettanto performanti. Insieme, queste soluzioni consumano quantità significative di elettricità e richiedono ulteriore energia per il raffreddamento attivo all’interno di un data center privato o pubblico.
Le lacune in termini di competenze di AI e di ESG sono fonte di grande preoccupazione. Oltre il 40% degli intervistati dell’area EMEA dichiara di non avere competenze di AI generativa e prompt engineering e di avere un disperato bisogno di data scientist. Ciò avrà inevitabilmente un impatto sulla capacità delle aziende di soddisfare le aspettative relative ai progetti di AI.
Ciò diventa ancora più evidente se si considerano altri fattori importanti come la gestione dei dati e la scalabilità delle funzionalità di back-office. La carenza di competenze e l’esigenza di modernizzare i sistemi non vanno d’accordo, per cui è importante affrontare il problema delle competenze per far fronte alle continue richieste di cambiamento dell’infrastruttura.
La necessità di gestire l’esecuzione dei carichi di lavoro dell’AI in modo scalabile
L’intelligenza artificiale non farà che aumentare la pressione sui sistemi esistenti, per cui si riconosce sempre più la necessità di affrontare la gestione e il supporto dell’esecuzione dei carichi di lavoro dell’AI in modo scalabile. Per gli intervistati dell’area EMEA questa è la sfida principale per i prossimi due anni, insieme a sicurezza, affidabilità e disaster recovery, in termini di piani strategici per l’intelligenza artificiale.
Modernizzazione dell’infrastruttura e sicurezza dei dati si posizionano prima dei costi (al terz’ultimo posto per le aziende dell’area EMEA che eseguono o prevedono di eseguire carichi di lavoro di AI): si tratta di una chiara indicazione che le aziende riconoscono di dover intervenire sulla loro infrastruttura per trarre realmente vantaggio dall’AI.
Il report conferma inoltre che oltre il 90% degli intervistati EMEA concorda sul fatto che le applicazioni di intelligenza artificiale faranno aumentare i costi IT e la spesa per il cloud. In breve, le aziende dell’area EMEA si dimostrano disposte a spendere per sostenere i loro progetti di AI: la sfida è dove e come spendere in modo oculato.
La sfida: come sviluppare strategie di sicurezza e qualità dei dati per rendere la tecnologia AI più affidabile e resiliente
In sostanza si tratterà di definire le priorità. Se identificare e risolvere le carenze in materia di competenze è un impegno costante, soprattutto quando si tratta di tecnologie emergenti, la modernizzazione dell’infrastruttura è fondamentale. Le applicazioni e i servizi di AI hanno un rapporto simbiotico con i dataset, i modelli e l’infrastruttura alla base e il report mostra che le aziende ne sono perfettamente consapevoli. La sfida è come sviluppare strategie di sicurezza e qualità dei dati per rendere la loro tecnologia di AI il più affidabile e resiliente possibile.
Inevitabilmente, la corsa all’adozione dell’AI generativa porterà a un eccesso di spesa nel breve termine per colmare le lacune di competenze e potenziare l’infrastruttura. Tuttavia, per trarre davvero vantaggio dalla tecnologia, è necessario un piano di modernizzazione a lungo termine, per garantire scalabilità e carichi di lavoro intelligenti che ottimizzino i costi e l’utilizzo di energia. Ciò implica un’implementazione e una gestione efficace dei dati in diversi ambienti (data center, cloud ed edge), poiché ciascuno di essi svolgerà un ruolo fondamentale nel supportare un flusso di lavoro di AI end-to-end.
Le priorità della gestione dei dati
La gestione dei dati deve prendere in considerazione anche sicurezza, qualità dei dati e protezione degli stessi. Visti i requisiti in termini di sovranità dei dati, specialmente nella regione EMEA, questo dovrebbe essere un principio fondamentale di qualsiasi strategia di AI. Naturalmente, è tutto in corso d’opera. Le aziende stanno ancora cercando di capire come utilizzare al meglio l’AI generativa, ma la utilizzeranno. Inevitabilmente, ci saranno coloro che per primi la sperimenteranno, accelerando l’adozione e commettendo errori lungo il percorso, ma per la maggioranza ci sono alcuni elementi fondamentali.
Le infrastrutture esistenti non sono all’altezza. Cederanno sotto la pressione dell’AI, se non fisicamente quasi certamente in termini di capacità e governance. Fortunatamente, a questo proposito, per la maggior parte delle aziende l’AI sarà una maratona, non uno sprint.