Infrastrutture

Infrastrutture informatiche, non tutte sono pronte per l’accelerazione dell’AI

Lo rivela l’edizione 2023 della Global Tech Trends Survey (GTTS) di Equinix. Il 42% dei responsabili IT aziendali ritiene che la propria infrastruttura informatica non sia del tutto preparata ad accogliere la crescente adozione dell’AI e il 41% dubita della capacità del proprio team di implementare la tecnologia

Pubblicato il 18 Lug 2023

equinix

Le organizzazioni dispongono delle competenze, dei sistemi e delle infrastrutture necessari per gestire l’enorme impatto che l’AI avrà sui loro modelli operativi? L’edizione 2023 della Global Tech Trends Survey (GTTS) di Equinix ha portato alla luce una chiara risposta: il 42% dei responsabili IT aziendali ritiene che la propria infrastruttura informatica non sia del tutto preparata ad accogliere la crescente adozione dell’AI. Inoltre, il 41% dubita della capacità del proprio team di implementare la tecnologia.

L’avvento di ChatGPT ha portato l’AI generativa a diventare mainstream, spingendo moltissime organizzazioni a concentrarsi sull’accelerazione di iniziative di AI per servire meglio clienti, dipendenti e partner e semplificare al contempo i flussi di lavoro interni.

L’implementazione dell’AI a livello produttivo introduce nuove sfide

I team IT che stanno iniziando a supportare l’uso delle tecnologie AI nelle loro organizzazioni si trovano ad affrontare una serie di sfide completamente nuove in termini di costi, prestazioni, condivisione dei dati, carenze di competenze e sostenibilità.

Partendo dall’ambito economico, una fonte di preoccupazione per le aziende risulta il fatto che, entro la metà di questo decennio, la maggior parte dei dati sarà generata al di fuori del data center. Ad esempio, se i dati sono generati nel cloud, ha senso elaborarli nel cloud.

Tuttavia, se i dati sono generati nell’edge, devono essere archiviati ed elaborati nell’edge. Pertanto, le architetture di intelligenza artificiale centralizzate non sono scalabili in termini di costi e prestazioni; e il costo del backhaul dei dati generati nell’edge e inviati al core può essere proibitivo.

E ancora, sussistono anche sfide legate alla condivisione dei dati, dal momento che, in molti casi, le organizzazioni hanno bisogno di sfruttare dati esterni (ad esempio, dati meteo, dati sul traffico, ecc.) per migliorare l’accuratezza dei loro modelli di AI, obbligandosi quindi a conoscere il percorso dei dati e dei modelli esterni che stanno utilizzando per assicurarsi di non violare le norme di conformità e per proteggersi da dati corrotti manipolati da agenti malintenzionati.

Eppure, una delle maggiori barriere risulta la difficoltà ad assumere lavoratori qualificati nel campo dell’AI, tanto che, nella GTTS, il 45% dei leader IT ha dichiarato che la sfida più grande per le competenze è la velocità di trasformazione del settore tecnologico.

Infine, la sostenibilità: i rack di formazione per l’intelligenza artificiale consumano più di 30 kWatt per rack e il raffreddamento ad aria diventa inefficiente; kWatt più elevati per rack richiedono un raffreddamento a liquido; e la maggior parte dei data center privati (in-house) non sono attrezzati per gestire questi rack per l’AI ad alto consumo energetico.

Una cosa è certa: la creazione di soluzioni di AI scalabili richiederà che le aziende siano in grado di gestire l’ingestione, la condivisione, l’archiviazione e l’elaborazione di serie di dati enormi e diversificate, pur tenendo conto della sostenibilità. Dovranno raggiungere, in altri termini, un’AI di livello produttivo; e, in quest’ottica, la partecipazione a un ecosistema digitale risulterà sempre più fondamentale, aiutando i team dell’infrastruttura IT a superare la complessità dell’AI, a gestire enormi volumi di dati e ad ottenere l’accesso a nuovi partner tecnologici con soluzioni innovative.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3