L’avvenire dell’AI sarà caratterizzato da significativi traguardi che determineranno cambiamenti radicali nel settore. Secondo il “Nutanix State of Enterprise AI Report 2023”, l’intelligenza artificiale sta producendo un impatto significativo sulle strategie e sulle risorse IT.
Sicurezza e affidabilità ai primi posti
Il report, che raccoglie le risposte di oltre 650 responsabili IT, DevOps ed Platform Engineering, evidenzia che per il 90% degli intervistati la sicurezza e l’affidabilità dell’intelligenza artificiale sono tra le principali preoccupazioni e molti stanno progettando di potenziare le funzionalità di protezione e recupero dei dati. Il report mostra anche come l’intelligenza artificiale non sia confinata a un singolo luogo, l’83% degli intervistati, ad esempio, prevede di aumentare i propri investimenti nell’edge AI.
Inoltre, molti ritengono che l’infrastruttura IT attuale non sia progettata per l’intelligenza artificiale, con il 91% degli intervistati che ritiene sia arrivato il momento di modernizzarsi. “Le applicazioni e i servizi basati sull’intelligenza artificiale sono concepiti per le architetture multicloud ibride”, afferma Induprakas Keri, Senior Vice President and General Manager of hybrid multicloud di Nutanix. “Le fasi del flusso di lavoro dell’IA si svolgeranno in diversi ambienti infrastrutturali: l’addestramento all’interno del cloud, il perfezionamento e il training nei principali data center e l’inferenza nell’edge. La realizzazione di un’infrastruttura coesa e scalabile in grado di coprire l’intero workflow dell’IA sarà la chiave per il successo”.
Ecco le principali tendenze identificate da Nutanix nel campo dell’intelligenza artificiale che influenzeranno l’anno appena iniziato.
L’intelligenza artificiale sarà trasformativa
Per comprendere realmente la portata del cambiamento imminente bisogna superare concetti astratti come “rivoluzionario” o “trasformativo” e visualizzare concretamente i risultati finali di una tecnologia che si auto-migliora costantemente attraverso il machine learning. Può sembrare un luogo comune affermare che l’intelligenza artificiale trasformerà le cose, ciò che potrebbe risultare meno ovvio è che probabilmente l’AI sarà utilizzata per realizzare viaggi interstellari.
La gestione dei modelli sarà cruciale
Man mano che i modelli di intelligenza artificiale si moltiplicheranno e si evolveranno, le aziende dovranno garantire che siano aggiornati, sicuri e che funzionino in modo ottimale. È necessaria una gestione efficace dei modelli per assicurare che i sistemi di intelligenza artificiale siano affidabili e in grado di adattarsi ai cambiamenti del settore.
Le aziende si affideranno sempre più al cloud ibrido
L’intelligenza artificiale rappresenta il caso d’uso “definitivo” del cloud ibrido. Si utilizzano i dati pubblici per creare un modello di base ma ciò non è sufficiente per un’azienda. È indispensabile perfezionare e ampliare un modello di base per renderlo adatto al proprio business, e questo può essere fatto solo nel proprio data center, perché nel momento in cui lo si fa con l’infrastruttura as-a-service, si perde il controllo dei propri dati. Inoltre, tutte le inferenze avvengono nell’edge.
Ritorno all’algebra lineare
È tempo di rispolverare i libri di testo perché l’intricato argomento dell’algebra lineare sarà fondamentale per far progredire le applicazioni dell’intelligenza artificiale, così come l’elaborazione del linguaggio naturale e la visione artificiale. Molte operazioni di AI, come ad esempio le trasformazioni, le rotazioni e il ridimensionamento, sono operazioni di algebra lineare. Si è scoperto che numerose operazioni di intelligenza artificiale implicano la moltiplicazione di matrici e vettori: ad esempio le parole possono essere rappresentate come vettori e le immagini come matrici di pixel. Una solida conoscenza dell’algebra lineare aiuterà a comprendere i modelli che tracciano il modo in cui i cambiamenti influiscono sull’output, per eseguire il debug e migliorare i modelli di intelligenza artificiale, e questo è fondamentale per analizzare e interpretare i massicci e complessi set di dati utilizzati nelle applicazioni di intelligenza artificiale.
Le GPU verranno detronizzate
Le unità di elaborazione grafica (GPU) hanno dominato nel mondo del calcolo ad alte prestazioni che alimenta i sistemi di intelligenza artificiale, in particolare per attività che richiedono elaborazione parallela, come il rendering video e il deep learning. Tuttavia, altre tecnologie sono pronte a sfidare le GPU poiché i ricercatori stanno facendo grandi passi avanti nell’utilizzo di Tensor Processing Unit (TPU), Field-Programmable Gate Array (FPGA) e persino di unità di elaborazione centrale (CPU) per scopi generici. Le GPU dunque non regneranno sovrane per sempre, il software aiuterà i sistemi IT a scegliere le risorse di elaborazione più disponibili ed efficienti.
L’infrastruttura “scale-out” sarà indispensabile
A differenza dell’architettura “scale-up”, in cui l’espansione è verticale e comporta l’aggiunta di più potenza su una macchina esistente (ad esempio più CPU), l’infrastruttura “scale-out” è orizzontale e prevede l’aggiunta di più macchine o nodi a una rete per aumentare la capacità. Essendo un’applicazione cloud ibrida – e poiché i modelli devono attraversare l’intero percorso dall’edge al data center, al cloud pubblico – è assolutamente necessario farlo con un’infrastruttura scalabile.