Mancanza di comprensione della tecnologia, carenza di competenze adeguate, cultura aziendale e manageriale riluttante al cambiamento. Sono queste le cause primarie del divario nell’adozione dell’AI in Italia rilevate nel recente white paper di Anitec-Assinform, dal titolo “AI in azione”.
Anitec-Assinform: mercato AI in crescita media annua del 30%
Nonostante ciò, il mercato italiano delle soluzioni di AI è in crescita e si prevede che raggiungerà i 570 milioni di euro nel 2023, con una crescita media annua del 30% che potrebbe portarlo a 1,2 miliardi di euro nel 2026. Tuttavia, l’adozione dell’AI è ancora limitata, soprattutto tra le PMI, mentre i settori bancario, delle telecomunicazioni e dei media sono più attivi negli investimenti. La Pubblica Amministrazione (PA) è invece meno avanzata in questo ambito.
Le imprese si trovano ad affrontare sfide globali senza precedenti, come la sostenibilità e la resilienza delle catene di approvvigionamento, in un mondo post-pandemico. L’evoluzione tecnologica rapida, comprensiva di Internet of Things, Cloud Computing e Quantum Computing, presenta opportunità di business ma richiede anche nuove competenze. L’intelligenza artificiale, specialmente nell’ambito dell’AI Generativa, offre un notevole potenziale, ma in Italia c’è una lacuna tra ciò che la tecnologia può offrire e il suo effettivo utilizzo nell’industria.
Le tecnologie in maggiore ascesa includono l’Elaborazione Intelligente dei Dati (IDP), il Processamento del Linguaggio Naturale (NLP) e la creazione di chatbot.
Nel contesto normativo europeo in fase di definizione, sembra esservi una maggiore attenzione ai potenziali rischi connessi all’AI rispetto alle opportunità che questa tecnologia può offrire. Tuttavia, è cruciale sottolineare le diverse possibilità offerte dall’AI, specialmente per le piccole e medie imprese (PMI), al fine di promuovere una diffusione più ampia e consapevole di questa tecnologia.
A chi si rivolge il white paper e come è suddiviso
Il white paper è pensato per un pubblico che desideri approfondire l’implementazione dell’intelligenza artificiale nei modelli di business aziendali. Esso offre contenuti tecnici accessibili basati sull’esperienza delle aziende ICT in Italia. Inoltre, si rivolge a figure istituzionali e altre parti interessate, con lo scopo di fornire prospettive sull’AI e sul suo impatto sull’economia e la società, al fine di assistere i decisori pubblici a comprendere meglio questa tecnologia.
Il white paper è diviso in quattro sezioni.
- prima: mette in evidenza l’importanza delle fonti di dati nello sviluppo dell’AI e come queste possano generare valore.
- Seconda: offre informazioni sulle dinamiche del mercato dell’AI in Italia.
- Terza: raccoglie le migliori pratiche e casi di studio da numerose aziende associate ad Anitec-Assinform.
- Quarta: presenta scenari di applicazione dell’AI in vari settori verticali.
In questo articolo ci occupiamo della prima e della seconda sezione.
La terza e quarta sezione sono trattate in un altro articolo.
Questa struttura consente ai lettori di ottenere una visione completa sull’AI, comprendendo i suoi fondamenti tecnologici, l’analisi del mercato italiano, esempi concreti di utilizzo e potenziali scenari futuri in diversi settori.
Di seguito una sintesi della prima e seconda sezione.
White paper “AI in azione”: prima sezione
Dati e AI come gestirli e sfruttarli al meglio – Le aziende hanno a disposizione una quantità sempre maggiore di dati, sia generati internamente che derivanti dalle interazioni esterne, ma la maggior parte di essi non viene sfruttata. Le stime indicano che tra il 60% e il 95% dei dati disponibili non viene utilizzato. Questo accade a causa della mancata percezione dell’utilità dei dati e delle difficoltà oggettive nel loro utilizzo.
Inoltre, i dati spesso vengono considerati come un sottoprodotto di un processo e il loro valore si esaurisce all’interno di tale processo. Tuttavia, i dati potrebbero essere utilizzati per analisi più approfondite e per generare azioni correttive.
Ancora, le diverse fonti di dati producono formati diversi che non sono pensati per usi diversi da quelli per cui sono stati generati. Iniziative come Gaia-X e i Common European Data Spaces mirano a promuovere la creazione di “spazi dati” che possano essere utilizzati da diversi attori per scopi diversi, garantendo al contempo la proprietà e la riservatezza necessarie.
È importante che le aziende, soprattutto le PMI, identifichino tutti i dati di cui dispongono, sia generati internamente che acquisiti durante le interazioni con altri attori nella catena del valore, e si impegnino a sfruttarli. L’AI rappresenta uno strumento potente per raggiungere questo obiettivo.
Data governance e sorgenti di dati – I dati sono considerati l’asset fondamentale per progettare e addestrare l’intelligenza artificiale. Negli ultimi anni, la consapevolezza di questa risorsa è cresciuta rapidamente, attirando l’attenzione di diverse parti interessate, tra cui la Commissione Europea che ha definito politiche specifiche per l’economia dei dati.
L’azione principale chiamata European Data Governance comprende misure regolamentari come il Data Governance Act, già in vigore, e altre in fase di pubblicazione come l’AI Act, che probabilmente sarà adottato entro la fine del 2023 o nel primo semestre del 2024 e avrà effetto dal 2025-26. Ora, l’attenzione di tutti gli attori si sta spostando verso la strategicità dei dati. Il concetto di “accesso ai dati” o “neutralità di accesso ai dati” è diventato un elemento cruciale per le imprese europee che desiderano essere protagonisti nell’economia dei dati, specialmente per le startup e le imprese innovative. Di fatto, i dati, in tutte le loro forme, sono indispensabili per lo sviluppo di nuove imprese su qualsiasi mercato.
È importante sottolineare che l’Europa sta cercando di creare un’industria dei dati, anche se con un certo ritardo rispetto ad altre regioni. Questo sforzo mira a differenziare l’Europa non solo come un mercato, ma come un protagonista con una propria filiera ed ecosistema nell’economia dei dati.
L’obiettivo è quello di sviluppare una base solida per l’elaborazione, la gestione e l’utilizzo dei dati, al fine di promuovere l’innovazione e la competitività delle imprese europee. Questa iniziativa è fondamentale per consentire all’Europa di sfruttare appieno le opportunità offerte dai dati e di essere protagonista nel panorama globale dell’economia dei dati.
Fonte immagine WHITE PAPER AI IN AZIONE
Rappresentazione schematica dei Data Spaces, obiettivo di standardizzazione da parte della EU per favorire lo sfruttamento dei dati da parte delle imprese. Nella parte superiore le diverse aree applicative a cui deve corrispondere un data space. Nella parte inferiore è schematizzata l’architettura di interscambio dei dati.
CAD Computer Aided Design – I dati del CAD forniscono un modello statico di un’entità, ma vengono utilizzati per simulare il suo comportamento e generano ulteriori dati. Il CAD fornisce anche librerie di componenti predefinite per simulazioni, e il modello CAD è la base per creare un digital twin dell’entità.
BIM (Building Information Modelling) – Il Building Information Modeling (BIM) è una metodologia di progettazione adottata nel settore dell’Architettura, Ingegneria e Costruzioni (AEC) che consente di progettare un’opera e tracciare la sua evoluzione in ogni fase del ciclo di vita. Il BIM rappresenta un’evoluzione rispetto al tradizionale metodo di progettazione basato su elaborati bidimensionali CAD.
Il BIM consente di progettare e monitorare l’evoluzione di un’opera nel settore AEC. È nato come risposta ai problemi di produttività e inefficienze del settore, e la sua adozione è stata resa obbligatoria per gli appalti pubblici in Italia. Il BIM permette una progettazione integrata e una migliore collaborazione tra gli attori coinvolti, riducendo i rischi di progetto.
Internet delle cose (IoT) – È ampiamente diffuso nelle aziende e comprende sensori che rilevano dati trasmissibili tramite reti. Questi dati vengono utilizzati principalmente per il monitoraggio e la rilevazione di anomalie. L’AI può analizzare questi dati per offrire previsioni e miglioramenti nelle operazioni, inclusa la manutenzione preventiva. Inoltre, l’AI può personalizzare i servizi ai clienti finali e ottimizzare i prodotti e i processi. L’evoluzione dell’IoT comporta una maggiore generazione ed elaborazione dati, ma l’AI contribuisce anche alla sicurezza dei dati, rilevando potenziali minacce e alterazioni.
Metadati – I metadati derivano da complesse elaborazioni di dati IoT e processi, arricchendo i dati grezzi con contesto e significato. Questi dati aggiuntivi sono fondamentali per gestire, organizzare e utilizzare i dati in modo migliore, migliorandone la comprensione e l’accessibilità. Inoltre, i metadati possono essere condivisi tramite un framework OpenData, promuovendo la creazione di valore condiviso tra aziende. Questa condivisione preserva la privacy e la confidenzialità dei dati, ma favorisce anche la realizzazione di dati “F.A.I.R.” (trovabili, accessibili, interoperabili, riutilizzabili) e fornisce una semantica comune tra diverse fonti di dati.
L’AI ha un ruolo cruciale sia nella generazione che nella valorizzazione dei metadati. Le etichette, ad esempio, sono un tipo importante di metadato che classifica i dati all’interno di un dataset. Nell’apprendimento automatico, le etichette sono utilizzate per classificare dati come immagini in categorie, fornendo informazioni strutturate sui dati grezzi. L’AI può generare metadati in vari modi, tra cui: estrazione di caratteristiche, categorizzazione automatica, generazione di descrizioni e predizione di metadati mancanti e valutazione della qualità dei dati.
Dati sintetici – I dati sintetici, generati in modo algoritmico senza collegamenti a individui reali, stanno diventando fondamentali per il successo dei progetti di intelligenza artificiale e analisi dati. L’AI generativa crea dati sintetici altamente realistici, replicando i pattern statistici da dataset reali. Questi dati possono sostituire quelli reali in diverse applicazioni, compresi il business intelligence, i test software, le demo di prodotti e lo sviluppo di modelli di intelligenza artificiale.
I dati sintetici permettono alle organizzazioni di sfruttare i dati in modo sicuro, colmando eventuali lacune attraverso l’incremento dei dati. Vantaggi chiave includono: la riduzione di costi e tempi, accesso a dati completi, protezione della privacy, maggiore disponibilità dati e flessibilità nella creazione di dati desiderati.
Le aziende possono utilizzare dati sintetici per addestrare algoritmi e modelli di intelligenza artificiale personalizzati. Inoltre, potrebbero essere una fonte di reddito, consentendo alle aziende di generare e vendere dati sintetici ad altre organizzazioni.
Trattamento dei dati – Di seguito i vari ambiti.
- Cloud – Il paradigma del Cloud computing rappresenta l’approccio principale per fornire le tecnologie necessarie alle applicazioni basate sull’intelligenza artificiale (AI), garantendo sicurezza, controllo e trasparenza. Questo approccio copre l’infrastruttura, la piattaforma e le applicazioni per supportare l’AI. Strumenti addizionali sono disponibili per lo sviluppo, l’ottimizzazione, la distribuzione, il controllo e la conformità delle applicazioni AI. Nel complesso, il Cloud computing fornisce un’infrastruttura solida e strumenti per sfruttare in modo sicuro e conforme l’AI nelle applicazioni aziendali.
Le soluzioni Cloud per l’AI offrono una vasta gamma di servizi per il “AI journey”, ovvero il percorso per ottenere un vantaggio competitivo tramite l’AI, compresi l’automazione, l’ottimizzazione IT, il lavoro digitale, la cybersecurity e la gestione dei modelli di machine learning.
I servizi Cloud nell’ambito dell’AI coprono varie aree applicative, tra cui: piattaforme di sviluppo agili, servizi di conversazione, servizi di ricerca/analisi/scoperta e computer vision. Questi servizi facilitano lo sviluppo e l’implementazione di soluzioni basate sull’AI.
È doveroso evidenziare che, oltre ai servizi specifici per l’AI, esistono altre tecnologie abilitanti quali: database, object storage e servizi di computazione serverless disponibili nel Cloud.
Un aspetto importante da considerare è la possibilità di adottare un approccio ibrido, che combina ambienti Cloud pubblici o Multi-Cloud con ambienti on-premises. Questo offre scalabilità, accesso a risorse specializzate e la possibilità di mantenere dati sensibili in ambienti privati.
Di fatto, l’integrazione di ambienti Cloud ibridi può essere realizzata in diverse modalità, consentendo di sfruttare la soluzione migliore in base alle esigenze specifiche dell’applicazione.
L’intelligenza artificiale presenta sfide significative per la sicurezza e la protezione dei dati, sia durante il funzionamento normale che durante la fase di apprendimento e sviluppo.
La sicurezza dei dati in ambienti informatici, compresi quelli legati all’AI, si basa su tre principi chiave: confidenzialità, integrità e disponibilità. Questi principi assicurano che i dati siano accessibili solo a chi ne ha diritto, che non vengano alterati o danneggiati da terzi, e che siano sempre disponibili per chi ne ha bisogno.
Considerando che l’AI utilizza dati personali o sensibili – i.e. informazioni sulla salute o preferenze delle persone – sia durante il suo apprendimento sia durante il funzionamento, la sicurezza di questi dati è cruciale, poiché sono soggetti alle leggi sulla protezione dei dati europee e nazionali.
Le sfide principali per la sicurezza dei dati nei sistemi di intelligenza artificiale comprendono la necessità di mantenere l’integrità dei dati utilizzati nell’addestramento e nei test, mitigare i rischi di violazione o manipolazione dei dati dovuti a errori umani o attacchi informatici e assicurare la sicurezza durante l’intero ciclo di vita dei sistemi di AI. Queste sfide sono ancora più significative in Italia, dove si è riscontrata un incremento degli attacchi informatici.
Inoltre, per affrontare le sfide della sicurezza nell’ambito dell’AI, è necessario adottare un approccio specifico alla sicurezza dell’AI. Ovvero, è fondamentale rafforzare le capacità di difesa e reazione alle minacce informatiche che possono compromettere l’integrità, la disponibilità e la confidenzialità dei dati utilizzati nei sistemi di AI. A tal fine, sono consigliate le seguenti azioni:
- Effettuare una valutazione approfondita delle minacce (Threat Modeling) per identificare preventivamente potenziali incidenti di sicurezza e indirizzarli con controlli di sicurezza dedicati.
- Adottare misure tecniche e organizzative adeguate a prevenire e contrastare gli attacchi informatici, quali: la cifratura dei dati, la segmentazione delle reti, l’autenticazione multifattoriale, il backup dei dati, la gestione degli accessi e degli incidenti.
- Seguire le migliori pratiche e gli standard internazionali di cybersecurity, quali quelli proposti dall’European Union Agency for Cybersecurity (ENISA), dal National Institute of Standards and Technology (NIST) o dalla Cybersecurity and Infrastructure Security Agency (CISA) degli Stati Uniti.
- Formare e sensibilizzare il personale e gli utenti sui rischi e le responsabilità legati all’utilizzo dell’AI e sulle misure di prevenzione e protezione da adottare.
- Monitorare e valutare costantemente le performance e gli impatti dei sistemi di AI, prestando particolare attenzione alla gestione degli errori, delle anomalie e delle vulnerabilità.
- Quantum – rappresenta l’ultima evoluzione del paradigma computazionale. L’uso dei computer quantistici nel campo dell’AI presenta molteplici ambiti promettenti. Alcuni di questi includono:
- Ottimizzazione del training dei modelli: l’approccio quantistico può migliorare l’accuratezza e velocizzare il processo di addestramento dei modelli, superando i limiti dell’AI classica.
- Riconoscimento di pattern: i computer quantistici possono identificare strutture complesse all’interno dei dati, aumentando l’accuratezza nella classificazione.
- Intercettazione delle frodi: l’AI basata su quantum computing può migliorare l’efficacia nella rilevazione e prevenzione delle frodi.
- Studio e previsione di comportamenti chimico/fisici: l’approccio quantistico può essere utilizzato per la scoperta e la sintetizzazione di medicinali, nonché per la comprensione di fenomeni chimici e fisici complessi.
Altri ambiti promettenti includono la diagnosi medica, dove l’AI quantistica può migliorare l’accuratezza nella classificazione delle immagini mediche, e lo studio del ripiegamento delle proteine per lo sviluppo di medicinali più efficaci.
Inoltre, il quantum machine learning può essere utilizzato per la gestione delle interruzioni di forniture, migliorando la pianificazione e la predizione degli impatti di eventi globali. Inoltre, l’utilizzo dei computer quantistici nell’AI offre nuove opportunità per migliorare l’efficacia e l’efficienza dei modelli, superando le limitazioni dell’AI classica.
Secondo le stime di IBM (IBM Quantum Computing | Roadmap), entro il 2025, potrebbero essere sviluppati i primi prototipi di applicazioni quantum machine learning vantaggiose. Questo progresso dipenderà dallo sviluppo dell’hardware quantistico, inclusi il numero di qubit, la qualità e la velocità dei processori, nonché dalle componenti software di base come la mitigazione/soppressione/correzione degli errori e dagli algoritmi migliorati.
Si consiglia, per iniziare ad esplorare il mondo del quantum computing applicato all’AI, partendo dai framework di sviluppo open-source che offrono librerie, applicazioni e specifiche aree dedicate al machine learning quantistico. Ad esempio, Qiskit Machine Learning (Qiskit Machine Learning overview — Qiskit Machine Learning 0.6.1 documentation ) è un framework che fornisce una serie di tutorial su reti neurali quantistiche, reti neurali convoluzionali quantistiche, classificatori e regressori quantistici, nonché sul training, salvataggio e caricamento dei modelli quantistici. Sfruttando tali risorse, è possibile iniziare ad approfondire le conoscenze e ad acquisire familiarità con gli strumenti e le tecniche del quantum computing applicato all’AI.
- Profili di privacy e regolazione – L’implementazione dell’AI solleva importanti questioni etiche, tecnologiche e legali, in particolare per quanto riguarda la tutela della privacy e dei dati personali. Queste questioni hanno portato a dibattiti intensi e attività normative a livello europeo, incluso il Regolamento sull’Intelligenza Artificiale (AI ACT) di prossima pubblicazione.
È doveroso sottolineare come l’intervento dell’Autorità italiana per la protezione dei dati personali, nel caso di Chat GPT, dimostri ulteriormente l’importanza di rispettare le norme sulla privacy e le leggi sulla protezione dei dati per le imprese operanti nell’AI. Pertanto, queste imprese dovranno sempre più tener conto degli aspetti legali dell’AI e cercare di equilibrare il loro business con le normative vigenti.
- Leverage sui dati – La sezione è articolata in analytics, Digital Twin, GAN (Generative Adversial Networks) e Machine learning operations (MLOps).
- Analytics – L’analisi dei dati è un elemento cruciale per le aziende poiché consente di trarre valore da grandi quantità di dati provenienti da varie fonti. L’archiviazione di questi dati, noti come Big Data, è essenziale per supportare l’analisi statistica. Ci sono diverse tipologie di analisi dei dati:
- Analisi descrittiva – Essa si concentra sull’esplorazione e sulla descrizione dei dati esistenti. Utilizza strumenti statistici per riepilogare e visualizzare i dati attraverso grafici, tabelle e indicatori statistici. L’obiettivo principale è ottenere una panoramica completa dei dati e rispondere a domande sulle loro caratteristiche.
- Analisi diagnostica – Essa mira a identificare le cause o i fattori che hanno portato a risultati o comportamenti specifici nei dati. Cerca di comprendere le relazioni causali tra le variabili e fornisce spiegazioni sul perché si è verificato un determinato evento. Questo tipo di analisi utilizza modelli, algoritmi e tecniche avanzate per individuare i fattori chiave che influenzano un fenomeno specifico.
- Analisi predittiva – Essa utilizza algoritmi di machine learning e deep learning per fare previsioni basate sui dati storici. L’obiettivo è prevedere il comportamento futuro di un fenomeno statistico, come il churn dei clienti o la domanda di prodotti. Si rispondono a domande come “Questo cliente ci lascerà in futuro?” o “Qual sarà la domanda di questo prodotto nel prossimo mese?”
- Analisi prescrittiva – Essa si concentra sulla previsione del futuro e fornisce raccomandazioni per guidare le decisioni aziendali. Utilizza algoritmi avanzati, modelli predittivi e tecniche di ottimizzazione per determinare le azioni ottimali basate su scenari specifici o obiettivi aziendali. Fornisce raccomandazioni basate sui dati per migliorare le decisioni aziendali, ottimizzare le risorse e massimizzare i risultati desiderati, ad esempio nell’ottimizzazione della catena di approvvigionamento per ridurre i costi.
Questi tipi di analisi dei dati consentono alle aziende di ottenere una comprensione approfondita dei propri dati e di prendere decisioni informate per migliorare l’efficienza e la competitività.
L’analisi dei dati svolge un ruolo fondamentale nelle decisioni aziendali e nella formulazione di strategie. Di fatto, le organizzazioni, integrando approcci di analisi descrittiva, diagnostica, predittiva e prescrittiva, possono ottenere una visione completa dei dati. Questo approccio consente loro di prendere decisioni ben informate e sviluppare strategie più efficaci.
Indipendentemente dall’approccio utilizzato, l’utilizzo strategico dei dati è essenziale per: guidare le decisioni aziendali, migliorare le prestazioni e acquisire un vantaggio competitivo.
L’analisi dei dati consente alle aziende di identificare tendenze, cogliere opportunità e adattarsi in modo flessibile alle mutevoli esigenze del mercato. Ogni tipo di analisi risolve un problema specifico e diventa più complesso man mano che si passa da un tipo all’altro.
Fonte WHITE PAPER IA IN CORSA – Analytics, difficoltà e valore
- Digital Twin – Il Digital Twin è una rappresentazione digitale di un elemento reale, come un prodotto, un processo o un’infrastruttura. È composto da tre elementi:
- Modello digitale – Esso rappresenta la struttura e le caratteristiche dell’elemento reale.
- Ombra digitale – Sono i dati che rappresentano lo stato del gemello fisico in un determinato istante
- Storia digitale – Sono i dati raccolti nel tempo che riguardano i componenti, la supply chain, l’utilizzo e la manutenzione dell’elemento reale.
Il Digital Twin permette di monitorare, interagire e simulare il funzionamento dell’elemento reale. Inoltre, consente l’interazione con altri Digital Twin che rappresentano altri elementi del mondo reale.
È doveroso evidenziare che la tecnologia dei Digital Twin – nata oltre 15 anni fa e ampiamente utilizzata nell’industria manifatturiera – continua a evolversi e sono stati identificati cinque stadi di evoluzione:
- Primo stadio: riguarda la semplice rappresentazione di un elemento fisico tramite modelli digitali, arricchiti con software e dati per consentire simulazioni.
- Secondo stadio: il Digital Twin affianca l’elemento fisico ma senza una connessione diretta, utilizzando dati esterni per formare la digital shadow e visualizzare aspetti specifici.
- Terzo stadio: il Digital Twin affianca l’elemento fisico tramite l’acquisizione di dati in tempo reale o quasi reale da sensori IoT, consentendo il monitoraggio dell’elemento fisico. In questa fase è possibile utilizzare l’AI in combinazione con un Digital Twin per effettuare simulazioni e analisi “what-if”
- Quarto stadio: il Digital Twin è in grado di svolgere alcune funzionalità che complementano quelle dell’elemento fisico; tuttavia, una perdita di connessione può ridurre le funzionalità offerte.
- Quinto stadio: il Digital Twin diventa autonomo e può svolgere attività per conto dell’elemento fisico, come comunicare con altri Digital Twin e coordinare azioni.
NOTA: Nello stadio 4 e 5 diventa fondamentale avere una piena consapevolezza dell’ambiente in cui il Digital Twin opera e definire chiaramente gli obiettivi da raggiungere. Per raggiungere questi obiettivi e ottenere una comprensione accurata dell’ambiente, l’utilizzo dell’intelligenza artificiale “embedded” è cruciale.
- Dal BIM al Digital Twin – Il Digital Twin nel settore AEC si basa sull’utilizzo di modelli BIM, integrati con dati provenienti da diverse fonti come sensori IoT, BMS e azioni registrate da occupanti e manutentori tramite app di field service. Questo crea un gemello digitale dell’asset che viene aggiornato in tempo reale.
Di fatto, il Digital Twin può essere utilizzato per l’intero ciclo di vita dell’asset e il suo utilizzo varia a seconda della fase specifica. E precisamente:
- Fase di costruzione: il modello BIM strutturale può essere arricchito con dati provenienti da sensori installati sulla struttura per il monitoraggio della stabilità degli elementi strutturali.
- Fase di operazione: i modelli BIM impiantistici possono essere collegati alla sensoristica degli impianti HVAC per il monitoraggio dei consumi energetici. Inoltre, i modelli BIM architettonici possono essere utilizzati insieme a sistemi di tracciamento degli occupanti per controllare l’occupazione degli spazi e regolare aspetti come la programmazione degli impianti termici e di illuminazione.
- Fase di manutenzione: i modelli BIM possono essere utilizzati per le operazioni di manutenzione sul campo e per alimentare il gemello digitale con i dati degli interventi effettuati. Inoltre, la sensoristica installata nell’asset reale può rilevare anomalie confrontandole con i dati di riferimento previsti in fase di progettazione, al fine di individuare eventuali discostamenti che potrebbero influire sull’opera reale, soprattutto nel caso di infrastrutture come ponti, viadotti e ferrovie.
- GAN (Generative Adversarial Networks) – Sono reti neurali artificiali utilizzate nell’apprendimento automatico e ispirate alla struttura dei neuroni nel cervello umano, in grado di elaborare input multidimensionali utilizzando funzioni non lineari e calcoli elementari.
Le reti neurali artificiali vengono impiegate per risolvere problemi di riduzione della dimensionalità dei dati, classificazione e regressione. Nella classificazione, il fenomeno fisico in input viene associato a una classe di appartenenza, mentre nella regressione viene associata una variabile dipendente al comportamento del fenomeno fisico in input, descritto da valori reali variabili indipendenti.
L’apprendimento automatico avviene attraverso l’identificazione di un dataset di training che rappresenta il legame tra le variabili di input e output del fenomeno in esame.
L’algoritmo di retro-propagazione è fondamentale durante la fase di training delle reti neurali artificiali, poiché consente di aggiornare i pesi (parametri delle reti neurali) per minimizzare l’errore tra l’output previsto e l’output desiderato.
In particolare, le GAN sono utilizzate per generare dati sintetici che assomigliano a quelli presenti in un dataset di riferimento.
Le GAN sono composte da due reti neurali:
- il generatore che crea dati sintetici cercando di imitare il dataset di riferimento, mentre il discriminatore cerca di distinguere i dati sintetici prodotti dal generatore dai dati reali del dataset.
- il discriminatore ha come obiettivo di migliorare la sua capacità di distinguere tra i dati reali e quelli sintetici generati dal generatore.
Durante il processo di addestramento, le reti neurali vengono migliorate attraverso l’algoritmo di back-propagation, che aggiorna i pesi delle reti neurali. Questo aggiornamento dei pesi permette al generatore di generare dati sintetici sempre più simili ai dati reali e, al discriminatore, di diventare sempre più abile nel distinguere tra i dati reali e quelli sintetici.
È importante considerare anche il possibile utilizzo improprio delle GAN, quali: la produzione di fake news o la rimozione di watermark da foto protette. In futuro, pertanto, sarà necessario affrontare questa sfida per evitare un uso non lecito degli algoritmi di IA, compresi quelli basati sulle GAN. Ne consegue che è importante comprendere le sfide che si presentano nell’addestramento di queste reti neurali e come mitigare i rischi associati alla loro utilizzo.
- Da Machine Learning (ML) a Machine Learning Operations (MLOps) – Molte organizzazioni hanno investito in prototipi di laboratorio senza considerare la necessità di sviluppare un’infrastruttura e processi per la transizione dalla fase prototipale alla produzione di massa. Di conseguenza, solo poche aziende riescono a sfruttare appieno il valore dei loro prototipi di Machine Learning (ML), mentre molte sono ancora impegnate a colmare il divario tra sperimentazione e produzione nelle loro applicazioni di AI. Pertanto, per trarre valore dai progetti di ML, è necessario introdurre il concetto di Machine Learning Operations (MLOps).
MLOps combina pratiche, metodi di collaborazione e processi supportati da un framework tecnologico per gestire il ciclo di vita dei sistemi di machine learning, permettendo alle aziende di sviluppare, testare, distribuire, monitorare ed eseguire modelli di ML in modo sicuro e veloce, integrandoli nei processi aziendali.
I principali benefici del MLOps includono:
- la promozione della collaborazione tra le unità di business,
- la riduzione del time-to-market per nuovi casi d’uso basati su AI,
- la trasparenza e verificabilità delle operazioni di machine learning,
- la creazione di sistemi robusti, affidabili e scalabili.
È doveroso evidenziare che l’industrializzazione di come i modelli di ML vengono sviluppati, implementati e gestiti nel tempo ha un impatto significativo sul valore che tali modelli possono generare.
Segue uno schema sintetico delle più importanti best-practice dell’MLOps.
Fonte immagine: WHITE PAPER AI IN CORSA
Best Practices in MLOps (source DXC)
MLOps consente di trarre valore dall’AI in tre modi principali:
- Sperimentare nuovi casi d’uso introducendo i modelli di ML all’interno dei processi aziendali.
- Ridurre i costi di implementazione e gestione dei modelli di ML (spesso fino al 75%).
- Realizzare applicazioni AI affidabili, favorendo una cultura di innovazione in cui l’AI è vista come parte integrante dei processi aziendali ed incoraggiando la creazione di nuovi modelli.
Di seguito uno esempio di Schema di adozione di MLOps nei processi produttivi
Fonte immagine: WHITE PAPER AI IN CORSA
Schema di adozione di MLOps nei processi produttivi
White paper “AI in azione”: seconda sezione
Mercato dell’AI in Italia – È doveroso evidenziare che il mercato dell’AI include componenti hardware, software e servizi professionali nelle seguenti soluzioni:
- Intelligent Data Processing
- Natural Language Processing/AI generativa
- Recommendation Systems
- Computer Vision/Data Visualization
- Chatbot/Assistenti Virtuali
- Robotic Process Automation/Intelligent Automation.
Inoltre, l’AI Generativa rappresenta un’evoluzione dell’NLP e include algoritmi addestrati su grandi quantità di dati, capaci di generare autonomamente contenuti originali e realistici come musica, audio, software, immagini, testo e video.
L’analisi del mercato considera solo le soluzioni utilizzate da aziende private o enti pubblici, escludendo gli apparecchi “general purpose” come Alexa e Siri, se non utilizzati in ambito professionale come il tele-monitoraggio sanitario. Si forniscono di seguito i dati più salienti del mercato AI in Italia.
- Anno 2022 pari a 435 milioni di euro (+32% rispetto al 2021)
- Previsione volume nel 2023: 570 milioni di euro (+31% rispetto al 2022)
- Mercato più che raddoppiato tra il 2020 e il 2023, i.e. +128%
- Previsione del tasso di crescita annuo medio tra il 2022 e il 2026 pari al 28,9%
- Previsione volume nel 2026 pari a 1,2 miliardi di euro.
È doveroso sottolineare che l’utilizzo dell’AI da parte delle aziende italiane, soprattutto nel settore delle PMI, rimane ancora limitato.
Secondo i dati dell’ISTAT del 2021, solo il 6,2% delle imprese italiane con almeno 10 dipendenti ha dichiarato di utilizzare sistemi di AI, rispetto a una media dell’8% nell’Unione Europea. In particolare, la percentuale di piccole imprese (10-49 addetti) che utilizzano l’AI si attesta al 5,3%, mentre il 24,3% delle grandi imprese (250 o più addetti) ne fa uso.
Inoltre, secondo un’indagine di Netconsulting Cube, l’AI viene sperimentata principalmente nel settore bancario, nelle telecomunicazioni e nei media, che presentano un alto volume di mercato (> 80 mln) e una crescita superiore al 30%.
Alcuni settori come trasporti, utilities e servizi hanno un volume medio (30-40 mln) e una crescita più lenta (<30%), mentre i settori della sanità, dell’industria e delle assicurazioni mostrano alti tassi di crescita (>35%) e un buon volume di mercato (30-50 mln).
Il settore della Pubblica Amministrazione (PA) risulta essere meno avanzato, con una spesa maggiore nella PA centrale rispetto alla PA locale. Nonostante un mercato ancora immaturo (circa 5-15 mln), il settore pubblico registra tassi di crescita molto elevati (36% e 37% rispettivamente).
L’indagine condotta da NetConsulting fornisce una panoramica chiara sulle previsioni di investimento nell’AI per il 2023 e sulla distribuzione di tali investimenti in diverse tipologie. Riguardo alle previsioni, è stato chiesto a un campione di aziende provenienti da vari settori se intendono investire nell’AI nel 2023. Per la distribuzione delle tipologie di investimento, sono state considerate le diverse tecnologie nell’ambito dell’AI utilizzate dalle aziende che hanno già adottato soluzioni di AI.
Nel settore finanziario, due terzi delle aziende intervistate prevedono investimenti in AI, mentre nel settore dei servizi tale percentuale è del 60%. Le aziende dell’industria e della grande distribuzione/retail mostrano una cautela maggiore, con il 45,5% e il 44,4% rispettivamente che prevedono investimenti in AI.
Per quanto riguarda le singole tecnologie dell’AI, si osserva un aumento soprattutto nell’Intelligent Data Processing, nel Natural Language Processing e nei Chatbot tra il 2022 e il 2023. L’Automazione dei Processi Robotici (RPA) è la principale soluzione nell’industria, nel settore finanziario, nella grande distribuzione/retail e nel settore dell’energia. I servizi, invece, utilizzano principalmente i Chatbot e gli Assistenti Virtuali, data l’importanza dell’interazione con il cliente.
Fonte immagine – WHITE PAPER L’AI SI EVOLVE
Concentrazione degli investimenti in soluzioni di Intelligenza artificiale. Fonte NetConsulting Cube 2023.
Conclusioni
L’intelligenza artificiale ha numerose applicazioni in diversi settori e fasi aziendali, ma in Italia, soprattutto tra le PMI, l’adozione è ancora limitata a causa della mancanza di consapevolezza e della percezione di complessità. Tuttavia, ci sono segnali positivi da start-up e PMI innovative nel settore ICT che sviluppano soluzioni di AI. La carenza di risorse umane formate per l’AI è un ostacolo significativo, richiedendo una formazione adeguata a sviluppare competenze tecniche.
La transizione digitale, il metaverso e i data spaces richiedono un approccio strategico e formazione nel settore sia pubblico sia privato. Inoltre, la comunicazione e l’uso dei dati come fonte di business sono diventati cruciali, e l’AI è uno strumento chiave per gestire e trasformare i dati in valore. Tuttavia, la concorrenza globale nell’AI richiede una regolamentazione europea adeguata che consideri fattibilità commerciale e tecnica.
L’Europa deve investire in infrastrutture digitali, ricerca, tecnologia e formazione per competere con altre potenze mondiali nell’AI e sfruttarne le potenzialità per lo sviluppo socioeconomico.
È inoltre urgente diffondere la cultura della cybersecurity e della cyber resilience attraverso una governance forte e, in quest’ottica, l’UE sta delineando un quadro normativo europeo basato sempre più su un approccio risk-based, resilience-based e cybersecurity-based. Ne consegue che l’implementazione di principi di risk management, business continuity e cybersecurity è quanto mai urgente.