Nel panorama tecnologico attuale, nulla suscita la stessa curiosità ed eccitazione dell’intelligenza artificiale (IA). E questo con la sola valutazione dei potenziali benefici delle applicazioni AI all’interno dell’azienda.
Però la crescita dell’IA nell’azienda è stata ostacolata sin dall’inizio dal fatto che i Data Scientist troppo spesso hanno un accesso limitato ai dati rilevanti di cui necessitano per costruire modelli di IA efficaci. Infatti questi specialisti dei dati sono costretti a fare affidamento esclusivamente su alcune fonti conosciute, come i data warehouse esistenti, piuttosto che poter sfruttare tutti i dati di cui hanno bisogno, in tempo reale e della vita reale. Inoltre, molte aziende hanno grandi difficoltà a determinare istantaneamente in modo efficiente e conveniente il contesto aziendale e la qualità di enormi quantità di dati. Considerate tutte queste difficoltà, è facile comprendere alcune delle barriere storiche all’accelerazione e all’adozione dell’IA.
Una volta compresi, i dati diventano utili per l’Intelligenza Artificiale o per qualsiasi altro scopo. In particolare, questo significa capirne il contesto e la rilevanza. Solo allora i dati si potranno utilizzare serenamente e in tutta sicurezza per orientare i modelli di intelligenza artificiale. Quindi l’unico modo per ottenere questo risultato è una base di “dati intelligenti”.
Nel corso degli anni, si è andati oltre la raccolta e l’aggregazione di dati così da pilotare specifiche applicazioni aziendali (dati 1.0). Le organizzazioni invece sono state in grado di creare processi ben definiti per consentire a chiunque di accedere ai dati man mano che il loro volume, varietà e velocità continuano ad espandersi (dati 2.0). Ma questo non è abbastanza. Si è raggiunto un punto in cui sono necessari dati intelligenti per potenziare realmente la trasformazione a livello aziendale (dati 3.0).
Prendendo in considerazione, ad esempio, le sfide che un’azienda si trova ad affrontare nel tentativo di ridefinire la propria relazione tradizionale con la sua customer base, si può pensare ad un’azienda che produce cartucce per stampanti, con l’obiettivo di venderle per abbonamento piuttosto che in negozio. Qui guidare un cambiamento così dirompente richiederà la spinta di diverse fonti dati (database, data warehouse, applicazioni, sistemi Big Data, IoT, social media e altro); una varietà di tipi di dati (strutturati, semi-strutturati e non strutturati) e una varietà di posizioni (on-premise, Cloud, ibridi e Big Data). Pensando invece ad un’azienda produttrice di attrezzature per l’agricoltura, si deve garantire l’elaborazione di tutti i dati dall’officina e dai robot in tempo reale per prevedere eventuali tempi di inattività, mantenendo la manutenzione programmata per evitare tempi di fermo operativi che possono costare milioni di euro in mancati guadagni.
Il data lake sta diventando il repository preferito quando si tratta di una vasta raccolta di dati disparati, soprattutto se richiesti per sforzi di trasformazione come questo. Però senza i dati intelligenti, i Data Lake hanno poco valore. Ad esempio una stima di Gartner prevede che, fino al 2018, addirittura il 90% dei Data Lake sarà inutile perché pieno di dati grezzi che pochi esperti sapranno utilizzare.
Al contrario, avendo a disposizione dati intelligenti, i Data Scientist potrebbero condurre una ricerca simile a quella effettuata su Google con parole molto semplici, ricavando velocemente tutte le potenziali fonti dati pertinenti. Questo perché i dati intelligenti fanno risparmiare un’enorme quantità di tempo prezioso, che i Data Scientist avrebbero altrimenti dovuto spendere per raccogliere, assemblare e perfezionare i dati necessari per i loro modelli. Inoltre questi offrono anche i risultati più affidabili possibili.
Quindi, come assicurarsi che i propri dati siano veramente intelligenti? Innanzitutto costruendo una piattaforma di gestione dei dati end-to-end che riesca a sfruttare le capacità di intelligenza artificiale e machine learning, guidate da numerosi metadati utili a migliorare la produttività complessiva della piattaforma stessa. Sono infatti i metadati la chiave utile a sbloccare il valore dei dati.
Esistono poi quattro distinte categorie di metadati da considerare se si desidera garantire una fornitura di dati completi, pertinenti e accurati per implementare l’intelligenza artificiale:
- Technical Metadata: include le tabelle del database e le informazioni sulle colonne, nonché informazioni statistiche sulla qualità dei dati.
- Business Metadata: definisce il contesto aziendale dei dati e i processi aziendali ai quali partecipa.
- Operational Metadata: informazioni sui sistemi software e sull’esecuzione del processo, che indicano ad esempio la freschezza dei dati.
- Usage Metadata: informazioni sull’attività dell’utente compresi set di dati a cui accedere, valutazioni e commenti.
L’AI e il Machine Learning applicati a questa raccolta di metadati sono fondamentali, perché indicano i dati corretti, che possono essere elaborati senza l’intervento umano in maniera automatica, utili e soprattutto adatti all’uso nei progetti aziendali di IA.
La trasformazione digitale sta costringendo le organizzazioni a guardare i dati in modo diverso; si parla sempre più di essere la “preda” o il “predatore”. Questo perché oggi è possibile accedere sempre e in tempo reale ai dati e agli strumenti che consentono un’analisi rapida. Ciò ha favorito l’Intelligenza Artificiale e il machine learning, consentendo il passaggio a un approccio basato sui dati. La rinascita dell’IA è fiorente grazie alla digitalizzazione, all’esplosione dei dati e all’impatto trasformativo che essa ha sul mondo aziendale.
Ci sono innumerevoli input di dati che portano ad adottare applicazioni di IA, ovvero le organizzazioni dovrebbero selezionare ciò che è rilevante e di impatto, da ciò che invece fa solo rumore. Per fare questo però, bisognerebbe porsi prima alcune domande quali:
- Cosa voglio ottenere dalle tecnologie abilitate IA?
- Ho la strategia giusta sui dati che mi permette di orientare le decisioni tramite IA?
- Ho le giuste, e necessarie competenze?
Infine si può fare un’ultima riflessione dopo aver risposto a queste domande: sfruttando la combinazione di IA e Machine Learning, le aziende sono aiutate in uno dei loro compiti più difficili quale quello di reperire i dati, che così diventano accessibili e disponibili al momento giusto. Non solo, questi ultimi rispecchiano la qualità richiesta abbinando un grado di sicurezza importante, utile a contrastare tutte le minacce che possono colpire i sistemi e le reti moderni.
*Claudio Bastia è Managing Director Italy di Informatica