[VIDEO] TIM: non c’è Machine Learning senza un importante lavoro sui dati

Pubblicato il 08 Ago 2019

Gianluca Francini, Responsabile del Joint Open Lab sull'Intelligenza Artificiale di TIM

In questa video intervista realizzata in occasione della prima edizione di AI360 SummitGianluca Francini, Responsabile del Joint Open Lab sull’Intelligenza Artificiale di TIM, spiega in che modo la compagnia sta sfruttando oggi il Machine Learning, con che obiettivi ma, soprattutto con che risultati.

Francini spiega, in particolare, che tipo di dati servono per poter avere risultati efficaci dal Machine Learning.

TIM: non c'è Machine Learning senza un importante lavoro sui dati

TIM: non c'è Machine Learning senza un importante lavoro sui dati

Guarda questo video su YouTube

DI SEGUITO LA TRASCRIZIONE DEL VIDEO

Come e perché TIM utilizza il machine learning?

[00:00:06] TIM usa il machine learning in moltissimi ambiti di applicazione a partire dalle reti di telecomunicazioni di nuova generazione, come il 5G, che sono altamente configurabili; quindi per ottimizzare le risorse di rete è utile applicare l’intelligenza artificiale.

[00:00:20] Inoltre abbiamo una rete di telecomunicazioni molto complessa costituita da tantissimi apparati e questi apparati vanno gestiti in modo tale da poter far sì che non si creino interruzioni nell’erogazione del servizio e quindi prevedendo eventuali “fault” (guasti) che possono verificarsi.

[00:00:37] Inoltre abbiamo una interazione con il cliente che è molto sofisticata attraverso diversi canali e quindi questi vanno automatizzati a partire dall’introduzione di assistenti virtuali per comunicare con il cliente.

Il machine learning presuppone un importante lavoro sui dati: cosa bisogna fare per prepararli?

[00:00:50] I dati sono fondamentali nel machine learning; infatti l’intelligenza artificiale usa machine learning proprio per estrarre la conoscenza dai dati stessi e quindi è importante che questi dati siano in grande quantità perché ovviamente è un sistema automatico che cerca di mimare le capacità cognitive umane. In questo senso l’intelligenza artificiale può essere sofisticata solo nel momento in cui riesce a imparare da moltissimi dati.

[00:01:16] Quindi innanzitutto bisogna avere molti dati: con pochi dati sia un cervello diciamo semplice che fa poco; con molti dati si riesce ad avere un sistema sofisticato che riesce a svolgere compiti sofisticati.

[00:01:29] Questi dati però devono anche essere corretti. Questa affermazione sembra scontata ma non è assolutamente così. Spesso i dati sono privi di coerenza tra di loro, hanno valori scorretti. In più questi dati non devono essere sparpagliati in vari in sistemi che possano essere in una grande azienda – come spesso capita – e quindi devono essere facilmente accessibili.

[00:01:54] In ultimo, devono essere dotati di tutte le informazioni che servono per poter applicare machine learning e questo non è a sua volta assolutamente scontato. Perché in molti casi servono delle formazioni per addestrare i sistemi mediante le tecniche che vengono chiamate di addestramento supervisionato.

Qual è l’importanza del tagging e del metatagging dei dati?

[00:02:11] Il ruolo del tagging dei dati è importante perché appunto l’addestramento supervisionato richiede che i dati siano etichettati. Se io voglio insegnare ad un sistema a analizzare le immagini e a capire se nella fotografia c’è un cane o un gatto o un cavallo, devo fornire a questo sistema, nel processo che viene chiamato di addestramento, moltissime immagini ad ognuna delle quali deve essere associato un’etichetta che vuole dare a un’immagine con un cavallo la scritta “cavallo”, a un’immagine con un gatto un’etichettata con “gatto” e così via. Quindi è fondamentale avere le etichette e ovviamente che queste siano corrette.

Qual è l’importanza del tagging e del metatagging dei dati storici?

[00:02:49] I dati storici possono essere etichettati ma dipende dalla natura del dato storico. Normalmente questo è più un problema dal punto di vista dei sistemi che sono stati sviluppati nel tempo, perché le piattaforme diciamo legacy che si hanno in azienda magari non prevedono proprio a livello di rappresentazione del dato che possano essere aggiunte questi nuove etichette. E quello che stanno facendo le grandi aziende di dotarsi di Data Lake che raccolgono i dati in modo omogeneo, possibilmente la maggior parte dei dati aziendali e che consentano anche di aggiungere queste informazioni fondamentali per il machine learning.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati