ANALISI

Gli assistenti AI non fanno miracoli, occorrono dati puliti e di qualità



Indirizzo copiato

I CIO si stanno rendendo conto che è necessario un notevole sforzo interno per ottenere il massimo valore da questi strumenti, spesso molto costosi. Prima di metterli al lavoro occorre organizzare i dati, oltre a saper utilizzare prompt adeguati

Pubblicato il 1 lug 2024




Ottenere il massimo valore dagli assistenti di lavoro basati su intelligenza artificiale si sta rivelando un compito impegnativo per le imprese. Gli assistenti di lavoro basati su intelligenza artificiale sono stati progettati per offrire alle aziende un accesso relativamente semplice alla tecnologia all’avanguardia. Tuttavia, non è esattamente così che stanno andando le cose, come affermano i chief information officer (CIO) che ritengano necessario un notevole sforzo interno per ottenere il massimo valore da questi costosi strumenti.

Troppo spesso l’AI dà risposte errate

“C’è più lavoro del previsto,” dichiara Sharon Mandell, chief information officer della società di tecnologia di rete Juniper Networks, che sta testando strumenti di diversi fornitori ma non si sente ancora pronta a metterne nessuno in produzione. Strumenti come Copilot per Microsoft 365 o Gemini per Google Workspace mirano a mettere tutta la potenza delle capacità generative dell’AI nelle mani delle forze lavoro aziendali, promettendo modi sicuri e preconfezionati per le imprese di utilizzare la tecnologia. Lavorando in tandem con le suite aziendali di Microsoft o Google e grandi quantità di dati aziendali – compresi email, documenti e fogli di calcolo – la promessa è che gli strumenti possano fornire risposte affidabili a domande come “quali sono i nostri ultimi dati sulle vendite?” Ma non è sempre così, in parte perché i dati aziendali a cui accedono non sono sempre aggiornati o accurati e in parte perché gli strumenti stessi sono ancora in fase di maturazione. Mandell afferma che se chiede una domanda relativa ai dati del 2024, lo strumento AI potrebbe fornire una risposta basata sui dati del 2023.

In Cargill, uno strumento AI non è riuscito a rispondere correttamente a una semplice domanda su chi fa parte del team esecutivo dell’azienda, ha detto il gigante agricolo. In Eli Lilly, uno strumento ha dato risposte errate a domande sulle politiche delle spese, ha detto Diogo Rau, chief information and digital officer della società farmaceutica. Questi inciampi avvengono in un momento in cui l’interesse aziendale verso l’intelligenza artificiale generativa è in forte crescita e i CIO stanno cercando di testare i potenziali guadagni in produttività promessi da strumenti che possono avere un costo mensile di 30 dollari per utente. “Rimango ottimista sull’AI e sono fiduciosa che ci arriveremo. Sta solo richiedendo un po’ più tempo rispetto a quanto pensavamo,” ha detto Mandell.

L’AI ha bisogno di dati puliti e di qualità

I CIO interessati ad avanzare con la tecnologia stanno ora lavorando alacramente per pulire e gestire i loro dati affinché possano trarne pieno vantaggio.

Bala Krishnapillai, vicepresidente e capo del gruppo IT presso Hitachi Americas, ha detto che l’organizzazione ha incontrato casi di dati incoerenti, duplicati e errati, portando a informazioni contraddittorie che confondono gli output dell’AI. Egli sostiene che l’azienda aggiorna regolarmente e raffina i propri dati per garantire risultati accurati dagli strumenti AI che li utilizzano. Questo processo include gli ingegneri dei dati dell’organizzazione che validano e puliscono i dati in arrivo e li curano in un “golden record”, senza informazioni contraddittorie o duplicate.

“Questa è stata la primissima cosa su cui ci siamo concentrati,” ha affermato Michael Bradshaw, CIO di Kyndryl riguardo alla pulizia dei dati mentre l’organizzazione si preparava a utilizzare Copilot. Bradshaw ha detto che Copilot ha grandi capacità, ma un’azienda deve essere preparata a usarlo, mantenendo i dati organizzati, aggiornati e sicuri. I fornitori hanno notato il problema. “Quando le aziende hanno iniziato a usare Copilot, le persone hanno iniziato a trovare dati ai quali le aziende non sapevano nemmeno di avere accesso o si rendevano conto che non erano freschi o preziosi come potrebbero essere. E poi hanno capito: “Oh, dobbiamo fare di più”, esclama Jared Spataro, vicepresidente corporate dell’AI at Work presso Microsoft.

A complicare ulteriormente le cose c’è il fatto che Copilot non sa sempre dove andare per trovare una risposta specifica alla domanda posta, ha spiegato Spataro. Quando viene posta una domanda sui ricavi, Copilot potrebbe non saper andare direttamente al sistema finanziario aziendale piuttosto che raccogliere qualsiasi numero relativo ai ricavi presente nelle email o nei documenti.

Microsoft Copilot Studio

Per combattere questo problema, Microsoft ha recentemente introdotto uno strumento noto come Copilot Studio, che consente alle aziende di indirizzare Copilot verso fonti autorevoli all’interno dei loro sistemi per domande specifiche. Alcune delle sfide con Copilot sono legate all’arte complicata della formulazione delle richieste (prompting), ha spiegato Spataro. Gli utenti potrebbero non capire quanto contesto devono effettivamente fornire a Copilot per ottenere la risposta giusta; tuttavia, aggiunge, anche che lo stesso Copilot potrebbe migliorare nel chiedere più contesto quando ne necessita. “Penso che molte persone stiano avendo i loro primi incontri iniziali con la tecnologia rimanendo un po’ delusi,” ha affermato Spataro.

Richard Seroter, Chief evangelist Google Cloud, ritiene invece che il desiderio di utilizzare strumenti come Gemini per Google Workspace stia spingendo le organizzazioni a fare quel tipo di gestione dei dati su cui potrebbero essere state lente nel passato. “Se non hai messo ordine nei tuoi dati, l’AI sarà meno preziosa rispetto a quanto potrebbe essere,” dice Seroter. “Non puoi semplicemente comprare sei unità AI e aspettarti magicamente cambiamenti nel tuo business.”

Articoli correlati

Articolo 1 di 4