Fiducia nell’AI in ambito lavorativo: un gap da colmare tra dirigenti e personale Un recente sondaggio condotto da Workday, azienda leader nel settore delle applicazioni cloud per la gestione finanziaria e delle risorse umane, ha evidenziato una diffusa sfiducia nell’impiego dell’intelligenza artificiale in ambito lavorativo. Nonostante sia i vertici aziendali che i dipendenti riconoscano il potenziale rivoluzionario dell’AI, esiste una marcata resistenza alla sua adozione responsabile. Questa reticenza è particolarmente accentuata tra i lavoratori, che mostrano un livello di scetticismo superiore rispetto ai loro superiori.
L’indagine è stata presentata da Workday in occasione del meeting annuale del World Economic Forum di Davos, tenutosi dal 15 al 19 gennaio 2024.
Le principali evidenze del report di Workday
Il report ha messo in luce alcuni dati significativi:
● solo il 62% dei dirigenti (C-suite o i loro diretti subordinati) accoglie positivamente l’intelligenza artificiale. Tra i dipendenti questa percentuale scende al 52%
● il 23% dei dipendenti dubita che la propria organizzazione anteponga gli interessi dei lavoratori ai propri nell’implementazione dell’AI
● il 70% dei leader aziendali concorda sul fatto che l’intelligenza artificiale dovrebbe essere sviluppata in modo da facilitare la revisione e l’intervento umano
● il 42% dei dipendenti ritiene che la propria azienda non abbia una chiara visione di quali sistemi dovrebbero essere completamente automatizzati e quali necessitano dell’intervento umano
● 3 dipendenti su 4 sostengono che la propria organizzazione non partecipa alla regolamentazione dell’intelligenza artificiale
● 4 dipendenti su 5 affermano che la propria azienda non ha ancora diffuso le linee guida sull’uso responsabile dell’AI.
“L’intelligenza artificiale offre indubbiamente enormi opportunità per la trasformazione aziendale. Tuttavia, il nostro studio mostra che sia i leader che i dipendenti nutrono dubbi e mancano di comprensione delle intenzioni delle loro organizzazioni riguardo all’implementazione dell’AI sul posto di lavoro”, ha dichiarato Jim Stratton, Chief Technology Officer di Workday. “Per colmare questo gap di fiducia, le organizzazioni devono adottare un approccio olistico alla responsabilità e alla governance dell’AI, prestando particolare attenzione al supporto di politiche in grado di bilanciare innovazione e fiducia”.
Diffidenza diffusa nei confronti dell’AI tra i vari livelli della forza lavoro
L’adozione e l’implementazione responsabile dell’AI da parte delle organizzazioni suscita sfiducia a tutti i livelli della forza lavoro, soprattutto tra i dipendenti. Solo il 62% dei leader accoglie favorevolmente l’introduzione dell’intelligenza artificiale nella propria organizzazione e lo stesso numero è convinto che la propria organizzazione garantirà un’implementazione responsabile e sicura. Tra i dipendenti, queste percentuali scendono rispettivamente al 52% e al 55%. Esiste anche una certa incertezza, sia tra i dipendenti che tra i leader, sulla corretta implementazione dell’AI da parte della loro organizzazione. Il 23% dei dipendenti non è convinto che la propria organizzazione anteponga gli interessi dei lavoratori ai propri nell’implementazione dell’AI, e i leader concordano: il 21% di questi ultimi afferma di non essere sicuro che la propria organizzazione privilegerà gli interessi dei dipendenti.
Coinvolgimento umano nell’AI
Sia i leader che i dipendenti desiderano un coinvolgimento umano nei processi di intelligenza artificiale, ma non hanno una chiara idea su come realizzarlo. Il 70% dei leader aziendali concorda sul fatto che l’intelligenza artificiale dovrebbe essere sviluppata in modo da facilitare la revisione e l’intervento umani. Tuttavia il 42% dei dipendenti ritiene che la propria azienda non abbia una chiara visione di quali sistemi dovrebbero essere completamente automatizzati e quali necessitano dell’intervento umano.
Una precedente ricerca sull’AI commissionata da Workday conferma ulteriormente le preoccupazioni sulle capacità delle aziende d’implementare l’intelligenza artificiale in modo responsabile ed efficace: quasi tre leader su quattro (72%) hanno affermato che la propria organizzazione non ha le competenze per implementare pienamente l’intelligenza artificiale e il Machine learning, e una percentuale leggermente più alta (76%) ha affermato che la propria conoscenza delle applicazioni AI e ML necessita di miglioramenti.
Necessità di una governance intelligente dell’AI
Alla domanda di immaginare un futuro in cui l’intelligenza artificiale faccia parte della vita quotidiana, il 42% dei leader e il 36% dei dipendenti citano i quadri organizzativi e la regolamentazione come elementi più importanti per costruire un’AI affidabile. Tuttavia manca una visione chiara, a livello aziendale, sulla regolamentazione e le linee guida dell’intelligenza artificiale. Tre dipendenti su quattro affermano che la loro organizzazione non sta collaborando alla regolamentazione dell’AI e quattro su cinque affermano che la loro azienda non ha ancora condiviso le linee guida sull’uso responsabile dell’intelligenza artificiale.
Informazioni sul report
Questi dati provengono dallo studio globale “Closing the AI Trust Gap”, un sondaggio commissionato da Workday e condotto da FT Longitude a novembre e dicembre 2023. Il sondaggio ha coinvolto 1.375 leader aziendali e 4.000 dipendenti in 15 paesi in tre regioni principali: Nord America; Asia-Pacifico e Giappone (APJ); Europa, Medio Oriente e Africa (EMEA). Questa ripartizione rivela una visione completa della gerarchia organizzativa, evidenziando le prospettive della leadership e della popolazione dipendente più ampia.