Dal momento che l’AI diventa uno strumento essenziale per le moderne operazioni aziendali, che tipo di misure pratiche dovrebbero attuare le imprese per mitigare i rischi emergenti?
Per le aziende, l’intelligenza artificiale generativa è allo stesso tempo eccitante e preoccupante. Senza dubbio, l’AI può offrire un vantaggio competitivo, ad esempio velocizzando le operazioni. Ma questa tecnologia in rapida evoluzione pone nuovi rischi per la privacy dei dati, la proprietà intellettuale o il processo di decision-making.
Otto modi per mitigare i rischi dell’AI
1. Scegliere lo strumento
Molti strumenti di AI acquisiscono i dati immessi per i propri processi di machine-learning. Assicuratevi che quello scelto soddisfi gli standard di riservatezza e sicurezza delle informazioni del cliente. L’Agenzia per la cybersicurezza nazionale ha aderito alle “Linee guida per uno sviluppo sicuro dell’Intelligenza Artificiale”, promosse dal National Cyber Security Centre del Regno Unito. Includere i requisiti relativi ai dati e alla sicurezza informatica nell’accordo sul livello del servizio e prendere in considerazione le protezioni contrattuali se il proprio modello di fornitura di servizi si baserà sui risultati di uno strumento di AI.
2. Eseguire la due diligence
Le aziende che non investono in sistemi di AI su misura per il loro settore possono rischiare che i dati dei clienti vengano “sfruttati” dallo strumento di AI. Un esempio: Il New York Times sta attualmente perseguendo OpenAI per l’uso non autorizzato della sua proprietà intellettuale. L’inserimento dei dati del cliente in uno strumento generico di AI è molto probabile che costituisca una violazione dei diritti di protezione dei dati.
Nella scelta dei fornitori terzi che avranno accesso ai vostri dati e a quelli dei vostri clienti, verificare le loro misure di protezione nei confronti degli strumenti di intelligenza artificiale.
3. Approfondire i dati
Tenere un registro di tutti i dati in vostro possesso, della loro qualità, del loro valore e del luogo in cui sono conservati. I dati sono pertinenti e adeguati alle esigenze dell’azienda? Sono affidabili? Sono necessarie altre fonti e, in questo caso, quali? I dati sono conservati in silos? Sono stati corrotti o infiltrati?
Occorre includere una strategia dettagliata sui dati nel piano di gestione dei rischi dell’AI e utilizzare una varietà di fonti per mitigare i rischi di bias.
4. Perfezionare la policy
Mantenere la responsabilità e la governance al centro dell’attenzione quando si aggiornano le politiche e le procedure.
Includere l’AI nel registro dei rischi.
Aggiornare la documentazione sull’uso accettabile per specificare quali strumenti di AI possono essere utilizzati, su quali dispositivi e per quali scopi.
Rivedere i processi di supervisione e garantire che i risultati assistiti dall’AI siano controllati da una persona in base a una valutazione del rischio.
Verificare regolarmente la sicurezza dei dati, utilizzando agenzie indipendenti di fiducia per valutare le vulnerabilità.
Includere l’uso improprio dell’AI nei processi disciplinari.
5. Prevenire le violazioni
Utilizzare l’autenticazione a più fattori (MFA) e i certificati digitali per proteggere le comunicazioni.
Creare canali solo interni per la condivisione di documenti da parte dei colleghi.
Per le azioni importanti, come i bonifici bancari di alto valore, è necessario prevedere un processo che richieda la verifica dell’operazione tramite un canale di comunicazione sicuro, non avviato dal richiedente.
6. Formare il personale
Una formazione regolare è essenziale per i dipendenti per aiutare a sconfiggere le violazioni.
Il personale deve conoscere gli strumenti di AI approvati dall’azienda e i relativi flussi di lavoro, processi e controlli dei rischi.
Occorre inoltre essere consapevoli delle implicazioni più ampie. Se usata in modo inappropriato, l’AI può portare alla ripetizione degli errori e al rafforzamento dei bias. Pertanto, le capacità di valutazione critica sono fondamentali per identificare errori, malintesi o bias. Questo dovrebbe aggiungersi alla formazione sull’ apprendimento dell’AI e sulla gestione dei dati.
I dipendenti dovrebbero inoltre prestare attenzione alle innovazioni come i deep-fake e al modo in cui i criminali possono utilizzare l’AI, poiché ciò ha un impatto sulla sicurezza informatica.
7. Essere agili
Se si adotta un approccio di tipo “early adopter”, occorre prendere in considerazione un approccio “Agile”:
a. Valutare le applicazioni che possono trasformare le operazioni interne prima di passare ai prodotti diretti ai clienti.
b. Iniziare in piccolo, valutare l’impatto e modificare l’approccio se necessario. Estendere il progetto se funziona bene.
c. Assicurarsi che le misure di “proof of concept” siano ampiamente definite e che includano misure a medio e lungo termine accanto ai risultati immediati.
d. Assicurarsi sempre che ci sia una supervisione umana su qualsiasi caso d’uso.
8. Stipulare la copertura assicurativa
L’acquisto di una polizza di assicurazione cyber non solo aiuta le aziende a trasferire i rischi emergenti. Permette loro di accedere a una serie di servizi associati e alla consulenza di esperti per proteggersi meglio e, in caso di incidente, riprendersi più rapidamente.
Adottando queste misure ragionevoli, le aziende dovrebbero sentirsi abbastanza sicure da sperimentare l’AI generativa, introducendo le innovazioni più adatte a loro e ai loro clienti.
Quali sono le azioni da intraprendere
Dove sarà più utile l’AI nella mia azienda?
A seconda del settore, l’AI può essere utilizzata efficacemente per ottimizzare le operazioni interne o le aree di servizio ai clienti.
Le aree in cui c’è un alto potenziale di adozione dell’AI includono:
– Generazione di contenuti
– Elaborazione di attività comuni legate ai dati, compresa l’analisi dei dati
– Rispondere a domande comuni utilizzando i chatbot
– Modellazione predittiva
– Controllo qualità
– Rilevamento delle frodi
Che tipo di rischi comporta l’AI per la mia azienda?
Esistono quattro tipi di rischi di cui le aziende devono essere consapevoli quando cercano di integrare l’AI nelle loro attività:
- Rischi legati all’input del modello: i dati incompleti, imprecisi e distorti utilizzati per addestrare il modello porteranno a un risultato negativo del modello stesso.
- Rischi di output del modello – il contenuto generato può essere fittizio, non verificabile e impreciso.
- Rischi operativi – caricamento di contenuti sensibili dal punto di vista commerciale, applicazione dei risultati senza supervisione, gestione di una molteplicità di modelli all’interno dell’organizzazione.
- Rischi esistenziali – crescita delle interferenze politiche, attacchi informatici aziendali e individuali attraverso la creazione di fake news, media e immagini al fine di controllare, estorcere o influenzare un risultato.