L’80% dei CISO italiani intervistati prevede di adottare soluzioni basate sull’AI per mitigare gli errori umani e contrastare le minacce informatiche sofisticate che prendono di mira le persone. Lo rivela una ricerca condotta da Proofpoint. Tuttavia, la diffusione capillare dell’AI si scontra con significative preoccupazioni legate alla cybersecurity. Un ulteriore studio realizzato da Proofpoint evidenzia che il 45% dei CISO italiani considera l’AI generativa una minaccia per la sicurezza della propria organizzazione.
Le vulnerabilità dei modelli generativi
Le tecnologie AI, inclusi i modelli generativi come ChatGPT, Bard e simili, presentano specifiche vulnerabilità che necessitano di attenta valutazione. Data la rapidità dello sviluppo tecnologico in questo ambito, esiste il rischio concreto di trascurare gli aspetti legati alla sicurezza. Nel fervore globale verso lo sviluppo di sistemi e applicazioni basati su questa tecnologia, la velocità può diventare un nemico della sicurezza.
Le AI possiedono grandi potenzialità; tuttavia, per sfruttarle appieno è essenziale implementarle e gestirle in modo sicuro e consapevole. Quali conseguenze potrebbero derivare dall’abuso di queste capacità da parte di soggetti malintenzionati per generare campagne di phishing altamente sofisticate e automatizzate su vasta scala? Non serve immaginarlo: è già realtà.
Con ChatGPT, un incremento degli attacchi BEC
Poco dopo il debutto di ChatGPT, si è assistito a un incremento degli attacchi BEC (Business Email Compromise) basati sul linguaggio a livello globale, diventando più personalizzati ed efficaci. Se in Italia il numero delle aziende vittime non ha subito variazioni tra il 2022 e il 2023 (il 51%, secondo il report State Of The Phish di Proofpoint), in altri paesi l’aumento è stato marcato: +35% in Giappone, +31% in Corea e +29% negli Emirati Arabi Uniti. Questi paesi avevano precedentemente registrato meno attacchi BEC “grazie” a barriere culturali o linguistiche ora superabili dagli aggressori attraverso l’utilizzo dell’intelligenza artificiale, facilitando così l’estrazione rapida di grandi volumi di dati utilizzabili.
È indubbio che l’intelligenza artificiale generativa apra nuove opportunità agli avversari informatici i quali non abbandoneranno le tattiche preesistenti né reinventeranno strategie finché i loro metodi attuali continueranno a essere profittevoli. I difensori dovranno quindi concentrarsi sulle minacce più pressanti e garantire una protezione efficace per contrastarle adeguatamente.