Secondo le società di ricerca, gli investimenti privati nell’intelligenza artificiale (AI) hanno raggiunto circa 93,5 miliardi di dollari nel 2021; molte organizzazioni stanno implementando AI e machine learning (ML) per migliorare le loro attività, ma i rischi per la sicurezza creati dall’adozione dell’AI sono spesso trascurati.
Ogni modello di intelligenza artificiale e ML utilizzato da un’organizzazione può essere un potenziale bersaglio per gli attacchi informatici. La buona notizia è che un numero crescente di provider sta riconoscendo questi modelli come parte della superficie di attacco aziendale.
Negli Usa, ad esempio, HiddenLayer ha annunciato il lancio della piattaforma HiddenLayer Mlsec, progettata per rilevare attacchi ML contraddittori. HiddenLayer utilizza uno scanner di modelli per analizzare gli eventi del modello di machine learning in tempo reale per identificare attività dannose senza accedere direttamente ai modelli ML di un’organizzazione.
Modelli AI e ML come parte della superficie di attacco
Poiché l’adozione dell’AI continua ad aumentare, sta diventando sempre più chiaro che i modelli ML stessi fanno parte della superficie di attacco. Secondo McKinsey, il 63% delle aziende cita la sicurezza informatica come un rischio associato all’adozione dell’AI. La più grande preoccupazione per chi investe in AI / ML è la sicurezza informatica, secondo il rapporto sullo stato dell’AI di McKinsey.
Queste preoccupazioni sono fondate, in particolare quando le vulnerabilità nei modelli AI o ML possono fornire ai criminali informatici un punto di ingresso in un ambiente, come parte di attacchi di Adversarial Machine Learning (AML).
Di conseguenza, qualsiasi azienda che sfrutta l’intelligenza artificiale deve essere pronta a difendersi dalle minacce cyber.