Allarme Sicurezza informatica e Intelligenza Artificiale, «si rischia un’incontrollabile moltiplicazione di attacchi. Troppi falsi positivi»

Una recente survey rivela che Circa il 62% degli esperti di sicurezza ritiene che l’AI intelligenza artificiale sarà utilizzata per cyberattacchi sempre più devastanti nei prossimi 12 mesi. Un warning confermato anche da Heather Adkins membro fondatore del team di sicurezza di Google

Pubblicato il 09 Ott 2017

shutterstock_427837258

Sicurezza informatica: una recente survey rivela che circa il 62% degli esperti di sicurezza ritiene che l’Intelligenza Artificiale sarà utilizzata per cyberattacchi sempre più devastanti nei prossimi 12 mesi. Un warning confermato anche da Heather Adkins membro fondatore del team di sicurezza di Google

Sicurezza Informatica e Intelligenza Artificiale, nuovo allarme.

Un’arma a doppio taglio, una medaglia con due facce… una bella e l’altra molto meno. Chiamatela come volete ma la dirompente progressione che l’Intelligenza Artificiale in tutte le sue declinazioni, come spesso accade alle tecnologie dirompenti, rischia di esporre manager e imprese a rischi senza precedenti. Il tutto in un quadro di fortissima vulnerabilità dei sistemi IT causa pressione costante di fenomeni ormai pluri-conosciuti come ransomware, crytpolocker, wannacry, notpetya e tutta l’allegra compagnia. Piaghe note e, manco a dirlo, ancora ben lontane dall’essere debellate.

Intelligenza artificiale e sicurezza informatica, gli attacchi sono in aumento

«Va detto che l’AI, per le promesse e le tecnologie su cui è basata, può rappresentare la migliore speranza di rallentare la marea di cyber attacchi e violazioni attualmente in circolo – raccontano gli esperti di Cylance, che hanno sviluppato la survey su un campione selezionato di oltre 100 esperti di sicurezza aziendale negli USA – ma se non governata può anche creare tattiche di attacco più avanzate a breve termine». Andando però con ordine, stando alla survey, mentre la maggioranza degli intervistati ha affermato di aspettarsi un uso offensivo dell’AI Intelligenza Artificiale, il 32% ha dichiarato che un simile scenario non si verificherà mai e il 6% ha detto di non avere ancora le idee chiare. È stato tuttavia rilevato che il potenziale utilizzo dell’AI Intelligenza Artificiale come arma offensiva non è destinato a rallentare l’uso dell’AI come strumento difensivo.

Intelligenza Artificiale e sicurezza informatica, l’allarme ransomware

Un altro argomento discusso nel sondaggio è stata la recente operazione Europol che ha portato alla chiusura di due mercati che animavano il dark web come AlphaBay e Hansa. Mercati in cui giravano armi, droga e ovviamente malware. Mentre, come detto, questa tipologia di web/mercati sono tipicamente utilizzati per vendere le vulnerabilità di sicurezza, il 79% degli intervistati non crede che la loro chiusura sia destinata a rallentare la velocità degli attacchi ransomware.

Intelligenza Artificiale e sicurezza informatica, strategie e processi

In termini di strategie e processi di cybersecurity, la patch e l’aggiornamento del sistema operativo sono state indicate come le principali preoccupazioni dal 39% degli intervistati. I problemi di conformità sono stati rilevati dal 24% del campione come fonte di mal di testa, il ransomware si è attestato al 18% e gli attacchi di denial of service (DoS) sono stati inficati dall’8% degli esperti di sicurezza.

Per quanto concerne i principali problemi di sicurezza che le organizzazioni stanno affrontando, negli ultimi tre mesi in testa c’è il phishing (36%), poi gli attacchi infrastrutturali critici (33%), gli attacchi IoT (15%), gli attacchi ransomware (14%) e gli attacchi botnet (1% ).

La voce di Heather Adkins, team di sicurezza di Google

Sul rapporto potenzialmente esplosivo tra intelligenza artificiale e sicurezza informatica si è recentemente pronunciata anche Heather Adkins, una esperta di cybersecurity che ha protetto i sistemi di Google per 15 anni. Adkins è infatti direttore della sicurezza dell’informazione e della privacy e membro fondatore del team di sicurezza di Google, ha anche consigliato ai consumatori di non mettere informazioni personali sensibili nelle loro comunicazioni in linea.

«I software di sicurezza basati su Intelligenza Artificiale – ha spiegato Adkins nel corso di una recente conferenza – non sono particolarmente efficaci nel fermare i metodi di attacco degli anni ’70, figuriamoci se parliamo di quelli più recenti. Mentre l’AI rischia di essere molto efficace per lanciare nuovi cyber attacchi, non è necessariamente vero che sia migliore di sistemi non-AI per la difesa. Il problema è che produce troppi falsi positivi. L’AI Intelligenza Artificiale è brava nell’individuare un comportamento anomalo, ma vedrà anche altre 99 cose che le persone devono entrare e controllare, solo per scoprire che non è un attacco» ha aggiunto Adkins.

In pratica secondo l’esperta il problema nell’applicare l’Intelligenza Artificiale alla sicurezza è che l’apprendimento della macchina richiede un feedback «per imparare ciò che è buono e cattivo … ma non siamo sicuri di cosa sia buono e cattivo», specialmente quando i programmi dannosi mascherano la loro vera natura. «Il mio consiglio in un simile scenario – ha chiuso l’esperta – è quello di investire più in talento e meno in tecnologia».

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati