Per la maggior parte delle organizzazioni, l’implementazione dell’intelligenza artificiale si fonda su due fattori trainanti: ottenere analisi dei dati su larga scala e raggiungere livelli più elevati di automazione per aumentare la produttività, migliorare i processi aziendali e ridurre i costi. Automazione vuol dire generare attività specifiche senza che le persone debbano eseguirle. Una volta che un processo è impostato in un programma, può ripetersi ogni volta che è necessario, producendo sempre lo stesso risultato. L’automazione tradizionale richiede che fin dall’inizio, ogni aspetto, dall’input all’output, debba essere attentamente pianificato e delineato e una volta definito, il processo automatizzato può essere attivato per funzionare come previsto.
Automazione intelligente, quali sono i vantaggi
Il vantaggio dell’automazione intelligente (AI) è che consente alle macchine di affrontare processi semplici o complessi, senza che questi debbano essere definiti in modo esplicito. La AI in genere utilizza il machine learning, l’intelligenza artificiale generativa e l’elaborazione del linguaggio naturale per suggerire modi per analizzare i dati o intraprendere azioni in base ai dati esistenti e ai modelli di utilizzo. In sostanza, l’intelligenza artificiale è lo strumento che abilita l’automazione intelligente che costituisce il risultato finale. Fornisce alle persone le informazioni giuste al momento giusto consentendo di concentrarsi sulle attività principali e strategiche anziché sull’analisi dei dati.
L’intelligenza artificiale, come deep learning e machine learning, offre il potenziale per automatizzare enormi elaborazioni dati e workflow evidenziando agli operatori le informazioni più rilevanti che consentono di migliorare le risposte alle esigenze aziendali e di prendere le giuste decisioni in tempi rapidi. In considerazione di ciò, l’automazione intelligente può aiutare le aziende a aderire a vari standard e normative del settore, riducendo al contempo i costi di conformità.
L’intelligenza artificiale nella sicurezza
L’intelligenza artificiale si sta ‘democratizzando’ grazie a varie soluzioni di analisi video che, specie nel settore della sicurezza fisica, hanno fatto molta strada. Per esempio, in occasione degli eventi sportivi, le telecamere basate su AI raccolgono all’interno degli stadi e delle loro aree perimetrali – esclusivamente in forma anonima – i dati su veicoli e persone, fornendo un elenco di attributi (ad es. colore degli indumenti, cappello, occhiali, zaino) che possono servire per i controlli di sicurezza o per identificare automaticamente i colli di bottiglia e facilitare il flusso delle persone durante i vari momenti di una partita o di un concerto.
In definitiva, la tecnologia non fa nulla di diverso da quanto farebbe un essere umano: semplicemente, lo fa in modo più veloce ed efficiente, impegnando un numero inferiore di risorse. La tecnologia, infatti, non prende decisioni, ma fornisce suggerimenti. L’utilizzo di funzioni di machine learning supporta gli addetti alla sicurezza fornendo una serie di informazioni raccolte attraverso l’analisi automatizzata dei metadati dei video. Questo permette anche di intervenire sulle situazioni in tempo reale invece che a posteriori, utilizzando le riprese video per rivedere e approfondire quanto accaduto.
Massimizzare l’impiego dell’intelligenza artificiale in ambito sicurezza
Uno dei modi migliori per capitalizzare i nuovi progressi dell’intelligenza artificiale nel settore della sicurezza fisica è l’adozione di una piattaforma aperta. L’architettura aperta offre ai professionisti della sicurezza la libertà di esplorare nuove applicazioni man mano che le soluzioni di intelligenza artificiale arrivano sul mercato e selezionare quelle che meglio rispondono ai loro obiettivi.
È bene ricordare sempre che l’intelligenza artificiale è un mezzo per raggiungere un’automazione intelligente a supporto delle persone in modo da consentire di ottimizzare i processi e migliorare la produttività. Uno sviluppo e un’implementazione responsabile sono il principio fondamentale alla base di tutto: ogni tipo di organizzazione si deve impegnare nella protezione dei dati, nella privacy e nell’uso etico dell’intelligenza artificiale; aspetti imprescindibili per mantenere la resilienza informatica, creare fiducia e contribuire al benessere della società.
Large Language Model (LMM): opportunità e rischi per il mondo della sicurezza
Rimanendo nel campo dell’uso responsabile di tecnologia basata su AI pone l’accento sui LLM come generatori di nuove opportunità per sviluppare sempre più automazione in vari ambiti, incluso il settore della sicurezza fisica. Tuttavia, è essenziale comprenderne i limiti e i possibili rischi.
Gli LLM utilizzano un metodo di addestramento AI cosiddetto ‘non supervisionato’ perché si alimenta di dati presi da Internet e di conseguenza le risposte che danno non sono sempre accurate, veritiere o prive di pregiudizi; dunque, soprattutto in un contesto di sicurezza possono crearsi rischi o situazioni fuorvianti pericolose. Infatti, gli LLM possono determinare rischi per quanto riguarda la privacy e la riservatezza perché in alcuni casi apprendono anche da dati contenenti informazioni riservate.
Per azioni malevole, si potrebbe eventualmente sfruttare la tecnologia AI chiedendo alle chatbot di scrivere script che sfruttano le vulnerabilità o hackerano le applicazioni. Sebbene si tratti di esempi ipotetici, vale la pena considerare come queste tecnologie potrebbero essere utilizzate in modo improprio. Ecco perché, nel settore della sicurezza fisica, questi modelli devono operare in un ambiente circoscritto ed essere gestiti correttamente per trarne tutti i vantaggi, ma in modo sicuro.
In questo momento c’è molto entusiasmo e gli LLM offrono un grosso potenziale; gli sviluppatori stanno già ponendo molta enfasi sulle pratiche di sviluppo responsabili per garantire che la tecnologia sia sicura.
Gli LLM non sono sempre la soluzione migliore
Nel settore della sicurezza fisica, gli algoritmi di machine learning e deep learning sono comunemente utilizzati per rilevare modelli e classificare i dati senza affidarsi all’intelligenza artificiale generativa, dunque i risultati ottenuti da questi algoritmi si basano sulla probabilità e richiedono la supervisione umana per determinarne l’accuratezza. Gli LLM, a causa dei loro pesanti requisiti computazionali, non sono sempre la soluzione migliore per risolvere un problema particolare.
Ad esempio, per monitorare le presenze all’interno di una sala riunioni può essere più efficiente una soluzione che preveda l’uso di sensori che rilevano la presenza fisica rispetto a un sistema di telecamere basate sull’intelligenza artificiale che utilizza la visione artificiale per contare il numero di persone in una stanza.
Conclusioni
Infine, per garantire l’uso più responsabile ed efficiente dell’intelligenza artificiale e degli LLM è necessario implementare un solido sistema di test, monitoraggio e feedback degli utenti per garantire che le decisioni critiche siano sempre prese da esseri umani e che le attività automatizzate e i loro output siano utilizzati per fornire informazioni per migliorare la capacità di giudizio propria dell’essere umano.