ANALISI

L’ascesa dell’AI agentica: opportunità e rischi di sicurezza secondo Gartner



Indirizzo copiato

L’introduzione dell’AI agentica potrebbe trasformare il settore tecnologico, aumentando il potenziale dell’intelligenza artificiale e integrandosi nel 33% delle applicazioni software aziendali entro il 2028. Tuttavia, insieme ai benefici, emergono nuovi rischi di sicurezza che richiedono linee guida legali ed etiche per una gestione efficace

Pubblicato il 4 dic 2024



Agenti AI Gartner

L’AI agentica potrebbe migliorare drasticamente il potenziale dell’intelligenza artificiale, passando dall’1% al 33% di integrazione nelle applicazioni software aziendali entro il 2028. Parola di Gartner. Questa tecnologia, però, porta con sé nuovi rischi e minacce alla sicurezza, come sottolineato da Avivah Litan, vicepresidente e analista della società di consulenza.

Autonomia e potenziale dell’AI Agentica

Fino ad oggi, i modelli di linguaggio di grandi dimensioni (LLM) non hanno agito di propria iniziativa. Con l’AI agentica, invece, questi modelli possono operare autonomamente con una supervisione umana minima, adattandosi al contesto e perseguendo obiettivi in ambienti complessi. Questa capacità potrebbe ampliare notevolmente il potenziale dell’AI, permettendole di esaminare dati, svolgere ricerche e completare compiti sia nel mondo digitale che fisico attraverso API o sistemi robotici.

Gartner prevede che entro il 2028 i clienti delle macchine AI agentiche potrebbero sostituire il 20% delle interazioni delle vetrine digitali leggibili dall’uomo. Inoltre, almeno il 15% delle decisioni lavorative quotidiane potrebbe essere preso autonomamente tramite AI agentica, rispetto a zero nel 2024.

I rischi e e le minacce dell’AI Agentica

Nonostante le promettenti applicazioni, gli utenti devono essere consapevoli dei rischi aggiuntivi. Come afferma Litan, “Con i modelli e le applicazioni AI standard, la superficie di minaccia è spesso limitata agli input, all’elaborazione del modello e agli output, alle vulnerabilità software nello strato di orchestrazione e agli ambienti che li ospitano.” Utilizzando agenti AI, la superficie di minaccia si espande per includere la catena di eventi e interazioni che essi avviano.

Per gestire queste minacce, Litan consiglia ai leader IT di educare la propria organizzazione sui rischi intrinseci degli agenti AI e di adottare misure per mitigarli. Queste azioni possono includere il rilevamento e la segnalazione di attività anomale degli agenti AI e quelle che violano specifiche politiche aziendali, oltre alla visualizzazione e mappatura di tutte le attività e flussi di informazioni degli agenti AI.

Il divario tra assistenti LLM e agenti AI completi

Le aziende stanno già implementando o personalizzando prodotti con capacità di agenti AI, tra cui Microsoft Copilot Studio, Azure AI Studio, AWS Bedrock e Google NotebookLM. Tuttavia, esiste ancora un ampio divario tra gli attuali assistenti basati su LLM e gli agenti AI completi. Questo divario si prevede verrà colmato inizialmente per attività di ambito ristretto e potrà espandersi man mano che il mondo imparerà a costruire, governare e fidarsi delle soluzioni AI agentiche, secondo Gartner.

Articoli correlati

Articolo 1 di 4