Nel contesto della recente evoluzione legislativa dell’Unione Europea, l’8 dicembre 2023 ha segnato un momento cruciale con il raggiungimento – non senza fatica – dell’accordo istituzionale riguardante il Regolamento sull’Intelligenza Artificiale (AI Act). Questo atto legislativo, inizialmente proposto nel 2021, mira a stabilire un quadro normativo basato sul rischio per la regolamentazione dell’IA, ponendosi come un punto di riferimento globale. Tuttavia, la sua realizzazione ha incontrato significative sfide: la contestazione di alcuni principi fondamentali del pacchetto da parte di Francia, Germania e Italia nel Consiglio dell’UE ha rischiato di compromettere seriamente l’approvazione della legislazione, che ha richiesto ben 36 ore ininterrotte di negoziati. Questo scenario ha evidenziato una tensione notevole nel processo decisionale dell’UE, rivelando come l’equilibrio tra innovazione tecnologica e regolamentazione sia un terreno di negoziazione complesso e dinamico.
Nel cuore del dibattito che ha animato le discussioni sull’AI Act, emerge con preminenza la tematica dei modelli fondazionali, una nuova frontiera nel campo dell’intelligenza artificiale. Questi modelli, generalmente finalizzati a scopi ampi e versatili, incarnano l’essenza stessa dell’AI polivalente, capaci di adattarsi a molteplici applicazioni, da quelle educative a quelle pubblicitarie. Un esempio lampante è fornito dai modelli linguistici di grandi dimensioni, come ChatGPT di OpenAI, che dimostrano l’ampio raggio d’azione e l’influenza potenziale di tali sistemi.
La complessità giuridica nasce dall’inglobamento di queste tecnologie in applicazioni più specifiche e circoscritte: ciò ha sollevato questioni di natura etica, legale e di privacy, dovute alla vasta mole di dati di addestramento necessari per la loro realizzazione. La versione iniziale dell’AI Act non considerava esplicitamente i modelli fondazionali, tuttavia, la rapida evoluzione del settore dell’AI generativa ha spinto i legislatori a integrarli all’interno del quadro normativo basato sul rischio.
In questo contesto, il Parlamento Europeo ha proposto una regolamentazione stringente per tutti i modelli fondazionali, indipendentemente dalla loro categoria di rischio o dal modo in cui vengono impiegati. Tuttavia, le aziende tecnologiche, artefici di questi modelli, hanno sollevato perplessità, promuovendo un approccio più sfumato, che consideri l’uso effettivo dei modelli piuttosto che la loro natura intrinseca. In risposta a ciò, le recenti negoziazioni dell’UE hanno introdotto un approccio a due livelli, classificando i modelli fondazionali in base alle risorse computazionali richieste. In pratica, ciò comporterebbe che la maggior parte dei potenti modelli generici verrebbe regolamentata solo tramite obblighi leggeri di trasparenza e condivisione delle informazioni, una prospettiva che segna una restrizione significativa dell’ambito di applicazione dell’AI Act.
La posizione dell’industria tecnologica
Nel dibattito sull’AI Act, l’industria tecnologica ha espresso una posizione critica e riflessiva riguardo alla regolamentazione dei modelli fondazionali. Le aziende, pilastri nella costruzione di questi modelli, hanno evidenziato la necessità di un approccio regolamentare maturo e sfaccettato, che consideri non solo la natura intrinseca dei modelli, ma anche il contesto e le modalità del loro impiego. Questa prospettiva nasce dalla preoccupazione che una regolamentazione rigida possa frenare l’innovazione, un fattore chiave per il progresso e la competitività in un settore in rapida evoluzione come quello dell’intelligenza artificiale.
Parallelamente, si è verificato un cambiamento significativo nelle posizioni di alcuni stati membri chiave dell’UE, influenzati dall’ascesa di nuove big tech europee, come Mistral AI in Francia e Aleph Alpha in Germania. Queste aziende, emergendo come attori importanti nel panorama tecnologico, hanno iniziato a raccogliere investimenti considerevoli per lo sviluppo di modelli fondazionali. Questo sviluppo ha portato a un ripensamento delle politiche regolamentari, ponendo in evidenza la necessità di un equilibrio tra la tutela dei consumatori e la promozione dell’innovazione.
Modelli fondazionali e sorveglianza biometrica
Le principali questioni che desteranno ancora grande dibattito, anche a seguito dell’approvazione dell’AI Act, riguardano pertanto i modelli fondazionali ad alto impatto con rischio sistemico e la sorveglianza biometrica.
Sul primo punto l’accordo prevede la necessità di condurre valutazioni dei modelli, valutare e mitigare i rischi sistemici, effettuare test avversari, riferire alla Commissione Europea su incidenti gravi, assicurare la cybersecurity e relazionare sull’efficienza energetica. Questi requisiti riflettono una crescente consapevolezza delle potenziali implicazioni etiche e sociali che l’AI può avere, ponendo un’enfasi particolare sulla responsabilità e sulla sicurezza.
Per quanto riguarda l’utilizzo di sorveglianza biometrica in tempo reale in spazi pubblici, l’accordo limita questa possibilità a casi specifici, quali la prevenzione di minacce reali, presenti o prevedibili, come attacchi terroristici, e la ricerca di persone sospettate di crimini gravi. Inoltre, vieta manipolazioni comportamentali cognitive, il raschiamento indiscriminato di immagini facciali da internet o da riprese CCTV, il punteggio sociale e i sistemi di categorizzazione biometrica per inferire credenze politiche, religiose, filosofiche, orientamento sessuale e razza. Si segnala infine che l’accordo stabilisce anche diritti per i consumatori, come la possibilità di presentare reclami e ricevere spiegazioni significative. Le multe per le violazioni vanno da 7,5 milioni di euro o l’1,5% del fatturato a 35 milioni di euro o il 7% del fatturato globale, enfatizzando la serietà con cui l’UE intende affrontare eventuali infrazioni.
Conclusioni
Il dibattito su come bilanciare la regolamentazione con la crescita dell’industria e l’innovazione è diventato così un punto cruciale. La questione centrale riguarda la capacità dell’Europa di stabilire un ambiente normativo che sia protettivo e propulsivo al tempo stesso, in grado di tutelare i diritti dei cittadini senza soffocare il potenziale innovativo. Questa dinamica tra regolamentazione e innovazione è particolarmente pertinente in un’era caratterizzata da rapidi sviluppi tecnologici, dove le decisioni politiche hanno ripercussioni dirette sul ritmo e sulla direzione dell’evoluzione tecnologica. La sfida per i legislatori europei, quindi, risiede nel trovare un punto di equilibrio che consenta alle imprese di crescere e innovare, pur mantenendo solide garanzie per la sicurezza e la privacy dei cittadini.