ANALISI

AI Act, quale impatto nel settore dell’education technology



Indirizzo copiato

Anche nel settore dell’istruzione e della formazione esistono rischi di cui il legislatore ha tenuto conto. Tra le pratiche di AI vietate per rischio inaccettabile ci sono i sistemi di riconoscimento delle emozioni utilizzati nei luoghi di lavoro e negli istituti scolastici, fatta eccezione del loro utilizzo per motivi medici o di sicurezza

Pubblicato il 10 mag 2024

Vincenzo Donadio

Associate Hogan Lovells

Francesca Rolla

Partner Hogan Lovells



Formazione DALL-E 2
immagine generata con DALL-E

L’Education Technology (EdTech) rappresenta l’insieme delle soluzioni tecnologiche al servizio dell’istruzione e della formazione, per migliorare la qualità dell’esperienza di apprendimento. Si tratta di un settore in costante crescita (in particolare dopo l’accelerazione avvenuta durante la pandemia Covid-19) che interessa scuole, università, imprese e start-up impegnate nella trasformazione digitale dell’esperienza educativa e nella formazione in digital learning.

Il mercato globale dell’EdTech vale 325 mld di dollari

Si stima che il mercato globale dell’EdTech valga 325 miliardi di dollari a livello mondiale, di cui circa 70 miliardi generati in Europa. Secondo gli ultimi dati pubblicati dall’Osservatorio EdTech della School of Management del Politecnico di Milano, anche in Italia il mercato dell’EdTech continua a essere in crescita (con un valore di circa 2,8 miliardi di euro nel 2022), contraddistinguendosi come uno dei pochi mercati in cui gli investimenti di Venture Capital sono aumentati. Le potenzialità del settore EdTech sono esponenziali se si considera che il mercato globale dell’istruzione ha raggiunto un valore di 6,5 bilioni di dollari nel 2022 e dovrebbe sfiorare i 10 bilioni di dollari entro il 2030.

In tale contesto, la nuova normativa europea sull’intelligenza artificiale (AI Act) è destinata a dare ulteriore impulso allo sviluppo dell’innovazione tecnologica nel settore dell’istruzione, della formazione e del digital learning.

Le nuove regole europee sull’intelligenza artificiale

Il nuovo Regolamento sull’intelligenza artificiale approvato dal Parlamento europeo il 13 marzo 2024 rappresenta la prima legge al mondo adottata per regolare lo sviluppo e l’uso dell’intelligenza artificiale, assicurando così all’Unione Europea un ruolo strategico in tale settore.

Con l’AI Act, l’Unione Europea ha istituito un quadro giuridico uniforme per lo sviluppo, la commercializzazione e l’uso di sistemi di intelligenza artificiale, promuovendo l’innovazione tecnologica e la diffusione di un’AI antropocentrica e affidabile e, al contempo, con l’obiettivo di garantire un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dell’UE. Il nuovo Regolamento si applicherà a tutti i fornitori di sistemi di AI, definiti come le persone fisiche o giuridiche che sviluppano o fanno sviluppare un sistema di AI immettendolo sul mercato dell’UE con il proprio nome o marchio, indipendentemente dal fatto che siano stabiliti o ubicati nell’UE o in un paese terzo (dunque anche alle società extra-UE).

Dopo l’approvazione del Parlamento europeo, la nuova legge è ora sottoposta alla verifica finale dei giuristi-linguisti e alla formale approvazione del Consiglio. L’AI Act entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta Ufficiale dell’UE e sarà applicabile a partire dai 24 mesi successivi (con alcune eccezioni, come il divieto di sistemi di AI che presentano rischi inaccettabili, applicabile a partire da 6 mesi e gli obblighi per i sistemi di AI ad alto rischio che diventeranno applicabili 36 mesi dopo l’entrata in vigore dell’AI Act).

Pratiche vietate e sistemi di AI ad alto rischio

In particolare, il nuovo Regolamento vieta alcune pratiche di AI che possono determinare un rischio inaccettabile per la sicurezza e i diritti dei cittadini, tra cui i sistemi di AI in grado di manipolare il comportamento umano, che consentono di attribuire un punteggio sociale (social scoring) classificando o valutando le persone in base al loro comportamento sociale o alle loro caratteristiche personali oppure volti all’estrazione non mirata (scraping) di immagini facciali da internet o da filmati a circuito chiuso per creare o ampliare banche dati, nonché i sistemi di categorizzazione biometrica basati su dati sensibili.

Accanto alle applicazioni strettamente vietate, l’AI Act definisce ad alto rischio quei sistemi di AI il cui impiego o malfunzionamento potrebbe comportare un rischio significativo per la salute, la sicurezza o i diritti fondamentali delle persone fisiche e che, pertanto, possono essere immessi sul (o utilizzati nel) mercato dell’UE soltanto se soddisfano determinati requisiti obbligatori delineati dalla nuova normativa.

Rientrano in questa categorie i sistemi di AI destinati a essere utilizzati nella gestione e nel funzionamento di infrastrutture digitali critiche e del traffico stradale, nella valutazione dell’occupazione o volte a ottimizzare la gestione dei lavoratori e l’accesso al lavoro autonomo (ad esempio, per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati, adottare decisioni per la promozione o la cessazione di rapporti di lavoro), nonché nel determinare l’accesso a servizi e prestazioni pubblici e privati essenziali (come l’assistenza sanitaria o la valutazione dell’affidabilità creditizia).

Sistemi di AI nei settori dell’istruzione e della formazione

L’AI Act sottolinea l’importanza della diffusione di sistemi di AI nel campo dell’istruzione e della formazione al fine di promuovere un’esperienza educativa e formativa digitale di alta qualità, consentendo agli utilizzatori di acquisire e condividere competenze e abilità sempre più imprescindibili nel panorama educativo e lavorativo odierno e futuro (compresa l’alfabetizzazione mediatica e il pensiero critico), che possa contribuire alla partecipazione attiva nell’economia, nella società e nei processi democratici.

Anche nel settore dell’istruzione e della formazione, tuttavia, esistono rischi di cui il legislatore ha tenuto conto. In particolare, il nuovo Regolamento ha incluso tra le pratiche di AI vietate per rischio inaccettabile i sistemi di riconoscimento delle emozioni utilizzati nei luoghi di lavoro e negli istituti scolastici, fatta eccezione del loro utilizzo per motivi medici o di sicurezza.

L’AI Act elenca altresì una serie di sistemi di AI ad alto rischio progettati per l’utilizzo in determinati ambiti dell’istruzione e della formazione. Tra tali sistemi rientrano quelli destinati a: determinare l’accesso o l’ammissione a istituti d’istruzione e formazione professionale; valutare i risultati dell’apprendimento; predeterminare a quale livello d’istruzione un individuo potrà accedere; monitorare e rilevare comportamenti vietati degli studenti durante prove d’esame.

Tali sistemi di AI, essendo in grado di condizionare il percorso formativo/professionale delle persone e incidere sulle future capacità di reddito, possono infatti essere particolarmente intrusivi e violare il diritto all’istruzione, alla formazione e alla non discriminazione, ove progettati e utilizzati in modo inadeguato.

L’AI Act introduce una serie di specifici obblighi e responsabilità a carico di fornitori, importatori, distributori e in determinati casi dei c.d. “deployer” dei sistemi di AI ad alto rischio, anche nel campo dell’istruzione e della formazione. In particolare, i fornitori di sistemi di AI ad alto rischio dovranno valutare e assicurare la conformità dei loro prodotti ai requisiti indicati dal nuovo Regolamento, implementare un sistema continuativo di gestione dei rischi, fornire ai destinatari del sistema di AI istruzioni per l’uso complete, chiare e comprensibili, nonché adempiere a obblighi di registrazione, monitoraggio del funzionamento del sistema di AI dopo la sua immissione sul mercato e attuazione di misure di sorveglianza umana.

Formazione DALL-E
Immagine generata con DALL-E

Opportunità e sfide per le società EdTech

L’intelligenza artificiale rivestirà nei prossimi anni un ruolo chiave per migliorare l’istruzione e i processi di apprendimento in ambito scolastico, universitario e aziendale. Le società che operano nel settore EdTech, nonché gli operatori interessati a investire in tale settore, sono dunque chiamati a confrontarsi con il nuovo quadro normativo delineato dall’AI Act e i numerosi obblighi e responsabilità derivanti dallo sviluppo di sistemi di AI destinati a essere utilizzati per la formazione didattica o professionale.

Da un lato, infatti, la nuova normativa europea rappresenta un terreno fertile per tutti gli sviluppatori di sistemi di AI grazie all’introduzione di regole precise per operare anche nei settori ad alto rischio, promuovendo l’innovazione tecnologica e incentivando gli investimenti delle società che operano (o decideranno di operare) in Italia e in Europa (si pensi, in particolare, alle misure di sostegno all’innovazione e alla sperimentazione previsti dall’AI Act per agevolare e accelerare l’accesso al mercato dell’UE da parte di PMI e start-up).

Dall’altro lato, non bisogna trascurare i rischi legali associati allo sviluppo di nuovi sistemi di AI o alla conformità di applicazioni già in commercio, dovendo assicurare il rispetto dei numerosi requisiti posti dalla nuova legislazione europea e la protezione dei diritti e degli interessi delle persone fisiche destinatarie di tali sistemi (quali studenti, personale docente, formatori aziendali, dipendenti).

Molte opportunità, ma anche rischi

L’AI Act, infatti, prevede che qualsiasi soggetto potrà presentare reclami per eventuali violazioni delle nuove disposizioni europee. Gli Stati membri, inoltre, saranno chiamati a introdurre specifiche misure sanzionatorie per il mancato rispetto delle prescrizioni normative dell’AI Act, potendo prevedere sanzioni amministrative fino a 35 milioni di euro o al 7% del fatturato mondiale totale annuo dell’esercizio precedente in caso di violazioni riguardanti le pratiche di AI vietate ovvero fino a 15 milioni di euro o al 3% del fatturato mondiale totale annuo dell’esercizio precedente per inosservanza degli altri requisiti e obblighi previsti dall’AI Act.

La raccomandazione è dunque quella di attivarsi tempestivamente per cogliere le numerose opportunità poste dalla prima legge al mondo sull’intelligenza artificiale e, allo stesso tempo, scongiurare o ridurre i rischi legati allo sviluppo di sistemi di AI, in particolare se ad alto rischio.

Articoli correlati

Articolo 1 di 3