istituzioni

Google, indagine europea per l’uso dei dati personali nei modelli di AI



Indirizzo copiato

Il Garante europeo della Privacy ha avviato un’indagine per il trattamento dei dati personali durante lo sviluppo del modello di intelligenza artificiale PaLM 2. La Commissione per la Protezione dei Dati irlandese (DPC) sta esaminando se Google abbia violato il GDPR

Pubblicato il 12 set 2024



Google

Il Garante europeo della privacy ha avviato un’indagine sul trattamento dei dati personali da parte di Google nello sviluppo di uno dei suoi modelli di intelligenza artificiale, mentre i regolatori intensificano il controllo sulle ambizioni dell’IA dei giganti tecnologici. La Commissione per la Protezione dei Dati irlandese (DPC), responsabile dell’applicazione del Regolamento Generale sulla Protezione dei Dati (GDPR) dell’Unione Europea, ha annunciato di aver avviato un’inchiesta formale su Pathways Language Model 2 (PaLM 2) di Google.

Perché con PaLM2 Google avrebbe violato il GDPR

Lanciato a maggio 2023, PaLM 2 precede i più recenti modelli Gemini di Google, che alimentano i suoi prodotti di intelligenza artificiale. Gemini, introdotto a dicembre dello stesso anno, è ora il modello principale per la generazione di testo e immagini.

L’inchiesta valuterà se l’azienda abbia violato gli obblighi previsti dal GDPR riguardo al trattamento dei dati personali dei cittadini dell’UE e dello Spazio Economico Europeo.

Secondo il regolamento, le aziende devono condurre una valutazione dell’impatto sulla protezione dei dati prima di gestire tali informazioni quando l’uso previsto comporta un alto rischio per i diritti e le libertà degli individui.

Questo è particolarmente rilevante per le nuove tecnologie ed è “di cruciale importanza per garantire che i diritti e le libertà fondamentali degli individui siano adeguatamente considerati e protetti”, ha dichiarato il Regolatore in un comunicato.

La valutazione è oggetto dell’indagine. Google non ha risposto immediatamente a una richiesta di commento.

Gli altri provvedimenti a carico di aziende di AI in Europa

Questa è l’ultima di una serie di azioni della DPC contro le grandi aziende tecnologiche che stanno sviluppando grandi modelli linguistici.

A giugno, Meta ha sospeso i suoi piani di addestrare il modello Llama sui contenuti pubblici condivisi dagli adulti su Facebook e Instagram in Europa, a seguito di discussioni con il regolatore irlandese. Successivamente, Meta ha limitato la disponibilità di alcuni dei suoi prodotti di intelligenza artificiale agli utenti della regione.

Un mese dopo, gli utenti di X hanno scoperto di essere stati “inclusi automaticamente” nell’uso dei loro post per addestrare i sistemi della start-up xAI di Elon Musk.

La piattaforma ha sospeso il trattamento di diverse settimane di dati degli utenti europei raccolti per addestrare il suo modello Grok AI, a seguito di procedimenti legali avviati dalla DPC. È stata la prima volta che il regolatore ha utilizzato i suoi poteri per intraprendere un’azione del genere contro una società tecnologica.

Articoli correlati

Articolo 1 di 4