Il 2023 sarà ricordato come l’anno zero dello sviluppo dell’intelligenza artificiale alla portata di tutti, non tanto per il lancio della tecnologia, su cui da anni le società di sviluppo software stanno lavorando, ma per la presa di coscienza da parte dei governi, in ragione delle potenzialità della tecnologia sottesa e quindi, degli effettivi rischi in relazione all’utilizzo senza controllo della stessa.
L’accordo volontario delle Big Tech con il governo Usa
La Casa Bianca, per mitigare i problemi di sicurezza e i rischi dell’intelligenza artificiale, ha dichiarato che le sette più importanti aziende nel campo dello sviluppo dell’AI hanno accettato un impegno volontario al fine di mitigare i rischi di questa tecnologia emergente, intensificando il coinvolgimento del governo Usa nel dibattito sempre più urgente sulla regolamentazione dell’AI.
Appare evidente che oltreoceano non si vuole rimanere indietro rispetto all’Unione Europea in tema di regolazione delle modalità di sviluppo e successivo utilizzo dei sistemi di AI, ciò in un’ottica di bilanciamento fra diritti fondamentali (in Usa diritti civili) e sviluppo sostenibile delle tecnologie a fini commerciali.
L’impegno degli Usa è quello di sviluppare una regolamentazione bipartisan che guardi anche ai delicati problemi etici che comportano l’utilizzo di siffatte tecnologie.
Il contenuto dell’accordo e i meccanismi di controllo
Le aziende coinvolte, tra cui Google, Amazon, Microsoft, Meta e OpenAI, consentiranno a esperti di sicurezza indipendenti di effettuare test sui software sviluppati, impegnandosi a condividere i dati sulla sicurezza dei loro sistemi con il governo e le istituzioni universitarie.
Ma vi è di più, le Big Tech firmatarie svilupperanno meccanismi di alert in favore degli utenti della rete finalizzati a rendere il “consumatore” consapevole che un contenuto è generato dall’AI e non dall’opera, anche creativa, dell’uomo.
In realtà, la tecnologia esiste già, ovvero il c.d. “watermarking” cioè la marcatura digitale dei file informatici grazie a cui sarà possibile non solo conoscerne la provenienza, ma anche la tecnologia di AI utilizzata per generali, con implicazioni non soltanto in relazione alla tutela dell’utente della rete, ma anche in relazione ai diritti d’autore eventualmente violati, nel caso in cui, per esempio, un’immagine sia stata creata utilizzando come base un’opera originale.
Va detto, oltretutto, che il governo Usa ha individuato la FTC (Federal Trade Commission, l’antitrust Usa) quale organo deputato circa il controllo dell’effettività osservanza dell’accordo: in buona sostanza la violazione dell’impegno pubblico da parte delle aziende firmatarie sarà considerata quale pratica ingannevole, quindi in contrasto con la normativa a tutela del consumatore.
Chiaramente, il tentativo appare ancora in fase embrionale, anche perché, le prime impressioni propendono a ritenere i controlli da parte delle autorità abbastanza blandi, non essendoci né un obbligo di rendicontazione, né scadenze fisse circa trasmissione dei dati, oltre al fatto la definizione dei metadati non è stata ritenuta sufficientemente esaustiva.
Va precisato che la FCA ha avviato un’indagine su ChatGPT richiedendo documenti a OpenAI in ordine alle misure di sicurezza adottate e per verificare se l’azienda abbia dichiarato o meno il falso.
Regolamentazione o impegno pubblico?
Come anticipato, l’Unione europea ha avviato una massiccia opera di regolamentazione dell’AI, tentando di anticipare, per la prima volta, gli effetti delle nuove tecnologie: un cambio di rotta epocale, se si pensa che il legislatore notoriamente arriva dopo.
Tuttavia, i passaggi parlamentari non consentirebbero di licenziare il testo a breve, pertanto anche la Commissione Europea starebbe pensando di usare, in via interinale, lo strumento dell’impegno pubblico per tentare di limitare gli effetti negativi di uno sviluppo incontrollato di tecnologie basate sull’AI.
I rischi di uno sviluppo incontrollato a danno dei diritti e delle libertà fondamentali
Il timore dei governi e di molti commentatori è che l’AI possa essere utilizzata per influenzare negativamente le decisioni dei singoli ai quali, non spendo distinguere fra realtà e finzione dell’AI, sarebbe negato il diritto a una libera e cosciente scelta politica: il rischio è quello di un popolo “drogato” dall’iperinformazione distorta, con un concreto pericolo per la tenuta delle democrazie occidentali, in cui il pluralismo ed il dibattito pubblico assurgono quali muri portanti
L’altro pericolo riguarda la tutela della dignità dei singoli, potenzialmente esposti ad artificiose modifiche della propria immagine, utilizzata per fini criminosi, quali furti di identità, diffamazione, calunnia nella misura in cui, per esempio, si voglia incolpare falsamente altri di fatti criminosi.
Altri autori hanno studiato i limiti e le potenzialità dell’AI applicate alla giustizia c.d. predittiva; infatti, ci si domanda se «l’AI possa essere utilizzata esclusivamente per la ricerca della giurisprudenza o per la selezione di un modello di decisione; si tratta di stabilire se è un data-base che raccoglie documenti o se è uno strumento per individuare linee-guida e criteri utili per la previsione giudiziale sul fatto.»
Conclusioni
In ogni caso, non bisogna abbandonarsi a scenari necessariamente catastrofici, anche perché la tecnologia attuale ha ancora il vantaggio di essere controllata e sviluppate pur sempre da persone; tuttavia, è necessario prepararsi per tempo al fine di non incorrere nell’errore di sottovalutare la portata epocale dell’AI sul comportamento delle masse e, quindi, sulle scelte future dei governi.
Fonti:
- https://www.washingtonpost.com/technology/2023/07/21/ai-white-house-pledge-openai-google-meta/
- https://www.agendadigitale.eu/mercati-digitali/i-nuovi-paletti-ue-ai-sistemi-basati-sullintelligenza-artificiale/
- Giuseppe Riccio, Ragionando su intelligenza artificiale e processo penale, in Archivio Penale, Fascicolo n. 3 – Settembre-Dicembre 2019 (Web);