Negli Usa divampa il dibattito sull’utilizzo dell’AI nel recruiting. Ci si chiede, in particolare: le aziende che utilizzano sistemi di intelligenza artificiale per la selezione di personale potrebbero violare l’Americans with Disabilities Act (ADA)?
L’AI nella selezione del personale
Lo scorso novembre, il Consiglio comunale di New York ha approvato il primo disegno di legge negli Stati Uniti per affrontare ampiamente l’uso dell’AI nelle assunzioni di personale.
Nello scorso aprile, la California ha introdotto il Workplace Technology Accountability Act, o Assembly Bill 1651. Il disegno di legge propone che i dipendenti siano informati prima della raccolta dei dati e dell’uso degli strumenti di monitoraggio e dell’implementazione degli algoritmi, con il diritto di rivedere e correggere i dati raccolti.
Giovedì 12 maggio, l’amministrazione Biden ha annunciato che “i datori di lavoro che usano algoritmi e intelligenza artificiale per prendere decisioni circa la selezione di personale rischiano di violare l’Americans with Disabilities Act se i candidati con disabilità sono svantaggiati nel processo”.
Come riportato da NBC News, Kristen Clarke, l’assistente procuratore generale per i diritti civili presso il Dipartimento di Giustizia, che ha fatto l’annuncio insieme alla Commissione per le pari opportunità di lavoro, ha affermato che “non c’è dubbio” che l’aumento dell’uso delle tecnologie sta “alimentando parte della persistente discriminazione”.
Quali risvolti ha l’accordo di Clearview AI con l’ACLU?
Lo scorso 9 maggio, la società di riconoscimento facciale Clearview AI ha concluso una causa intentata in Illinois due anni fa dall’American Civil Liberties Union (ACLU) e da diverse altre organizzazioni non profit. La società è stata accusata di aver violato una legge dello stato dell’Illinois, il Biometric Information Privacy Act (BIPA). Secondo i termini dell’accordo, Clearview AI ha accettato di vietare alla maggior parte delle aziende private di utilizzare il suo servizio.
Ma molti esperti hanno sottolineato che Clearview avrebbe poco di cui preoccuparsi con questa sentenza, dal momento che l’Illinois è uno dei pochi Stati che hanno tali leggi sulla privacy biometrica.
Slater Victoroff, fondatore e CTO di Indico Data afferma che: “Le nostre leggi sono un mosaico disordinato che non reggerà le moderne applicazioni di intelligenza artificiale, e sono felice di vedere alcuni progressi verso la certezza, anche se è un piccolo passo. Mi piacerebbe davvero vedere gli Stati Uniti sancire la privacy effettiva nella legge seguendo le recenti lezioni del GDPR nell’UE, piuttosto che continuare a scaricare la responsabilità”.
La regolamentazione dell’AI negli Stati Uniti è il “selvaggio West”
In fatto di regolamentazione dell’AI, gli Stati Uniti sono ancora al “selvaggio West”: sono parole di Seth Siegel, responsabile globale dell’intelligenza artificiale e della sicurezza informatica di Infosys Consulting. La domanda più grande ora, ha detto, dovrebbe essere come gli Stati Uniti gestiranno le aziende che raccolgono le informazioni che violano i termini di servizio da siti in cui i dati sono abbastanza visibili. Per le aziende, secondo Siegel il maggiore problema attuale riguarda il rischio reputazionale: “Se i loro clienti scoprissero i dati che stanno utilizzando, sarebbero ancora un marchio di fiducia?”.
“La proposta di Regolamento europeo sull’intelligenza artificiale prevede chiaramente un divieto assoluto all’utilizzo delle tecnologie di rating sociale, come nel caso del recruiting”
“L’affidamento agli algoritmi del compito di prendere decisioni importanti sulle persone è uno dei più chiari esempi del divario esistente tra l’approccio europeo alle nuove tecnologie, e quello statunitense.
È bene ricordare, infatti, che la proposta di Regolamento europeo sull’intelligenza artificiale prevede chiaramente un divieto assoluto all’utilizzo delle tecnologie di rating sociale, come nel caso del recruting o della valutazione del merito ai fini della concessione di finanziamenti, tutti casi che oltreoceano hanno dato luogo a numerosi casi di discriminazione. Si tratta infatti di un uso della tecnologia incompatibile con i principi comunitari, i quali si caratterizzano per una maggiore attenzione ai diritti dell’essere umano. Al contempo, questo non impedisce alle Big Tech di accedere ai nostri dati e di utilizzarli. Se infatti viviamo in un contesto molto diverso da quello americano, ciò non toglie che le nostre informazioni possano viaggiare oltreoceano. A tal proposito, ne è una dimostrazione il fatto che il Garante Privacy italiano e il CNIL francese hanno dovuto chiedere a Clearview AI di eliminare dai loro database le immagini dei cittadini europei, presumibilmente raccolte in gran numero dai profili social che, va ricordato, appartengono in prevalenza a società con sede negli Stati Uniti”.
Marco Martorana, avvocato
Un monito per i fornitori di intelligenza artificiale
Paresh Chiney, partner della società di consulenza globale StoneTurn, ha affermato che l’accordo è anche un segnale di avvertimento per i fornitori di intelligenza artificiale per le aziende, che devono “procedere con attenzione”, soprattutto se i loro prodotti e soluzioni sono a rischio di violare le leggi e i regolamenti che riguardano la privacy dei dati.
Anat Kahana Hurwitz, responsabile dei dati legali presso la piattaforma di intelligence della giustizia Darrow.ai, ha sottolineato che tutti i fornitori di intelligenza artificiale che utilizzano dati biometrici possono essere influenzati dalla sentenza Clearview AI, quindi, dovrebbero essere conformi al Biometric Information Privacy Act (BIPA), approvato nel 2008, “quando il panorama dell’AI era completamente diverso”. L’atto, ha spiegato, definiva gli identificatori biometrici come “scansione della retina o dell’iride, impronta digitale, impronta vocale o scansione della geometria della mano o del viso“. Un linguaggio legislativo, non un linguaggio scientifico: la comunità scientifica non usa il termine “geometria del volto”, ed è quindi soggetto all’interpretazione della corte.