Algoritmi che misurano o predicono performance e rendimento dei lavoratori, quali limiti

L’efficienza della forza lavoro e la valutazione del rendimento vanno perseguiti con l’ausilio di professionisti del settore, che abbiano padronanza della normativa privacy e giuslavoristica per evitare di incorrere in errori di valutazione e in violazioni del Regolamento UE 2016/670

Pubblicato il 13 Set 2021

AI risorse umane

In molti campi gli algoritmi promettono di diventare lo strumento attraverso il quale correggere le storture e le imperfezioni che caratterizzano tipicamente i processi cognitivi e le scelte compiute dagli esseri umani, messi in luce soprattutto negli ultimi anni da un’imponente letteratura di economia comportamentale e psicologia cognitiva. In tale contesto, le decisioni prese dall’algoritmo assumono così un’aura di neutralità, frutto di asettici calcoli razionali basati su dati.  In realtà se non correttamente impostato e verificato nel tempo l’algoritmo potrebbe rilevarsi tutt’altro che imparziale, in quanto l’impiego di tali strumenti potrebbe comportare una serie di scelte tutt’altro che neutre: l’adozione di modelli predittivi e di criteri in base ai quali i dati sono raccolti, selezionati, sistematizzati, ordinati e messi insieme, la loro interpretazione e la conseguente formulazione di giudizi sono tutte operazioni frutto di precise scelte e di valori; da ciò ne consegue l’importanza di poter ottenere la massima trasparenza. Nel mondo del lavoro, sono applicati ai sistemi di valutazione delle performance dei lavoratori e misurazioni del loro rendimento. Esaminiamo con quali limiti imposti dal GDPR e dalla legislazione giuslavoristica.

La valutazione del rendimento dei lavoratori

Sono sempre più diffusi nel mondo del lavoro sistemi di valutazione delle performance dei lavoratori e misurazioni del loro rendimento. I vantaggi della valutazione delle performance sono molto fra cui:

  • il miglioramento della produttività del dipendente;
  • la modifica delle politiche retributive (la valutazione permette di stabilire adeguate politiche di remunerazione per ogni team con cui incoraggiare il raggiungimento degli obiettivi);
  • aggiornamento delle politiche di promozione in base agli obiettivi. La valutazione delle prestazioni può evidenziare i possibili errori nella progettazione e/o impostazione della posizione/ruolo del lavoratore (compiti per i quali la persona non è preparata o che non dovrebbe svolgere);
  • mitigazione di agenti esterni che influenzano negativamente la performance (famiglia, salute, denaro, ecc). L’efficienza passa dall’analisi e così il rendimento del lavoro delle persone.

Esistono diversi metodi di valutazione dei dipendenti:

  • valutazione di un supervisore: eseguita in genere da un dirigente o superiore gerarchico che conosce il dipendente, le sue prestazioni e le funzioni da svolgere;
  • autovalutazione: quando è il lavoratore stesso a valutare le sue prestazioni e propone nuovi modi per migliorarsi;
  • Peer review: condotta tra colleghi nella stessa posizione;
  • analisi dei dipendenti verso la figura apicale: in questo caso, sono i sottoposti che danno valore al loro superiore;
  • valutazione da parte del cliente: il cliente valuta il lavoro degli impiegati con cui è in contatto;
  • valutazione condotta da professionisti del settore tramite osservazione e test: il lavoratore viene valutato attraverso un follow-up informatico e con colloqui con professionisti esterni che possono svolgere l’analisi in modo del tutto imparziale e senza alcuna interferenza dell’ambiente interno riuscendo a valutarne le criticità e i margini di miglioramento effettivi.

Ed è proprio in questo ultimo caso che assistiamo all’impiego di metodi di valutazione automatizzata[1] del processo di valutazione delle persone e del loro lavoro tramite algoritmo.

rendimento lavoratori

Le varie tipologie di processi decisionali automatizzati

Ad oggi nelle attività di trattamento dei dati personali possono essere individuate due differenti tipologie di processi decisionali automatizzati:

  • quelli che contemplano un coinvolgimento umano
  • quelli che affidano al solo algoritmo l’intero procedimento (non diffuso in materia di analisi del rendimento e vedremo perché nel proseguo).

Il Regolamento europeo in materia (2016/679), concentrandosi su tali modalità di elaborazione dei dati, ha l’intento di arginare il rischio di trattamenti discriminatori per l’individuo che trovino la propria origine in una cieca fiducia nell’utilizzo degli algoritmi.

In particolare, in maniera innovativa rispetto al passato, gli articoli 13 e 14 del Regolamento 2016/679 stabiliscono che nell’informativa rivolta all’interessato venga data notizia dell’eventuale esecuzione di un processo decisionale automatizzato, sia che la raccolta dei dati venga effettuata direttamente presso l’interessato sia che venga compiuta in via indiretta.

Una garanzia di particolare rilievo viene riconosciuta allorché il processo sia interamente automatizzato essendo richiesto, almeno in simili ipotesi, che il Titolare debba fornire “informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato”. In questo senso, in dottrina è stato fatto notare come il legislatore europeo abbia inteso rafforzare il principio di trasparenza che trova centrale importanza all’interno del Regolamento (Consiglio di Stato, sez. VI, 04/02/2020, n. 881)

L’interesse conoscitivo della persona è ulteriormente tutelato dal diritto di accesso riconosciuto dall’articolo 15 del Regolamento che contempla, a sua volta, la possibilità di ricevere informazioni relative all’esistenza di eventuali processi decisionali automatizzati.

La rilevanza della trasparenza per i soggetti coinvolti dall’attività informatizzata

Si osserva come l’articolo 15 del Regolamento, diversamente dagli articoli 13 e 14, abbia il pregio di prevedere un diritto azionabile dall’interessato e non un obbligo rivolto al Titolare del trattamento, e permette inoltre di superare i limiti temporali posti dagli articoli 13 e 14, consentendo al soggetto di acquisire informazioni anche qualora il trattamento abbia avuto inizio, stia trovando esecuzione o abbia addirittura già prodotto una decisione. Ciò conferma ulteriormente la rilevanza della trasparenza per i soggetti coinvolti dall’attività informatizzata in termini istruttori e decisori.

Sul versante della verifica degli esiti e della relativa imputabilità, deve essere garantita la verifica a valle, in termini di logicità e di correttezza degli esiti. Ciò a garanzia dell’imputabilità della scelta al Titolare del potere autoritativo, individuato in base al principio di legalità, nonché della verifica circa la conseguente individuazione del soggetto responsabile, sia nell’interesse del committente che dei soggetti coinvolti ed incisi dall’azione affidata all’algoritmo.

In tale contesto, lo stesso Regolamento predetto affianca alle garanzie conoscitive assicurate attraverso l’informativa e il diritto di accesso, un espresso limite allo svolgimento di processi decisionali interamente automatizzati. L’articolo 22, paragrafo 1, riconosce alla persona il diritto di non essere sottoposta a decisioni automatizzate prive di un coinvolgimento umano e che, allo stesso tempo, producano effetti giuridici o incidano in modo analogo sull’individuo.

Quindi occorre sempre l’individuazione di un centro di imputazione e di responsabilità, che sia in grado di verificare la legittimità e logicità della decisione dettata dall’algoritmo.

Per tale ragione il titolare dovrà sempre affidare la progettazione dell‘algoritmo non solo a un professionista informatico ma anche legale e del settore HR, consultando anche il DPO e/o svolgendo una PIA. Per tale ragione è necessario individuare il corretto fornitore munito di esperienza e conoscenza pluriennale anche lato privacy.

Rendimento dei lavoratori e Carta della Robotica

In tema di imputabilità delle responsabilità occorre richiamare, quale elemento rilevante di inquadramento del tema, la Carta della Robotica, approvata nel febbraio del 2017 dal Parlamento Europeo. Tale atto esprime in maniera efficace questi passaggi, laddove afferma che “l’autonomia di un robot può essere definita come la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna; (…) tale autonomia è di natura puramente tecnologica e il suo livello dipende dal grado di complessità con cui è stata progettata l’interazione di un robot con l’ambiente; (…) nell’ipotesi in cui un robot possa prendere decisioni autonome, le norme tradizionali non sono sufficienti per attivare la responsabilità per i danni causati da un robot, in quanto non consentirebbero di determinare qual è il soggetto cui incombe la responsabilità del risarcimento né di esigere da tale soggetto la riparazione dei danni causati».

Quindi, anche al fine di applicare le norme generali e tradizionali in tema di imputabilità e responsabilità, occorre garantire la riferibilità della decisione finale all’autorità e all’organo competente in base alla legge attributiva del potere.

Sarà sempre il titolare del trattamento (datore di lavoro) a rispondere del trattamento di analisi del rendimento e performance anche qualora abbia incaricato un soggetto esterno che – per quanto obbligato ai sensi dell’art. 28 del Regolamento all’applicazione della normativa privacy – resta soggetto tenuto ad eseguire la prestazione secondo le istruzioni del titolare che “a monte” deve aver verificato la legittimità e rischi del trattamento (es. misure di mitigazione dei rischi; privacy by default e design; necessità di una PIA, etc.), anche con l’aiuto del responsabile (fornitore del servizio).

rendimento lavoratori

Rendimento dei lavoratori: tre principi a tutela dei soggetti interessati

A conferma di quanto sin qui rilevato, in termini generali emergono tre principi, posti a tutela dei soggetti interessati, da tenere in debita considerazione nell’esame e nell’utilizzo degli strumenti informatici per questi scopi di analisi:

  1. In primo luogo, il principio di conoscibilità, per cui ognuno ha diritto a conoscere l’esistenza di processi decisionali automatizzati[2] che lo riguardino ed in questo caso a ricevere informazioni significative sulla logica utilizzata. Se il processo fosse completamento privo dell’intervento umano (es. interpretazione dei risultati) il Titolare dovrebbe rendere la c.d. informativa rafforzata all’interessato affinché possa essere consapevole del tipo di indagine (automatizzata) e dei suoi driver (obiettivi della stessa e la sua logica).
  2. In secondo luogo, l’altro principio del diritto europeo rilevante in materia[3], è definibile come il principio di non esclusività della decisione algoritmica. Nel caso in cui una decisione automatizzata “produca effetti giuridici che riguardano o che incidano significativamente su una persona”, questa ha diritto a che tale decisione non sia basata unicamente su tale processo automatizzato (art. 22 Reg.). In proposito, deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatica. In ambito matematico e informativo il modello viene definito come HITL (human in the loop), in cui, per produrre il suo risultato è necessario che la macchina interagisca con l’essere umano.
  3. In terzo luogo, dal considerando n. 71 del Regolamento 679/2016 il diritto europeo trae un ulteriore principio fondamentale, di non discriminazione algoritmica, secondo cui è opportuno che il titolare del trattamento utilizzi procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori e al fine di garantire la sicurezza dei dati personali, secondo una modalità che tenga conto dei potenziali rischi esistenti per gli interessi e i diritti dell’interessato e che impedisca tra l’altro effetti discriminatori nei confronti di persone fisiche sulla base della razza o dell’origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell’appartenenza sindacale, dello status genetico, dello stato di salute o dell’orientamento sessuale, ovvero che comportano misure aventi tali effetti.

In tale contesto, pur dinanzi a un algoritmo conoscibile e comprensibile, non costituente l’unica motivazione della decisione, occorre che lo stesso non assuma carattere discriminatorio[4].

Diventa pertanto imprescindibile affidarsi a soggetti competenti che siano in grado di garantire a chi fruisce di questi servizi prodotti che siano effettivamente costruiti su principi e valori legittimi e in compliance con le normative giuslavoristiche, anche collettive, e privacy.

Nel panorama odierno l’ambito di misurazione dei rendimenti e performance dei lavoratori non avviene per il tramite di scelte completamente automatizzate e il processo decisionale è sempre affiancato dall’intervento umano, ma in ogni caso non si potrà prescindere da un controllo delle impostazioni algoritmiche e del loro aggiornamento sulla base delle evoluzioni normative in quanto si tratta sempre e comunque di un processo di trattamento di informazioni personali di un interessato (peraltro soggetto debole: il lavoratore) il quale potrà o meno ottenere benefici economici o di carriera sulla base della valutazione condotta dal Titolare.

Conclusioni

Concludendo, appare evidente che l’efficienza della forza lavoro, il miglioramento del clima aziendale, la valutazione del rendimento anche per avanzamenti di carriera o premi sono obiettivi da perseguire con l’ausilio di soggetti che siano professionisti del settore e che abbiano padronanza della normativa privacy e giuslavoristica per evitare di incorrere in errori prima di tutto di valutazione del rendimento e oltre a ciò in violazioni del Regolamento UE 2016/670 della normativa privacy e giuslavoristica con rischio di vedersi applicare pesanti sanzioni e richieste di risarcimento danni da parte di lavoratori che non hanno potuto avere accesso a posizioni, ruoli o altro benefit a causa di un errata impostazione delle valutazioni.

Note

  1. Attualmente le valutazioni sono parzialmente automatizzate e dunque svolte con l’ausilio di personale specializzato
  2. Processi completamente automatizzati, senza cioè intervento umano.
  3. Di rilievo anche globale in quanto ad esempio utilizzato nella nota decisione Loomis vs. Wisconsin
  4. In questi casi, come afferma il considerando, occorrerebbe rettificare i dati in “ingresso” per evitare effetti discriminatori nell’output decisionale; operazione questa che richiede evidentemente la necessaria cooperazione di chi istruisce le macchine che producono tali decisioni.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati