La ricerca ha ad oggetto il fenomeno del bias algoritmico nei processi di selezione del personale e nella gestione dei rapporti di lavoro. Nel primo capitolo vengono poste le premesse teoriche, che attingono principalmente ai Science and Technology Studies, fornendo una lettura del bias algoritmico come prodotto dell’interazione tra pratiche tecniche, sociali ed epistemiche. La lettura della co-produzione tecnica e sociale del bias algoritmico evidenzia la necessità di evitare un approccio tecno-riduzionista al fenomeno e alle sue possibili soluzioni, e di riconoscere il portato intrinsecamente valoriale-normativo delle scelte che presiedono all’implementazione delle misure di algorithmic fairness. La considerazione della dimensione epistemologica consente, inoltre, di indagare il modo in cui l’intelligenza artificiale contribuisce a riconfigurare e, talvolta, a rendere invisibili le diseguaglianze preesistenti, nonché il ruolo che l’assetto cognitivo e concettuale del diritto antidiscriminatorio stesso può svolgere in tale processo di naturalizzazione. Muovendo da questa cornice teorica, il secondo capitolo esamina l’effettività del diritto antidiscriminatorio di fronte ai processi decisionali algoritmici. Il capitolo ha ad oggetto i fattori protetti dai divieti vigenti, gli elementi costitutivi delle discriminazioni e la classificazione delle stesse, con le relative implicazioni in termini di eccezioni al divieto di trattamenti differenziati e di giustificazione degli esiti svantaggiosi, nonché la giustiziabilità dei divieti di discriminazione. Nell’ambito di tale analisi viene messo in luce come il fenomeno del bias algoritmico non ponga necessariamente questioni inedite, ma tenda piuttosto a esacerbare limiti normativi e dubbi interpretativi già noti nella disciplina. L’analisi è accompagnata da alcune riflessioni sul modo in cui le categorie e la razionalità del diritto antidiscriminatorio possano, esse stesse, concorrere alla mediazione del bias algoritmico. Evidenziate le potenzialità e i limiti del diritto antidiscriminatorio, nel terzo capitolo si indaga se e in quale misura questi ultimi possano essere superati dall’ordinamento giuridico nel suo insieme. La possibilità di conoscere i processi decisionali algoritmici diventa concreta alla luce dell’attuale scenario normativo multilivello che disciplina l’algorithmic management. L’analisi del terzo capitolo prende in considerazione, a livello sovranazionale, il GDPR, il Regolamento sull’Intelligenza Artificiale e la Direttiva sul lavoro tramite piattaforma; a livello nazionale, gli artt. 4 e 8 dello Statuto dei lavoratori e il Decreto Trasparenza. Per svolgere l’analisi, le disposizioni rilevanti sono ricondotte a tre tecniche di tutela trasversali alle diverse fonti normative: la tecnica che vieta il trattamento di determinate categorie di dati, l’adozione automatizzata di alcune decisioni e l’impiego di specifici sistemi di IA; la tecnica delle valutazioni di impatto, che comporta l’obbligo di individuare e gestire il rischio discriminatorio; infine, la tecnica della trasparenza, articolata in obblighi informativi e diritti di accesso che possono essere utilizzati per agevolare l’iniziativa e la prova giudiziale delle discriminazioni algoritmiche
I bias algoritmici nei rapporti di lavoro tra diritto antidiscriminatorio e altri strumenti di tutela
PARODI, ELISA
2025
Abstract
La ricerca ha ad oggetto il fenomeno del bias algoritmico nei processi di selezione del personale e nella gestione dei rapporti di lavoro. Nel primo capitolo vengono poste le premesse teoriche, che attingono principalmente ai Science and Technology Studies, fornendo una lettura del bias algoritmico come prodotto dell’interazione tra pratiche tecniche, sociali ed epistemiche. La lettura della co-produzione tecnica e sociale del bias algoritmico evidenzia la necessità di evitare un approccio tecno-riduzionista al fenomeno e alle sue possibili soluzioni, e di riconoscere il portato intrinsecamente valoriale-normativo delle scelte che presiedono all’implementazione delle misure di algorithmic fairness. La considerazione della dimensione epistemologica consente, inoltre, di indagare il modo in cui l’intelligenza artificiale contribuisce a riconfigurare e, talvolta, a rendere invisibili le diseguaglianze preesistenti, nonché il ruolo che l’assetto cognitivo e concettuale del diritto antidiscriminatorio stesso può svolgere in tale processo di naturalizzazione. Muovendo da questa cornice teorica, il secondo capitolo esamina l’effettività del diritto antidiscriminatorio di fronte ai processi decisionali algoritmici. Il capitolo ha ad oggetto i fattori protetti dai divieti vigenti, gli elementi costitutivi delle discriminazioni e la classificazione delle stesse, con le relative implicazioni in termini di eccezioni al divieto di trattamenti differenziati e di giustificazione degli esiti svantaggiosi, nonché la giustiziabilità dei divieti di discriminazione. Nell’ambito di tale analisi viene messo in luce come il fenomeno del bias algoritmico non ponga necessariamente questioni inedite, ma tenda piuttosto a esacerbare limiti normativi e dubbi interpretativi già noti nella disciplina. L’analisi è accompagnata da alcune riflessioni sul modo in cui le categorie e la razionalità del diritto antidiscriminatorio possano, esse stesse, concorrere alla mediazione del bias algoritmico. Evidenziate le potenzialità e i limiti del diritto antidiscriminatorio, nel terzo capitolo si indaga se e in quale misura questi ultimi possano essere superati dall’ordinamento giuridico nel suo insieme. La possibilità di conoscere i processi decisionali algoritmici diventa concreta alla luce dell’attuale scenario normativo multilivello che disciplina l’algorithmic management. L’analisi del terzo capitolo prende in considerazione, a livello sovranazionale, il GDPR, il Regolamento sull’Intelligenza Artificiale e la Direttiva sul lavoro tramite piattaforma; a livello nazionale, gli artt. 4 e 8 dello Statuto dei lavoratori e il Decreto Trasparenza. Per svolgere l’analisi, le disposizioni rilevanti sono ricondotte a tre tecniche di tutela trasversali alle diverse fonti normative: la tecnica che vieta il trattamento di determinate categorie di dati, l’adozione automatizzata di alcune decisioni e l’impiego di specifici sistemi di IA; la tecnica delle valutazioni di impatto, che comporta l’obbligo di individuare e gestire il rischio discriminatorio; infine, la tecnica della trasparenza, articolata in obblighi informativi e diritti di accesso che possono essere utilizzati per agevolare l’iniziativa e la prova giudiziale delle discriminazioni algoritmiche| File | Dimensione | Formato | |
|---|---|---|---|
|
Tesi - Elisa Parodi.pdf
accesso aperto
Licenza:
Tutti i diritti riservati
Dimensione
3.31 MB
Formato
Adobe PDF
|
3.31 MB | Adobe PDF | Visualizza/Apri |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14242/307869
URN:NBN:IT:UNITO-307869