Il presente progetto di tesi indaga i bias di genere ed etnici dei sistemi algoritmici adottando una prospettiva socio-tecnica che intende riconoscere tali tecnologie come agenti sociali e infrastrutture di disuguaglianza capaci di riprodurre e amplificare disparità storicamente radicate. Inserendosi in un contesto di crescente interesse rivolto alle dinamiche discriminatorie provocate dai processi di dataficazione e automazione, la ricerca si propone di esplorare la dimensione contestuale e situata dei bias algoritmici, rifiutando interpretazioni riduttive che li considerano esclusivamente anomalie tecniche o carenze procedurali (Airoldi, 2022). Al contrario, la tesi parte dal presupposto che tali distorsioni siano intimamente intrecciate ai rapporti di potere che informano la società e alla persistenza di logiche di esclusione e marginalizzazione che confluiscono anche nelle pratiche tecnologiche (Costanza-Chock, 2020; D’Ignazio & Klein, 2020; Noble, 2018). Il lavoro si articola in cinque capitoli. Il primo capitolo contestualizza l’analisi dei bias algoritmici nella società delle piattaforme, con riferimento agli studi fondativi che hanno informato la ricerca sociologica in questo campo. Descrive, in particolare, come questi sistemi, attraverso processi di classificazione e ottimizzazione, influenzino le dinamiche di riconoscimento e accesso alle risorse e alle opportunità. In questo scenario, le tecnologie algoritmiche non si limitano a riflettere il sociale, ma lo costituiscono attivamente, agendo come attanti che plasmano le relazioni simboliche, culturali ed economiche (Crawford, 2021; van Dijck, Poell & de Waal, 2019). Il secondo capitolo presenta una scoping review realizzata secondo il protocollo PRISMA (Page et al. 2021), che ha permesso di mappare la letteratura accademica sui bias di genere ed etnici incorporati dalle tecnologie di ML/IA e di evidenziare la frammentazione concettuale e la predominanza di prospettive specialistiche che tendono a escludere i punti di vista dei soggetti direttamente coinvolti nella progettazione di tali sistemi. La mancanza di definizioni condivise per concetti come bias, equità (fairness) e inclusività ostacola la possibilità di costruire strumenti teorici e operativi capaci di affrontare la complessità dei fenomeni discriminatori (Hall & Ellis, 2023; Kekez et al., 2025). Questa lacuna è ancor più significativa se si considera come tali concetti siano spesso declinati in astratto, senza un adeguato ancoraggio alle esperienze e alle posizioni dei professionisti e dei gruppi storicamente marginalizzati. A partire da questi risultati, il capitolo successivo presenta l’analisi tematica (Braun & Clarke, 2006) dei dati raccolti attraverso 35 interviste a persone sviluppatrici di tecnologie basate sull’IA. Le testimonianze emerse evidenziano anche in questo caso una vaghezza definitoria e una sovrapposizione concettuale delle nozioni di bias, equità e inclusività, nonché una consapevolezza delle discriminazioni algoritmiche generalmente superficiale. In alcuni casi persistono narrazioni di neutralità tecnologica (Airoldi & Gambetta 2018; Natale & Ballatore, 2017). Alla luce di queste analisi, il quarto capitolo propone definizioni generali e contestuali dei concetti di bias, equità e inclusività, che costituiscono la base per l’elaborazione di principi e linee guida per la mitigazione delle disuguaglianze algoritmiche. Il bias viene qui definito come una distorsione sistemica e strutturale che si manifesta nei dati, nei modelli e nei contesti d’uso, riflettendo e consolidando gerarchie sociali e culturali. L’equità è intesa come un principio relazionale e situato, che richiede la distribuzione equa delle opportunità, la trasparenza dei processi decisionali e la partecipazione attiva di soggettività marginalizzate (Hall & Ellis, 2023). L’inclusività si riferisce alla capacità dei sistemi algoritmici di riconoscere la pluralità delle esperienze e di garantire l’accesso paritario e la voce dei gruppi storicamente esclusi (Guevara-Gómez et al. 2021; Luo & Zhang 2024). Queste definizioni sono radicate in una scelta epistemologica che assume la necessità di riconoscere la storica marginalità di determinate categorie sociali come punto di partenza per agire contro le disuguaglianze. In questo senso, la tesi si colloca in un’ottica femminista, che rifiuta l’illusione della neutralità algoritmica e afferma la centralità delle dinamiche di potere nella progettazione e nell’implementazione delle tecnologie (Browne et al., 2023; Costanza-Chock 2020; D’Ignazio & Klein 2020; Drage & Fabetti, 2023). Tale prospettiva sottolinea come la giustizia algoritmica non possa essere ridotta a parametri computazionali, ma richieda un ripensamento strutturale e collettivo che ponga al centro le esperienze e le voci di coloro che hanno subito esclusione e invisibilizzazione. In conclusione, la tesi offre un contributo teorico ed empirico alla sociologia dell’intelligenza artificiale e delle tecnologie digitali, integrando l’analisi critica delle disuguaglianze con la proposta di linee guida e principi operativi. Tali strumenti, informati da una riflessione intersezionale e dalla volontà di promuovere la giustizia sociale, sono concepiti come leve per affrontare la discriminazione algoritmica e ripensare le relazioni tra tecnologia, potere e pluralità delle soggettività.

Infrastrutture di disuguaglianza: un’indagine socio-tecnica sui bias di genere ed etnici nei sistemi di intelligenza artificiale

GRASSO, MARTA MARGHERITA
2026

Abstract

Il presente progetto di tesi indaga i bias di genere ed etnici dei sistemi algoritmici adottando una prospettiva socio-tecnica che intende riconoscere tali tecnologie come agenti sociali e infrastrutture di disuguaglianza capaci di riprodurre e amplificare disparità storicamente radicate. Inserendosi in un contesto di crescente interesse rivolto alle dinamiche discriminatorie provocate dai processi di dataficazione e automazione, la ricerca si propone di esplorare la dimensione contestuale e situata dei bias algoritmici, rifiutando interpretazioni riduttive che li considerano esclusivamente anomalie tecniche o carenze procedurali (Airoldi, 2022). Al contrario, la tesi parte dal presupposto che tali distorsioni siano intimamente intrecciate ai rapporti di potere che informano la società e alla persistenza di logiche di esclusione e marginalizzazione che confluiscono anche nelle pratiche tecnologiche (Costanza-Chock, 2020; D’Ignazio & Klein, 2020; Noble, 2018). Il lavoro si articola in cinque capitoli. Il primo capitolo contestualizza l’analisi dei bias algoritmici nella società delle piattaforme, con riferimento agli studi fondativi che hanno informato la ricerca sociologica in questo campo. Descrive, in particolare, come questi sistemi, attraverso processi di classificazione e ottimizzazione, influenzino le dinamiche di riconoscimento e accesso alle risorse e alle opportunità. In questo scenario, le tecnologie algoritmiche non si limitano a riflettere il sociale, ma lo costituiscono attivamente, agendo come attanti che plasmano le relazioni simboliche, culturali ed economiche (Crawford, 2021; van Dijck, Poell & de Waal, 2019). Il secondo capitolo presenta una scoping review realizzata secondo il protocollo PRISMA (Page et al. 2021), che ha permesso di mappare la letteratura accademica sui bias di genere ed etnici incorporati dalle tecnologie di ML/IA e di evidenziare la frammentazione concettuale e la predominanza di prospettive specialistiche che tendono a escludere i punti di vista dei soggetti direttamente coinvolti nella progettazione di tali sistemi. La mancanza di definizioni condivise per concetti come bias, equità (fairness) e inclusività ostacola la possibilità di costruire strumenti teorici e operativi capaci di affrontare la complessità dei fenomeni discriminatori (Hall & Ellis, 2023; Kekez et al., 2025). Questa lacuna è ancor più significativa se si considera come tali concetti siano spesso declinati in astratto, senza un adeguato ancoraggio alle esperienze e alle posizioni dei professionisti e dei gruppi storicamente marginalizzati. A partire da questi risultati, il capitolo successivo presenta l’analisi tematica (Braun & Clarke, 2006) dei dati raccolti attraverso 35 interviste a persone sviluppatrici di tecnologie basate sull’IA. Le testimonianze emerse evidenziano anche in questo caso una vaghezza definitoria e una sovrapposizione concettuale delle nozioni di bias, equità e inclusività, nonché una consapevolezza delle discriminazioni algoritmiche generalmente superficiale. In alcuni casi persistono narrazioni di neutralità tecnologica (Airoldi & Gambetta 2018; Natale & Ballatore, 2017). Alla luce di queste analisi, il quarto capitolo propone definizioni generali e contestuali dei concetti di bias, equità e inclusività, che costituiscono la base per l’elaborazione di principi e linee guida per la mitigazione delle disuguaglianze algoritmiche. Il bias viene qui definito come una distorsione sistemica e strutturale che si manifesta nei dati, nei modelli e nei contesti d’uso, riflettendo e consolidando gerarchie sociali e culturali. L’equità è intesa come un principio relazionale e situato, che richiede la distribuzione equa delle opportunità, la trasparenza dei processi decisionali e la partecipazione attiva di soggettività marginalizzate (Hall & Ellis, 2023). L’inclusività si riferisce alla capacità dei sistemi algoritmici di riconoscere la pluralità delle esperienze e di garantire l’accesso paritario e la voce dei gruppi storicamente esclusi (Guevara-Gómez et al. 2021; Luo & Zhang 2024). Queste definizioni sono radicate in una scelta epistemologica che assume la necessità di riconoscere la storica marginalità di determinate categorie sociali come punto di partenza per agire contro le disuguaglianze. In questo senso, la tesi si colloca in un’ottica femminista, che rifiuta l’illusione della neutralità algoritmica e afferma la centralità delle dinamiche di potere nella progettazione e nell’implementazione delle tecnologie (Browne et al., 2023; Costanza-Chock 2020; D’Ignazio & Klein 2020; Drage & Fabetti, 2023). Tale prospettiva sottolinea come la giustizia algoritmica non possa essere ridotta a parametri computazionali, ma richieda un ripensamento strutturale e collettivo che ponga al centro le esperienze e le voci di coloro che hanno subito esclusione e invisibilizzazione. In conclusione, la tesi offre un contributo teorico ed empirico alla sociologia dell’intelligenza artificiale e delle tecnologie digitali, integrando l’analisi critica delle disuguaglianze con la proposta di linee guida e principi operativi. Tali strumenti, informati da una riflessione intersezionale e dalla volontà di promuovere la giustizia sociale, sono concepiti come leve per affrontare la discriminazione algoritmica e ripensare le relazioni tra tecnologia, potere e pluralità delle soggettività.
26-gen-2026
Italiano
PANARESE, Paola
COMUNELLO, FRANCESCA
Università degli Studi di Roma "La Sapienza"
File in questo prodotto:
File Dimensione Formato  
Tesi_dottorato_Grasso.pdf

accesso aperto

Licenza: Creative Commons
Dimensione 4.11 MB
Formato Adobe PDF
4.11 MB Adobe PDF Visualizza/Apri

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14242/357341
Il codice NBN di questa tesi è URN:NBN:IT:UNIROMA1-357341