Come scongiurare il rischio che l’interazione tra agency umana e agency artificiale non assuma le forme di una colonizzazione dello spazio che vogliamo costitutivo dell’idea di individuo e di quell’ auto-sovranità che si vuole a fondamento delle società democratico-liberali? Come far sì che, al contrario, tale interazione converga verso un arricchimento del potenziale e della soggettività umana? Quale ruolo è chiamato a svolgere il legislatore sovranazionale in questo processo di transizione di soggettività e sovranità? Le sfide poste dal nuovo ordinamento algoritmico (o meglio algocratico) di piattaforma e dall’implementazione dei sistemi di AI coinvolgono il principio dello “Stato di diritto” sotto almeno quattro profili: 1). la vocazione transnazionale della rete e la perdita dei confini territoriali che tradizionalmente definiscono il concetto di sovranità 2). la preoccupante incertezza giuridica relativa all'utilizzo di nuove tecnologie, governate da processi algoritmici non sempre assoggettabili ai requisiti di trasparenza e conoscibilità tipici della determinazione pubblica 3). I limiti da imporre alla determinazione privata nell’implementazione di tali tecnologie a protezione dei diritti fondamentali 4). la dematerializzazione e il ri-assemblaggio “bio-ipermediale” dell’idea di soggetto sotteso al concetto moderno di Stato e alla sua impalcatura costituzionale. A partire da queste premesse, la ricerca prende le mosse dallo studio delle caratteristiche distintive che informano il “progetto europeo per la sovranità digitale” , quale condizione strumentale alla tutela dei diritti e delle libertà fondamentali dell’individuo alla base del “patrimonio costituzionale comune” e dunque come condizione di effettività di quello che va sotto il nome di costituzionalismo digitale. In assetti costituzionali, come quelli che caratterizzano il panorama europeo, imperniati sulla centralità dell’individuo e sul compito dello Stato di rimuovere gli ostacoli che impediscono il pieno sviluppo della personalità del singolo, la pervasiva capacità dei sistemi di AI di “datificare” le esistenze individuali, erodendo le possibilità decisionali dell’individuo attraverso un costante e spesso oscuro processo di ridimensionamento dell’opportunità di conoscenza e delle alternative di scelta, ovvero, di subire indebite limitazioni nell’esercizio di diritti che attengono agli attributi ontologici della persona, costituisce, ad oggi, una delle più importanti sfide alla resilienza e al fondamento degli istituti democratici. La strategia di realizzazione degli obiettivi costituzionali a cui il progetto per la sovranità digitale europea vuole essere strumentale, tuttavia, assume forme inedite: nasce infatti come forma reattiva alla “sovranità funzionale” di attori privati, geo-politicamente significativi, quali le piattaforme transnazionali nella loro veste di principali AI-providers a livello globale. Soggettività “ibride” in grado di assumere prerogative tipicamente pubbliche, quali appunto il bilanciamento e la garanzia di effettività dei diritti fondamentali, il cui potere “infrastrutturale” sembra mettere in discussione il concetto di sovranità democratica. Se la cifra caratterizzante il costituzionalismo digitale è quella, allora, di tutelare il nucleo essenziale dei diritti nei confronti del “potere privato”, la prima domanda che sorge è come questo sia possibile nel contesto di un sistema transnazionale complesso e “multi-agente”. Allo scopo di rispondere a tale quesito preliminare, la prima parte del lavoro si focalizza sull’inquadramento del modello piattaforma - inedita “forma organizzativa” nata come conseguenza della computazione - per poi analizzarne il processo di progressiva “istituzionalizzazione” nell’ambito del nuovo framework normativo europeo. In particolare, nel corso del primo capitolo, dopo aver descritto e concettualizzato il modello sulla scia degli studi critici che vanno sotto il nome di Platform Studies, sorti sulla spinta propulsiva della scuola di pensiero di Amsterdam , passeremo in rassegna i principali modelli di Platform Governance ed i relativi trend evolutivi. Si tratta di una disamina preliminare, necessaria ad inquadrare quel Regulatory Turn con cui l’Europa mira a posizionarsi come “terza via” alternativa alla dicotomia assiale tra il modello liberale, centrato sull’ Industry Self-Regulation - cifra dell ’era dell’internet aperto - e i modelli sovranisti di stampo stato-centrico, miranti alla ri-territorializzazione delle reti. Come metteremo in luce nella trattazione, se le forme di sovranità si distinguono per il tipo di autodeterminazione che esse enfatizzano , nel caso europeo, almeno negli intenti, è il principio di auto-sovranità individuale a fungere da architrave . Scopo ultimo è dunque quello di proteggere quel nucleo di diritti fondamentali a tutela persona dall’ ingerenza illegittima da parte di autorità (anche) private, come sempre più accade nel sistema bioipermediale. Per comprendere, se e in che misura, questo obiettivo possa essere raggiunto, il secondo capitolo della tesi si focalizza sull’ output regolatorio della nuova strategia digitale. In particolare, attraverso l’analisi del Digital Services Act (DSA) , la cosiddetta “nuova costituzione digitale dell’Europa” si studierà come la nuova regolazione affronti: 1). il problema della responsabilità delle piattaforme in quella che nel corso del lavoro inquadreremo come “neo-intermediazione” informativa. 2). quali strumenti di regolazione del “fattore algoritmico” predisponga e quali le modalità di implementazione. Per rispondere ai menzionati quesiti, attraverso un approccio che procede per cerchi concentrici, integreremo alla prospettiva giuridica, la prospettiva sociologica, approssimando allo studio ravvicinato di quel sottosistema complesso - “atomo” nella fisiologia del nuovo sistema politico multi-agente (SMA) - che è l’algoritmo. Cercheremo in questo modo di mettere a fuoco, la natura ed il ruolo dei sistemi di “Raccomandazione Informativa” (Recommender Systems-RS), oggetto per la prima volta di espressa disciplina con il citato regolamento, cercando di coglierne, da una prospettiva che trascende la dimensione meramente legalistica, le modalità di interferenza sulla sfera di autodeterminazione del soggetto. Nel corso del terzo capitolo, verrà proposto a questo scopo un modello euristico generale il cui obiettivo è descrivere dinamicamente quel costrutto socio-tecnico - che definiamo “Sistema Sociale Algoritmico” (SSA). Tale modello, basato su uno schema tripartito: F.1. Dati, F.2. Codici, F.3 Persone, non solo offre un quadro sociale, tecnico ed etico per comprendere le più ampie implicazioni delle dinamiche di interazione tra persone, codici e datificazione che il sistema sottende, ma fornendo il punto di ingresso per lo studio empirico (verrà infatti utilizzato come paradigma operativo per l’indagine qualitativa), apre a nuove intuizioni su come i processi di formazione dell’identità possano essere riplasmati, nell’interazione machine-human. Andando ad integrare la prospettiva giuridica, il modello permetterà dunque di inquadrare meglio, come gli algoritmi, e in particolare i Reccommender Systems (RS), interferiscano sul fascio di diritti fondamentali che si irradiano da quello, che nel corso del lavoro, andremo ad indicare come “prisma dell’identità personale”. Quesito ultimo che fa da sfondo alla ricerca è, infatti, se e in che misura si possa teorizzare, nell’ambito del costituzionalismo digitale europeo, un passaggio dal diritto alla privacy, così come concettualizzato nel GDPR - architrave della regolazione europea del digitale - a un più esteso diritto all’identità personale a tutela dell’auto-sovranità e dell’agency umana anche nella pervasiva relazione con l’AI. Se i processi normativi co-producono le tecnologie e gli algoritmi che regolano, riconoscere questi ultimi come costrutti socio-tecnici, a loro volta parte di un nuovo sistema politico multi-agente, non soltanto è il primo passo per costruire una direzione analitica in grado di contribuire allo sviluppo di un quadro normativo integrato a livello sovranazionale, ma è, come vedremo, condicio sine qua non per garantire la resilienza di quel livello autonomia individuale inteso come requisito minimo della sfera di inviolabilità della persona, alla base delle democrazie liberali. Dopo aver messo in luce, nel corso del IV capitolo, i limiti della concettualizzazione legalistica del diritto alla privacy, proporremo dunque un passaggio da una visione statica ed essenzialista dei dati come “bene oggetto” – reificati attraverso l’astrazione dalla materia cui ineriscono - ad una prospettiva dinamica, centrata sulla significatività dell’impatto del trattamento algoritmico dei dati (di qualsiasi natura essi siano) sulla sfera di autonomia del soggetto nella libera disposizione dei diritti e, in ultimo, sulla propria costruzione identitaria. Avvalendoci delle riflessioni che hanno affrontato la questione dalla prospettiva della filosofia morale, pur senza pretese di esaustività nella ricostruzione del dibattito in materia, l’obiettivo è quello di mostrare come l’interferenza algoritmica agisca sulle precondizioni della libertà di scelta e di azione (libertà nei contesti empirici) e, così facendo, sul concetto stesso di soggettività umana, richiedendo pertanto di estendere il dibattito oltre il perimetro di “privacy -protezione dei dati” in cui viene di regola ricondotto. Nel tentativo di ampliare anche le c.d. “concezioni informazionali” o “auto-fondative” della privacy, in un quadro evolutivo, avallato dal percorso dottrinale e giurisprudenziale in materia, si proverà, quindi, a dare contenuto a quelle che possono definirsi le condizioni minime a garanzia di una costruzione che possa dirsi moralmente libera del percorso identitario individuale. Utilizzare il framework dell’identità personale come criterio interpretativo ed assiologico, significa infatti ripensare l’ontologia dei dati e la sua ricaduta giuridica imperniata sulla supposta distinzione tra dati personali e dati “esterni”. Significa, cioè, tenere in debita considerazione lo statuto da accordarsi anche a tutti quei dati - sottoprodotto dell’interazione uomo- macchina - la cui elaborazione, pur se priva, prima facie, di ricadute verificabili e immediate sulla sfera giuridica del singolo individuo (e pertanto esclusa dalla tutela giuridica) è destinata sul lungo termine a plasmare orizzonti decisionali, cognitivi e percettivi di individui e gruppi sociali, andando ad impattare a livello sistemico sul nucleo essenziale dei diritti a fondamento delle società democratiche. Nel corso del V capitolo quindi, si proverà così a (ri)leggere “il problema etico della raccomandazione algoritmica” assumendo come livello di astrazione le tre dimensioni in cui articoliamo il prisma dell’identità personale: 1.) dimensione epistemica; 2) dimensione socio-relazionale; 3) dimensione morale. Si evidenzierà, attraverso queste lenti, quelle che sembrano le principali criticità dell’attuale regolazione e delle proposte in atto, con l’obiettivo - tenuto conto del ridotto numero di studi che affronta il problema come oggetto autonomo di indagine - di aprire nuove prospettive di analisi. In particolare, nel corso del VI capitolo, collegando i risultati alle potenziali implicazioni derivanti dallo sviluppo e l’immissione in massa dei modelli di AI c.d. a finalità generali (General Purpose Artificial Intelligence - GPAI), in particolare dei Large Language Models (LLMs), cercheremo, in conclusione, di tracciare un percorso evolutivo che possa condurre dal principio del consenso informato al trattamento dei dati, corollario del concetto di privacy, ad una nozione più ampia di consenso “trust-based”, quale processo orizzontale che precede l’immissione dei sistemi di AI sul mercato, a garanzia del rispetto dell’ autonomia decisionale degli human recipients circa l’an ed il quomodo dell’ammissibilità delle interferenze digitali in ciò che si vuole a fondamento del concetto di soggettività umana.

Dalla sovranità digitale europea all’autosovranità individuale: l’algoritmo attraverso il prisma del diritto all’identità personale

DE VIVO, ISABELLA
2025

Abstract

Come scongiurare il rischio che l’interazione tra agency umana e agency artificiale non assuma le forme di una colonizzazione dello spazio che vogliamo costitutivo dell’idea di individuo e di quell’ auto-sovranità che si vuole a fondamento delle società democratico-liberali? Come far sì che, al contrario, tale interazione converga verso un arricchimento del potenziale e della soggettività umana? Quale ruolo è chiamato a svolgere il legislatore sovranazionale in questo processo di transizione di soggettività e sovranità? Le sfide poste dal nuovo ordinamento algoritmico (o meglio algocratico) di piattaforma e dall’implementazione dei sistemi di AI coinvolgono il principio dello “Stato di diritto” sotto almeno quattro profili: 1). la vocazione transnazionale della rete e la perdita dei confini territoriali che tradizionalmente definiscono il concetto di sovranità 2). la preoccupante incertezza giuridica relativa all'utilizzo di nuove tecnologie, governate da processi algoritmici non sempre assoggettabili ai requisiti di trasparenza e conoscibilità tipici della determinazione pubblica 3). I limiti da imporre alla determinazione privata nell’implementazione di tali tecnologie a protezione dei diritti fondamentali 4). la dematerializzazione e il ri-assemblaggio “bio-ipermediale” dell’idea di soggetto sotteso al concetto moderno di Stato e alla sua impalcatura costituzionale. A partire da queste premesse, la ricerca prende le mosse dallo studio delle caratteristiche distintive che informano il “progetto europeo per la sovranità digitale” , quale condizione strumentale alla tutela dei diritti e delle libertà fondamentali dell’individuo alla base del “patrimonio costituzionale comune” e dunque come condizione di effettività di quello che va sotto il nome di costituzionalismo digitale. In assetti costituzionali, come quelli che caratterizzano il panorama europeo, imperniati sulla centralità dell’individuo e sul compito dello Stato di rimuovere gli ostacoli che impediscono il pieno sviluppo della personalità del singolo, la pervasiva capacità dei sistemi di AI di “datificare” le esistenze individuali, erodendo le possibilità decisionali dell’individuo attraverso un costante e spesso oscuro processo di ridimensionamento dell’opportunità di conoscenza e delle alternative di scelta, ovvero, di subire indebite limitazioni nell’esercizio di diritti che attengono agli attributi ontologici della persona, costituisce, ad oggi, una delle più importanti sfide alla resilienza e al fondamento degli istituti democratici. La strategia di realizzazione degli obiettivi costituzionali a cui il progetto per la sovranità digitale europea vuole essere strumentale, tuttavia, assume forme inedite: nasce infatti come forma reattiva alla “sovranità funzionale” di attori privati, geo-politicamente significativi, quali le piattaforme transnazionali nella loro veste di principali AI-providers a livello globale. Soggettività “ibride” in grado di assumere prerogative tipicamente pubbliche, quali appunto il bilanciamento e la garanzia di effettività dei diritti fondamentali, il cui potere “infrastrutturale” sembra mettere in discussione il concetto di sovranità democratica. Se la cifra caratterizzante il costituzionalismo digitale è quella, allora, di tutelare il nucleo essenziale dei diritti nei confronti del “potere privato”, la prima domanda che sorge è come questo sia possibile nel contesto di un sistema transnazionale complesso e “multi-agente”. Allo scopo di rispondere a tale quesito preliminare, la prima parte del lavoro si focalizza sull’inquadramento del modello piattaforma - inedita “forma organizzativa” nata come conseguenza della computazione - per poi analizzarne il processo di progressiva “istituzionalizzazione” nell’ambito del nuovo framework normativo europeo. In particolare, nel corso del primo capitolo, dopo aver descritto e concettualizzato il modello sulla scia degli studi critici che vanno sotto il nome di Platform Studies, sorti sulla spinta propulsiva della scuola di pensiero di Amsterdam , passeremo in rassegna i principali modelli di Platform Governance ed i relativi trend evolutivi. Si tratta di una disamina preliminare, necessaria ad inquadrare quel Regulatory Turn con cui l’Europa mira a posizionarsi come “terza via” alternativa alla dicotomia assiale tra il modello liberale, centrato sull’ Industry Self-Regulation - cifra dell ’era dell’internet aperto - e i modelli sovranisti di stampo stato-centrico, miranti alla ri-territorializzazione delle reti. Come metteremo in luce nella trattazione, se le forme di sovranità si distinguono per il tipo di autodeterminazione che esse enfatizzano , nel caso europeo, almeno negli intenti, è il principio di auto-sovranità individuale a fungere da architrave . Scopo ultimo è dunque quello di proteggere quel nucleo di diritti fondamentali a tutela persona dall’ ingerenza illegittima da parte di autorità (anche) private, come sempre più accade nel sistema bioipermediale. Per comprendere, se e in che misura, questo obiettivo possa essere raggiunto, il secondo capitolo della tesi si focalizza sull’ output regolatorio della nuova strategia digitale. In particolare, attraverso l’analisi del Digital Services Act (DSA) , la cosiddetta “nuova costituzione digitale dell’Europa” si studierà come la nuova regolazione affronti: 1). il problema della responsabilità delle piattaforme in quella che nel corso del lavoro inquadreremo come “neo-intermediazione” informativa. 2). quali strumenti di regolazione del “fattore algoritmico” predisponga e quali le modalità di implementazione. Per rispondere ai menzionati quesiti, attraverso un approccio che procede per cerchi concentrici, integreremo alla prospettiva giuridica, la prospettiva sociologica, approssimando allo studio ravvicinato di quel sottosistema complesso - “atomo” nella fisiologia del nuovo sistema politico multi-agente (SMA) - che è l’algoritmo. Cercheremo in questo modo di mettere a fuoco, la natura ed il ruolo dei sistemi di “Raccomandazione Informativa” (Recommender Systems-RS), oggetto per la prima volta di espressa disciplina con il citato regolamento, cercando di coglierne, da una prospettiva che trascende la dimensione meramente legalistica, le modalità di interferenza sulla sfera di autodeterminazione del soggetto. Nel corso del terzo capitolo, verrà proposto a questo scopo un modello euristico generale il cui obiettivo è descrivere dinamicamente quel costrutto socio-tecnico - che definiamo “Sistema Sociale Algoritmico” (SSA). Tale modello, basato su uno schema tripartito: F.1. Dati, F.2. Codici, F.3 Persone, non solo offre un quadro sociale, tecnico ed etico per comprendere le più ampie implicazioni delle dinamiche di interazione tra persone, codici e datificazione che il sistema sottende, ma fornendo il punto di ingresso per lo studio empirico (verrà infatti utilizzato come paradigma operativo per l’indagine qualitativa), apre a nuove intuizioni su come i processi di formazione dell’identità possano essere riplasmati, nell’interazione machine-human. Andando ad integrare la prospettiva giuridica, il modello permetterà dunque di inquadrare meglio, come gli algoritmi, e in particolare i Reccommender Systems (RS), interferiscano sul fascio di diritti fondamentali che si irradiano da quello, che nel corso del lavoro, andremo ad indicare come “prisma dell’identità personale”. Quesito ultimo che fa da sfondo alla ricerca è, infatti, se e in che misura si possa teorizzare, nell’ambito del costituzionalismo digitale europeo, un passaggio dal diritto alla privacy, così come concettualizzato nel GDPR - architrave della regolazione europea del digitale - a un più esteso diritto all’identità personale a tutela dell’auto-sovranità e dell’agency umana anche nella pervasiva relazione con l’AI. Se i processi normativi co-producono le tecnologie e gli algoritmi che regolano, riconoscere questi ultimi come costrutti socio-tecnici, a loro volta parte di un nuovo sistema politico multi-agente, non soltanto è il primo passo per costruire una direzione analitica in grado di contribuire allo sviluppo di un quadro normativo integrato a livello sovranazionale, ma è, come vedremo, condicio sine qua non per garantire la resilienza di quel livello autonomia individuale inteso come requisito minimo della sfera di inviolabilità della persona, alla base delle democrazie liberali. Dopo aver messo in luce, nel corso del IV capitolo, i limiti della concettualizzazione legalistica del diritto alla privacy, proporremo dunque un passaggio da una visione statica ed essenzialista dei dati come “bene oggetto” – reificati attraverso l’astrazione dalla materia cui ineriscono - ad una prospettiva dinamica, centrata sulla significatività dell’impatto del trattamento algoritmico dei dati (di qualsiasi natura essi siano) sulla sfera di autonomia del soggetto nella libera disposizione dei diritti e, in ultimo, sulla propria costruzione identitaria. Avvalendoci delle riflessioni che hanno affrontato la questione dalla prospettiva della filosofia morale, pur senza pretese di esaustività nella ricostruzione del dibattito in materia, l’obiettivo è quello di mostrare come l’interferenza algoritmica agisca sulle precondizioni della libertà di scelta e di azione (libertà nei contesti empirici) e, così facendo, sul concetto stesso di soggettività umana, richiedendo pertanto di estendere il dibattito oltre il perimetro di “privacy -protezione dei dati” in cui viene di regola ricondotto. Nel tentativo di ampliare anche le c.d. “concezioni informazionali” o “auto-fondative” della privacy, in un quadro evolutivo, avallato dal percorso dottrinale e giurisprudenziale in materia, si proverà, quindi, a dare contenuto a quelle che possono definirsi le condizioni minime a garanzia di una costruzione che possa dirsi moralmente libera del percorso identitario individuale. Utilizzare il framework dell’identità personale come criterio interpretativo ed assiologico, significa infatti ripensare l’ontologia dei dati e la sua ricaduta giuridica imperniata sulla supposta distinzione tra dati personali e dati “esterni”. Significa, cioè, tenere in debita considerazione lo statuto da accordarsi anche a tutti quei dati - sottoprodotto dell’interazione uomo- macchina - la cui elaborazione, pur se priva, prima facie, di ricadute verificabili e immediate sulla sfera giuridica del singolo individuo (e pertanto esclusa dalla tutela giuridica) è destinata sul lungo termine a plasmare orizzonti decisionali, cognitivi e percettivi di individui e gruppi sociali, andando ad impattare a livello sistemico sul nucleo essenziale dei diritti a fondamento delle società democratiche. Nel corso del V capitolo quindi, si proverà così a (ri)leggere “il problema etico della raccomandazione algoritmica” assumendo come livello di astrazione le tre dimensioni in cui articoliamo il prisma dell’identità personale: 1.) dimensione epistemica; 2) dimensione socio-relazionale; 3) dimensione morale. Si evidenzierà, attraverso queste lenti, quelle che sembrano le principali criticità dell’attuale regolazione e delle proposte in atto, con l’obiettivo - tenuto conto del ridotto numero di studi che affronta il problema come oggetto autonomo di indagine - di aprire nuove prospettive di analisi. In particolare, nel corso del VI capitolo, collegando i risultati alle potenziali implicazioni derivanti dallo sviluppo e l’immissione in massa dei modelli di AI c.d. a finalità generali (General Purpose Artificial Intelligence - GPAI), in particolare dei Large Language Models (LLMs), cercheremo, in conclusione, di tracciare un percorso evolutivo che possa condurre dal principio del consenso informato al trattamento dei dati, corollario del concetto di privacy, ad una nozione più ampia di consenso “trust-based”, quale processo orizzontale che precede l’immissione dei sistemi di AI sul mercato, a garanzia del rispetto dell’ autonomia decisionale degli human recipients circa l’an ed il quomodo dell’ammissibilità delle interferenze digitali in ciò che si vuole a fondamento del concetto di soggettività umana.
24-set-2025
Italiano
ANDO', Romana
MIGNOLLI, Alessandra
VALENTE, Michaela
Università degli Studi di Roma "La Sapienza"
437
File in questo prodotto:
File Dimensione Formato  
Tesi_dottorato_DeVivo.pdf

embargo fino al 24/09/2026

Licenza: Tutti i diritti riservati
Dimensione 5.45 MB
Formato Adobe PDF
5.45 MB Adobe PDF

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14242/344699
Il codice NBN di questa tesi è URN:NBN:IT:UNIROMA1-344699