La tesi affronta il problema teorico della fiducia nelle intelligenze artificiali. L’obiettivo della ricerca è chiarire che cosa significhi realmente fidarsi di un sistema di intelligenza artificiale e se sia possibile applicare il concetto di fiducia a entità prive di agentività morale, spostando l’attenzione dall’ingegneria del sistema all’esperienza dell’utente. Attraverso un approccio etico-epistemologico e interdisciplinare, la tesi propone sei tesi principali: (1) la fiducia nelle IA richiede un quadro concettuale autonomo, distinto tanto dall’affidamento tecnico quanto dalla fiducia interpersonale; (2) la distinzione cruciale nel contesto della human-AI interaction è tra fiducia e fede, non tra fiducia e affidamento; (3) gli output delle IA vanno intesi come “speculazioni affidabili”; (4) l’autorità epistemica di una IA deve restare non vincolante; (5) le IA possono agire come agenti sociali pur senza agentività morale; (6) lo sviluppo di una competenza fiduciaria negli utenti è essenziale per una gestione responsabile dell’incertezza nelle interazioni uomo-macchina.
Comportati bene e dimmi la verità: problemi etico-epistemologici nell'interazione con le IA
PEDRAZZOLI, FRANCESCO
2025
Abstract
La tesi affronta il problema teorico della fiducia nelle intelligenze artificiali. L’obiettivo della ricerca è chiarire che cosa significhi realmente fidarsi di un sistema di intelligenza artificiale e se sia possibile applicare il concetto di fiducia a entità prive di agentività morale, spostando l’attenzione dall’ingegneria del sistema all’esperienza dell’utente. Attraverso un approccio etico-epistemologico e interdisciplinare, la tesi propone sei tesi principali: (1) la fiducia nelle IA richiede un quadro concettuale autonomo, distinto tanto dall’affidamento tecnico quanto dalla fiducia interpersonale; (2) la distinzione cruciale nel contesto della human-AI interaction è tra fiducia e fede, non tra fiducia e affidamento; (3) gli output delle IA vanno intesi come “speculazioni affidabili”; (4) l’autorità epistemica di una IA deve restare non vincolante; (5) le IA possono agire come agenti sociali pur senza agentività morale; (6) lo sviluppo di una competenza fiduciaria negli utenti è essenziale per una gestione responsabile dell’incertezza nelle interazioni uomo-macchina.File | Dimensione | Formato | |
---|---|---|---|
Francesco_Pedrazzoli_Tesi_Dottorato_pdfa.pdf
accesso aperto
Licenza:
Tutti i diritti riservati
Dimensione
999.77 kB
Formato
Adobe PDF
|
999.77 kB | Adobe PDF | Visualizza/Apri |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14242/303729
URN:NBN:IT:UNIVR-303729