La tesi affronta il problema teorico della fiducia nelle intelligenze artificiali. L’obiettivo della ricerca è chiarire che cosa significhi realmente fidarsi di un sistema di intelligenza artificiale e se sia possibile applicare il concetto di fiducia a entità prive di agentività morale, spostando l’attenzione dall’ingegneria del sistema all’esperienza dell’utente. Attraverso un approccio etico-epistemologico e interdisciplinare, la tesi propone sei tesi principali: (1) la fiducia nelle IA richiede un quadro concettuale autonomo, distinto tanto dall’affidamento tecnico quanto dalla fiducia interpersonale; (2) la distinzione cruciale nel contesto della human-AI interaction è tra fiducia e fede, non tra fiducia e affidamento; (3) gli output delle IA vanno intesi come “speculazioni affidabili”; (4) l’autorità epistemica di una IA deve restare non vincolante; (5) le IA possono agire come agenti sociali pur senza agentività morale; (6) lo sviluppo di una competenza fiduciaria negli utenti è essenziale per una gestione responsabile dell’incertezza nelle interazioni uomo-macchina.

Comportati bene e dimmi la verità: problemi etico-epistemologici nell'interazione con le IA

PEDRAZZOLI, FRANCESCO
2025

Abstract

La tesi affronta il problema teorico della fiducia nelle intelligenze artificiali. L’obiettivo della ricerca è chiarire che cosa significhi realmente fidarsi di un sistema di intelligenza artificiale e se sia possibile applicare il concetto di fiducia a entità prive di agentività morale, spostando l’attenzione dall’ingegneria del sistema all’esperienza dell’utente. Attraverso un approccio etico-epistemologico e interdisciplinare, la tesi propone sei tesi principali: (1) la fiducia nelle IA richiede un quadro concettuale autonomo, distinto tanto dall’affidamento tecnico quanto dalla fiducia interpersonale; (2) la distinzione cruciale nel contesto della human-AI interaction è tra fiducia e fede, non tra fiducia e affidamento; (3) gli output delle IA vanno intesi come “speculazioni affidabili”; (4) l’autorità epistemica di una IA deve restare non vincolante; (5) le IA possono agire come agenti sociali pur senza agentività morale; (6) lo sviluppo di una competenza fiduciaria negli utenti è essenziale per una gestione responsabile dell’incertezza nelle interazioni uomo-macchina.
2025
Italiano
194
File in questo prodotto:
File Dimensione Formato  
Francesco_Pedrazzoli_Tesi_Dottorato_pdfa.pdf

accesso aperto

Licenza: Tutti i diritti riservati
Dimensione 999.77 kB
Formato Adobe PDF
999.77 kB Adobe PDF Visualizza/Apri

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14242/303729
Il codice NBN di questa tesi è URN:NBN:IT:UNIVR-303729