Lo scopo di questa tesi ਠstudiare i meccanismi di raccolta ed integrazione delle informazioni nell'ambiente e la loro influenza sulle scelte negli esseri umani. Lo strumento sperimentale utilizzato ਠil Multi †" Armed Bandit Task (MAB), un paradigma di scelta iterata nel quale i partecipanti affrontano la stessa situazione per un numero di trial predeterminato. Dopo ogni trial il partecipante vince o perde un certo numero di punti in funzione della scelta compiuta. Per poter massimizzare il proprio punteggio deve quindi integrare i feedback ricevuti per capire quali sono le alternative pi๠remunerative. Per modellare i risultati dei MAB si ਠutilizzato il Reinforcement Learning (Sutton & Barto, 1998). La mia analisi dei MAB si ਠrivolta prevalentemente all'Iowa Gambling Task (IGT; Bechara, Damasio, Damasio, & Anderson, 1994), ideato come strumento diagnostico per lesioni della corteccia orbitofrontale. La peculiarità  di questo paradigma ਠche i partecipanti incrementano il proprio punteggio con ogni scelta, ma a volte, per effetto della stessa scelta, ricevono anche una punizione e perdono una certa quantità  di punti. Gli autori ritengono che il comportamento dei partecipanti sia guidato da due circuiti cerebrali: uno, con sede sottocorticale, che fa preferire le alternative pi๠proficue a breve termine, ed un altro, con sede nella corteccia orbitofrontale, che permette ai partecipanti di integrare le informazioni sulle vincite e sulle perdite al fine di identificare le alternative pi๠remunerative a lungo termine. Inizialmente i nostri esperimenti si sono concentrati esclusivamente sull'effetto della frequenza delle perdite †" un fattore mai preso in considerazione da Bechara e colleghi †" ed abbiamo concluso che ਠpossibile spiegare buona parte del comportamento dei partecipanti in base alla legge dell'effetto, ovvero in base alla probabilità  di perdita e vincita associata a ciascun mazzo, senza tenere conto delle grandezze degli esiti. Per poter spiegare alcuni dati sperimentali abbiamo in seguito elaborato una teoria a due processi. Il primo ਠgovernato dalla legge dell'effetto, e solitamente guida il comportamento; il secondo, che si occupa dell'integrazione delle informazioni relative alla grandezza di perdite e vincite, si attiva ed influenza le scelte dei partecipanti solo in alcune situazioni. I fattori che favoriscono †" o impediscono †" l'attivazione del secondo processo sono analizzati nell'ultima parte della tesi. Al fine di valutare la generalizzabilità  del processo governato dalla legge dell'effetto abbiamo confrontato i MAB con le scelte iterate in situazioni di interazione strategica. In queste situazioni il punteggio ricevuto dipende dalle decisioni di un altro agente †" come nei paradigmi utilizzati in Teoria dei Giochi (Camerer, 2003). Nelle due situazioni sperimentali che abbiamo studiato (Dilemma del Prigioniero e Sasso †" Carta †" Forbice) abbiamo confrontato il comportamento dei partecipanti in tre condizioni: interazione strategica con il computer; interazione strategica con un altro essere umano; MAB isomorfo alle prime due condizioni. I dati sperimentali e la modellazione dimostrano che, nella maggior parte delle situazioni da noi studiate, la legge dell'effetto puಠinterpretare sia i MAB che le interazioni strategiche.

Il ruolo della "legge dell'effetto" nei compiti di scelta iterata: un'analisi sperimentale dei giochi a una e due persone

-
2011

Abstract

Lo scopo di questa tesi ਠstudiare i meccanismi di raccolta ed integrazione delle informazioni nell'ambiente e la loro influenza sulle scelte negli esseri umani. Lo strumento sperimentale utilizzato ਠil Multi †" Armed Bandit Task (MAB), un paradigma di scelta iterata nel quale i partecipanti affrontano la stessa situazione per un numero di trial predeterminato. Dopo ogni trial il partecipante vince o perde un certo numero di punti in funzione della scelta compiuta. Per poter massimizzare il proprio punteggio deve quindi integrare i feedback ricevuti per capire quali sono le alternative pi๠remunerative. Per modellare i risultati dei MAB si ਠutilizzato il Reinforcement Learning (Sutton & Barto, 1998). La mia analisi dei MAB si ਠrivolta prevalentemente all'Iowa Gambling Task (IGT; Bechara, Damasio, Damasio, & Anderson, 1994), ideato come strumento diagnostico per lesioni della corteccia orbitofrontale. La peculiarità  di questo paradigma ਠche i partecipanti incrementano il proprio punteggio con ogni scelta, ma a volte, per effetto della stessa scelta, ricevono anche una punizione e perdono una certa quantità  di punti. Gli autori ritengono che il comportamento dei partecipanti sia guidato da due circuiti cerebrali: uno, con sede sottocorticale, che fa preferire le alternative pi๠proficue a breve termine, ed un altro, con sede nella corteccia orbitofrontale, che permette ai partecipanti di integrare le informazioni sulle vincite e sulle perdite al fine di identificare le alternative pi๠remunerative a lungo termine. Inizialmente i nostri esperimenti si sono concentrati esclusivamente sull'effetto della frequenza delle perdite †" un fattore mai preso in considerazione da Bechara e colleghi †" ed abbiamo concluso che ਠpossibile spiegare buona parte del comportamento dei partecipanti in base alla legge dell'effetto, ovvero in base alla probabilità  di perdita e vincita associata a ciascun mazzo, senza tenere conto delle grandezze degli esiti. Per poter spiegare alcuni dati sperimentali abbiamo in seguito elaborato una teoria a due processi. Il primo ਠgovernato dalla legge dell'effetto, e solitamente guida il comportamento; il secondo, che si occupa dell'integrazione delle informazioni relative alla grandezza di perdite e vincite, si attiva ed influenza le scelte dei partecipanti solo in alcune situazioni. I fattori che favoriscono †" o impediscono †" l'attivazione del secondo processo sono analizzati nell'ultima parte della tesi. Al fine di valutare la generalizzabilità  del processo governato dalla legge dell'effetto abbiamo confrontato i MAB con le scelte iterate in situazioni di interazione strategica. In queste situazioni il punteggio ricevuto dipende dalle decisioni di un altro agente †" come nei paradigmi utilizzati in Teoria dei Giochi (Camerer, 2003). Nelle due situazioni sperimentali che abbiamo studiato (Dilemma del Prigioniero e Sasso †" Carta †" Forbice) abbiamo confrontato il comportamento dei partecipanti in tre condizioni: interazione strategica con il computer; interazione strategica con un altro essere umano; MAB isomorfo alle prime due condizioni. I dati sperimentali e la modellazione dimostrano che, nella maggior parte delle situazioni da noi studiate, la legge dell'effetto puಠinterpretare sia i MAB che le interazioni strategiche.
2011
it
Compiti di scelta iterata
Decision Making
Dilemma del Prigioniero
Iowa Gambling Task
Legge dell'Effetto
Presa di decisione
SCUOLA DI DOTTORATO DI RICERCA IN NEUROSCIENZE E SCIENZE COGNITIVE
Teoria dei Giochi
Università degli Studi di Trieste
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14242/269563
Il codice NBN di questa tesi è URN:NBN:IT:UNITS-269563