Il diabete mellito è non solo una patologia molto seria, che causa disagi e sofferenze a milioni di persone nel mondo, ma, anche a causa dell’affermarsi di uno stile di vita sedentario e dell’invecchiamento della popolazione, negli ultimi decenni ha raggiunto proporzioni epidemiche, diventando una vera e propria emergenza sanitaria e sociale. Per fronteggiare questo problema, molte risorse sono state dedicate all’attività di ricerca scientifica, che ha permesso una più profonda conoscenza dell’eziologia del diabete. Tuttavia, il diabete è a tutt’oggi ancora inguaribile e molte questioni rimangono aperte, fra cui la completa comprensione dei fattori che causano e fanno progredire la malattia. Anni di ricerca hanno permesso di sviluppare molti sofisticati strumenti per studiare il sistema metabolico glucosio-insulina in vivo e poter così fronteggiare il problema dell’inaccessibilità diretta di alcuni dei fenomeni chiave che controllano la glicemia. Tali strumenti, fra cui protocolli di studio e approcci basati su modello usati per interpretare i dati sperimentali, si sono rivelati armi molto potenti nelle mani dei ricercatori, ma le proporzioni epidemiche della malattia e il parziale cambiamento delle strategie e obiettivi della ricerca hanno sollevato l’esigenza di poter disporre di metodologie meno invasive, più economiche, e quindi più adatte ad essere applicate ad estesi studi clinici. Alcuni strumenti matematici e statistici che sono collettivamente conosciuti con il nome di “approcci di popolazione” sono già stati sviluppati e vengono largamente impiegati in studi di farmacocinetica e farmacodinamica, per lo sviluppo di farmaci. Tali approcci si prefiggono come obiettivo primario di stimare la distribuzione dei parametri di un modello all’interno di una popolazione e pertanto si avvalgono, per la stima individuale, delle informazioni disponibili sull’intero gruppo di soggetti. Sono particolarmente adatti a situazioni in cui il campionamento intensivo in un singolo soggetto non è possibile, e quando l’interesse del ricercatore è focalizzato sulla variabilità inter-individuale. Tuttavia, nonostante le loro interessanti potenzialità, gli approcci di popolazione non sono ancora apprezzati all’interno dell’ambiente di ricerca sulle malattie metaboliche, e la loro applicazione in tali studi è stata molto limitata. Pertanto è necessaria dell’attività di ricerca per saggiare l’effettiva fattibilità e rilevanza dell’utilizzo di tali approcci nello studio del diabete. La ricerca qui presentata risponde a queste esigenze, proponendosi come obiettivo l’applicazione di queste sofisticate tecniche ai modelli di metabolismo del glucosio, prima testandone la fattibilità e adattandole al problema in esame, e poi impiegandole nell’analisi di dati raccolti in studi di popolazione. Poiché in letteratura sono stati proposti molti diversi algoritmi, come primo passo, un dataset simulato è stato utilizzato per effettuare un confronto delle metodologie quando applicate al modello minimo del glucosio per il Test di Tolleranza IntraVenosa al Glucosio (IVGTT). First-Order Conditional Estimation (FOCE) si è rivelato come l’algoritmo più soddisfacente, in quanto ha fornito i risultati più accurati e robusti in caso di scarsità o rumorosità dei campioni. Successivamente, per validare i risultati trovati su dati reali, l’analisi è stata ripetuta su un dataset più esteso, relativo a 204 soggetti sani testati con IVGTT. Per poter saggiare la bontà delle soluzioni fornite dai vari algoritmi, è stato impiegato un sistema di stima della likelihood function basato su campionamento Monte Carlo. Questa analisi, non solo ha permesso di confermare la scelta di FOCE come metodo preferenziale, ma si è anche rivelata come un potente strumento per valutare la precisione delle stime dei parametri di popolazione. Successivamente, è stato messo a punto e ottimizzato un modello di popolazione, conservando nella matrice di covarianza solo i termini di correlazione fra i parametri SI-P2 e SG-VOL. Questo modello è servito come base per la successiva integrazione di covariate nel modello. Al momento dell’esecuzione degli esperimenti, infatti, sono stati raccolti alcuni dati sui pazienti, fra cui altezza, peso, sesso, età, glicemia e insulinemia basali, informazioni sul grasso corporeo. È stata effettuata una analisi per determinare quali fra queste variabili potessero essere usate per spiegare parte della variabilità nei valori dei parametri del modello minimo fra i diversi soggetti. Il risultato è un modello che integra queste informazioni direttamente nelle sue equazioni, mentre i coefficienti di regressione per ognuno dei predittori diventano veri e propri parametri del modello e il loro valore viene ottimizzato insieme agli altri parametri di popolazione. L’analisi effettuata ha trovato come buoni predittori per SI e P2 l’ età, l’insulinemia basale e il grasso addominale, che in ambo i parametri riescono a spiegare una buona fetta della variabilità inter-individuale. Sia l’impiego di metodologie di popolazione, sia l’introduzione delle covariate nel modello, permettono di aumentarne il potere predittivo, e sono in grado di usare informazioni indipendenti dai soli dati sperimentali. Questo permette di mettere a punto dei protocolli di studio meno invasivi, meno costosi, e pertanto più adatti ad un impiego su larga scala: ulteriore ricerca potrebbe avere come obiettivo l’ottimizzazione di una sampling schedule ridotta, che si avvantaggi dell’utilizzo degli approcci di popolazione. Ad ogni modo, il dataset utilizzato in questa analisi comprende solo soggetti sani, ed è quindi caratterizzato da una quantità limitata di variabilità di popolazione. Pertanto, sarebbe necessario ripetere l’analisi su altri dataset, per poter confermare questi risultati, in particolare sulle covariate. Inoltre, in una sezione successiva, un metodo di popolazione è stato applicato anche ad un altro problema diverso, la stima del Disposition Index (DI) del glucosio. Questo è un indice calcolato combinando sensitività e responsività all’insulina, che serve per testare l’effettiva efficacia del sistema di controllo della glicemia. Ci sono due versioni proposte per la formula, una semplificata, che consiste semplicemente nel prodotto (da cui il nome di Legge Iperbolica), e una con un parametro aggiuntivo ad esponente della sensitività all’insulina. Per poter calcolare il DI medio in una popolazione, e per poter saggiare quale delle due formule sia effettivamente più adatta, in letteratura si trovano alcuni approcci basati su un fit geometrico. Tuttavia, alcune approssimazioni sono utilizzate per semplificare il fit, e sono molte le questioni metodologiche spesso sottovalutate. Pertanto viene presentato qui un nuovo metodo Total Least Squares (TLS) che affronta il problema senza l’impiego di approssimazioni. Grazie ad alcune simulazioni, si è effettuato un paragone fra i vari metodi disponibili, e il nuovo algoritmo è risultato migliore rispetto ai predecessori. Tuttavia, tutti gli algoritmi basati su fit si fondano sull’ipotesi che i soggetti appartenenti alla popolazione abbiano lo stesso valore di DI, e l’unica fonte di incertezza nei dati sia dovuta alla stima degli indici di secrezione e sensitività. Questa ipotesi sembra una forte semplificazione e, in effetti, l’analisi di un dataset reale sembra confermare la presenza di variabilità di popolazione nei valori del DI. Ulteriori simulazioni hanno confermato che tutti metodi basati su fit, TLS compreso, falliscono quando la variabilità di popolazione è presente. Pertanto, è stato ideato un altro metodo basato su approcci di popolazione e, in particolare, su NonLinear Mixed-Effects Models (NLMEM), che è in grado di separare la variabilità nei dati, poiché fondato su ipotesi meno restrittive. Tale algoritmo stima i parametri della distribuzione di probabilità congiunta degli indici di secrezione e sensitività, e poi estrae le informazioni sul DI dalla matrice di covarianza. NLMEM si è rivelato equivalente a TLS quando non c’è variabilità di popolazione, ma di gran lunga più affidabile quando le ipotesi per il fit geometrico non sono rispettate, pertanto si è deciso di utilizzarlo sul dataset reale per testare la validità della legge iperbolica. Anche se una validazione su altri dataset è auspicabile per validare i risultati qui presentati, il modello con il parametro aggiuntivo sembra spiegare i dati in maniera più soddisfacente, e il valore del parametro sembra dipendere dalla coppia di parametri usata per la definizione del DI, più che dalla popolazione in esame (anziani piuttosto che giovani). Inoltre, nello studio qui proposto, il punto di partenza sono stati i valori degli indici di secrezione già calcolati, insieme con la loro precisione, grazie ad un metodo tradizionale; un approccio ancora più potente consisterebbe nell’utilizzare un modello di popolazione per stimare contemporaneamente sia gli indici di secrezione che sensitività, sia i parametri della loro distribuzione di popolazione, da cui ricavare le informazioni sul DI. Riassumendo, in questo lavoro si sono messi in luce i vantaggi dell’applicazione di approcci di popolazione nello studio nel diabete. Le potenzialità sono molte, dal miglioramento delle stime dei parametri individuali grazie all’uso dei prior di popolazione o di covariate e la relativa possibilità di mettere a punto protocolli di studio più leggeri, fino all’analisi di situazioni in cui la struttura gerarchica della variabilità è un aspetto cruciale.
Nonlinear Mixed-Effects Modelling of Glucose-Insulin Metabolism
DENTI, PAOLO
2009
Abstract
Il diabete mellito è non solo una patologia molto seria, che causa disagi e sofferenze a milioni di persone nel mondo, ma, anche a causa dell’affermarsi di uno stile di vita sedentario e dell’invecchiamento della popolazione, negli ultimi decenni ha raggiunto proporzioni epidemiche, diventando una vera e propria emergenza sanitaria e sociale. Per fronteggiare questo problema, molte risorse sono state dedicate all’attività di ricerca scientifica, che ha permesso una più profonda conoscenza dell’eziologia del diabete. Tuttavia, il diabete è a tutt’oggi ancora inguaribile e molte questioni rimangono aperte, fra cui la completa comprensione dei fattori che causano e fanno progredire la malattia. Anni di ricerca hanno permesso di sviluppare molti sofisticati strumenti per studiare il sistema metabolico glucosio-insulina in vivo e poter così fronteggiare il problema dell’inaccessibilità diretta di alcuni dei fenomeni chiave che controllano la glicemia. Tali strumenti, fra cui protocolli di studio e approcci basati su modello usati per interpretare i dati sperimentali, si sono rivelati armi molto potenti nelle mani dei ricercatori, ma le proporzioni epidemiche della malattia e il parziale cambiamento delle strategie e obiettivi della ricerca hanno sollevato l’esigenza di poter disporre di metodologie meno invasive, più economiche, e quindi più adatte ad essere applicate ad estesi studi clinici. Alcuni strumenti matematici e statistici che sono collettivamente conosciuti con il nome di “approcci di popolazione” sono già stati sviluppati e vengono largamente impiegati in studi di farmacocinetica e farmacodinamica, per lo sviluppo di farmaci. Tali approcci si prefiggono come obiettivo primario di stimare la distribuzione dei parametri di un modello all’interno di una popolazione e pertanto si avvalgono, per la stima individuale, delle informazioni disponibili sull’intero gruppo di soggetti. Sono particolarmente adatti a situazioni in cui il campionamento intensivo in un singolo soggetto non è possibile, e quando l’interesse del ricercatore è focalizzato sulla variabilità inter-individuale. Tuttavia, nonostante le loro interessanti potenzialità, gli approcci di popolazione non sono ancora apprezzati all’interno dell’ambiente di ricerca sulle malattie metaboliche, e la loro applicazione in tali studi è stata molto limitata. Pertanto è necessaria dell’attività di ricerca per saggiare l’effettiva fattibilità e rilevanza dell’utilizzo di tali approcci nello studio del diabete. La ricerca qui presentata risponde a queste esigenze, proponendosi come obiettivo l’applicazione di queste sofisticate tecniche ai modelli di metabolismo del glucosio, prima testandone la fattibilità e adattandole al problema in esame, e poi impiegandole nell’analisi di dati raccolti in studi di popolazione. Poiché in letteratura sono stati proposti molti diversi algoritmi, come primo passo, un dataset simulato è stato utilizzato per effettuare un confronto delle metodologie quando applicate al modello minimo del glucosio per il Test di Tolleranza IntraVenosa al Glucosio (IVGTT). First-Order Conditional Estimation (FOCE) si è rivelato come l’algoritmo più soddisfacente, in quanto ha fornito i risultati più accurati e robusti in caso di scarsità o rumorosità dei campioni. Successivamente, per validare i risultati trovati su dati reali, l’analisi è stata ripetuta su un dataset più esteso, relativo a 204 soggetti sani testati con IVGTT. Per poter saggiare la bontà delle soluzioni fornite dai vari algoritmi, è stato impiegato un sistema di stima della likelihood function basato su campionamento Monte Carlo. Questa analisi, non solo ha permesso di confermare la scelta di FOCE come metodo preferenziale, ma si è anche rivelata come un potente strumento per valutare la precisione delle stime dei parametri di popolazione. Successivamente, è stato messo a punto e ottimizzato un modello di popolazione, conservando nella matrice di covarianza solo i termini di correlazione fra i parametri SI-P2 e SG-VOL. Questo modello è servito come base per la successiva integrazione di covariate nel modello. Al momento dell’esecuzione degli esperimenti, infatti, sono stati raccolti alcuni dati sui pazienti, fra cui altezza, peso, sesso, età, glicemia e insulinemia basali, informazioni sul grasso corporeo. È stata effettuata una analisi per determinare quali fra queste variabili potessero essere usate per spiegare parte della variabilità nei valori dei parametri del modello minimo fra i diversi soggetti. Il risultato è un modello che integra queste informazioni direttamente nelle sue equazioni, mentre i coefficienti di regressione per ognuno dei predittori diventano veri e propri parametri del modello e il loro valore viene ottimizzato insieme agli altri parametri di popolazione. L’analisi effettuata ha trovato come buoni predittori per SI e P2 l’ età, l’insulinemia basale e il grasso addominale, che in ambo i parametri riescono a spiegare una buona fetta della variabilità inter-individuale. Sia l’impiego di metodologie di popolazione, sia l’introduzione delle covariate nel modello, permettono di aumentarne il potere predittivo, e sono in grado di usare informazioni indipendenti dai soli dati sperimentali. Questo permette di mettere a punto dei protocolli di studio meno invasivi, meno costosi, e pertanto più adatti ad un impiego su larga scala: ulteriore ricerca potrebbe avere come obiettivo l’ottimizzazione di una sampling schedule ridotta, che si avvantaggi dell’utilizzo degli approcci di popolazione. Ad ogni modo, il dataset utilizzato in questa analisi comprende solo soggetti sani, ed è quindi caratterizzato da una quantità limitata di variabilità di popolazione. Pertanto, sarebbe necessario ripetere l’analisi su altri dataset, per poter confermare questi risultati, in particolare sulle covariate. Inoltre, in una sezione successiva, un metodo di popolazione è stato applicato anche ad un altro problema diverso, la stima del Disposition Index (DI) del glucosio. Questo è un indice calcolato combinando sensitività e responsività all’insulina, che serve per testare l’effettiva efficacia del sistema di controllo della glicemia. Ci sono due versioni proposte per la formula, una semplificata, che consiste semplicemente nel prodotto (da cui il nome di Legge Iperbolica), e una con un parametro aggiuntivo ad esponente della sensitività all’insulina. Per poter calcolare il DI medio in una popolazione, e per poter saggiare quale delle due formule sia effettivamente più adatta, in letteratura si trovano alcuni approcci basati su un fit geometrico. Tuttavia, alcune approssimazioni sono utilizzate per semplificare il fit, e sono molte le questioni metodologiche spesso sottovalutate. Pertanto viene presentato qui un nuovo metodo Total Least Squares (TLS) che affronta il problema senza l’impiego di approssimazioni. Grazie ad alcune simulazioni, si è effettuato un paragone fra i vari metodi disponibili, e il nuovo algoritmo è risultato migliore rispetto ai predecessori. Tuttavia, tutti gli algoritmi basati su fit si fondano sull’ipotesi che i soggetti appartenenti alla popolazione abbiano lo stesso valore di DI, e l’unica fonte di incertezza nei dati sia dovuta alla stima degli indici di secrezione e sensitività. Questa ipotesi sembra una forte semplificazione e, in effetti, l’analisi di un dataset reale sembra confermare la presenza di variabilità di popolazione nei valori del DI. Ulteriori simulazioni hanno confermato che tutti metodi basati su fit, TLS compreso, falliscono quando la variabilità di popolazione è presente. Pertanto, è stato ideato un altro metodo basato su approcci di popolazione e, in particolare, su NonLinear Mixed-Effects Models (NLMEM), che è in grado di separare la variabilità nei dati, poiché fondato su ipotesi meno restrittive. Tale algoritmo stima i parametri della distribuzione di probabilità congiunta degli indici di secrezione e sensitività, e poi estrae le informazioni sul DI dalla matrice di covarianza. NLMEM si è rivelato equivalente a TLS quando non c’è variabilità di popolazione, ma di gran lunga più affidabile quando le ipotesi per il fit geometrico non sono rispettate, pertanto si è deciso di utilizzarlo sul dataset reale per testare la validità della legge iperbolica. Anche se una validazione su altri dataset è auspicabile per validare i risultati qui presentati, il modello con il parametro aggiuntivo sembra spiegare i dati in maniera più soddisfacente, e il valore del parametro sembra dipendere dalla coppia di parametri usata per la definizione del DI, più che dalla popolazione in esame (anziani piuttosto che giovani). Inoltre, nello studio qui proposto, il punto di partenza sono stati i valori degli indici di secrezione già calcolati, insieme con la loro precisione, grazie ad un metodo tradizionale; un approccio ancora più potente consisterebbe nell’utilizzare un modello di popolazione per stimare contemporaneamente sia gli indici di secrezione che sensitività, sia i parametri della loro distribuzione di popolazione, da cui ricavare le informazioni sul DI. Riassumendo, in questo lavoro si sono messi in luce i vantaggi dell’applicazione di approcci di popolazione nello studio nel diabete. Le potenzialità sono molte, dal miglioramento delle stime dei parametri individuali grazie all’uso dei prior di popolazione o di covariate e la relativa possibilità di mettere a punto protocolli di studio più leggeri, fino all’analisi di situazioni in cui la struttura gerarchica della variabilità è un aspetto cruciale.File | Dimensione | Formato | |
---|---|---|---|
DentiPaolo_PhDThesis.pdf
accesso aperto
Dimensione
2.59 MB
Formato
Adobe PDF
|
2.59 MB | Adobe PDF | Visualizza/Apri |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14242/107774
URN:NBN:IT:UNIPD-107774