Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Distorsioni nella selezione e nell'informazione
Altri tipi di distorsioni da selezione sono: scelta inadeguata dei controlli (gruppo degli esposti è sovradimensionato), distorsione da incidenza-prevalenza (gruppo dei non esposti è sovradimensionato), distorsione da non rispondenti (non esposti sono sovradimensionati perché gli esposti rifiutano di sottoporsi).
La distorsione da informazione avviene quando sbagliamo la classificazione del campione in base all'esposizione e alla malattia. Per essere considerato valido, uno strumento di rilevazione deve essere in grado di: (1) risultare positivo quando la condizione indagata è presente (sensibilità); (2) risultare negativo quando la condizione indagata è assente (specificità). È importante capire se siamo in una situazione di miss-classificazione non differenziale: si verifica ogniqualvolta gli errori di.
classificazione lungo un asse (ad esempio quellodell’esposizione) sono ugualmente distribuiti lungo l’altro asse (ad esempio quello dellamalattia). Un’importante proprietà della misclassificazione non differenziale è che in suapresenza, se l’esposizione è dicotoma, l’effetto vero dell’esposizione tendesistematicamente ad oscurarsi (D tende all’unità). Abbiamo poi la miss-classificazionedifferenziale: si verifica ogniqualvolta gli errori di classificazione lungo un asse (adesempio quello dell’esposizione) sono differentemente distribuiti lungo l’altro asse (adesempio quello della malattia). Un’importante proprietà della misclassificazione nondifferenziale è che in sua presenza si conosce a priori il verso della distorsione: abbiamouna sottostima in funzione della relazione della SE e SP dei due gruppi posti a confronto.Come possiamo ridurre questa distorsione? Usando strumenti validati,
usando strumenti simili per tutti i soggetti in studio casi/controlli, esposti/non esposti, assicurandosi che lo staff sia in "cieco" rispetto allo stato di malattia e/o all'esposizione. Inoltre, dobbiamo anche: Identificare le distorsioni che non possono essere evitate, valutare il loro impatto potenziale, utilizzare queste informazioni quando si interpretano i risultati. - Distorsione da confondimento Da confondimento: errore che avviene quando si osserva un'associazione tra una data esposizione e una malattia per effetto di una terza variabile (o gruppi di variabili) usualmente chiamata variabile di confondimento o, più semplicemente, confondente. Come facciamo a verificare se la variabile è confondente in modo quantitativo? Come facciamo a controllare questo confondimento? Lo facciamo tramite un'analisi stratificata per le categorie del confondente. Per confondente intendiamo che questo deve essere fattore di rischio di malattia, il confondente deveessere legato all'esposizione che vogliamo valutare. La stima "corretta" dall'azione del confondente è dato dalla mediaponderata delle stime di associazione strato-specifiche (stimatore di Mantel-Haenszel).
Quando si è in presenza di confondimento le stime di associazione strato-specifiche sono tra di loro simili e la loro sintesi (stimatore di Mantel-Haenszel) si differenzia dalla stima grezza calcolata dalla tabella di partenza.
Cosa succede quando gli indicatori sono molto diversi tra loro negli strati? Non ha senso fare la media perché perderei delle informazioni (so già che i normotesi hanno un rischio relativo molto più alto).
Per ottenere una sintesi simile a quella di MH dobbiamo: aggiungere l'interazione tra l'esposizione e il confondente (se voglio fare un'analisi stratificata), altrimenti, per una regressione classica, basta aggiungere la variabile confondente.
Come affronto il confondimento:
- Restrizione della base dello studio: ha lo svantaggio di non poter generalizzare i risultati;
- Appaiamento: per ogni caso individuato, selezioniamo tra i potenziali controlli uno molto simile, creando gruppi bilanciati. Abbiamo 3 difetti: non posso studiare l'effetto delle variabili, mi rende difficile trovare il controllo, sovrappaiamento (la differenza tra casi e controlli nell'esposizione è ridotta). Questi due in fase di disegno. Quelli che elenchiamo dopo in termini di analisi.
- Stratificazione (vista sopra): abbiamo problemi con tanti livelli o più confondenti è poco efficace;
- Standardizzazione: stessi problemi della stratificazione;
- Modellizzazione: permette di controllare più confondenti insieme. Il problema è che la potenza dei test di interazione è bassa e che, basandosi su un modello statistico, si basa su degli assunti che non sempre sono verificati.
• Precisione e stime intervallari
Per calcolare le stime intervallari abbiamo 2
metodi: intervalli di confidenza esatti (classici)e approssimati (con la normale). Quando usiamo quelli approssimati oscuriamo la vera distribuzione dello stimatore.
Il p-value: indica la probabilità che lo stimatore assuma valori uguali o superiori a quello osservato se l'ipotesi nulla è vera. Più questa probabilità è bassa tanto più il valore osservato non supporta l'ipotesi nulla. Si può estendere il concetto del p-value ad una funzione che fornisce la probabilità di osservare un valore pari o superiore a quello osservato non solo sotto l'ipotesi nulla ma per diversi valori del parametro.
Qual è il legame tra funzione p-value e intervallo di confidenza? Si può interpretare l'intervallo di confidenza come una sintesi della funzione p-value. I due valori del parametro da stimare, corrispondenti a P= 0.025, infatti rappresentano i limiti per l'intervallo di confidenza con livello di confidenza 1-alfa.
Potremmo avere dei problemi quando la distribuzione è fortemente asimmetrica: non riusciamo a raggiungere la convergenza. Possiamo fare delle trasformazione sui dati per renderli più simmetrici come il logaritmo. Quindi poi gli estremi dell'intervallo si mettono in exp.
Il problema sta nel calcolare la varianza del logaritmo di theta. Noi la calcoliamo con il metodo delta: In altri termini, la varianza di una variabile ottenuta come trasformazione logaritmica si ottiene dividendo la varianza della variabile originale per il quadrato della sua media. In generale scegliere un metodo o l'altro, quando abbiamo 30 eventi è del tutto uguale. Quando ne ho di meno devo usare quello esatto. Preferiamo usare quello approssimato perché è più facile e perché quello esatto è meno potente (serve N più grande per avere la stessa potenza).
Sintesi di cosa dobbiamo sapere: differenza tra esatto e approssimato, metodo delta
cos'è e cosa serve. Quando abbiamo il tasso assumiamo che ci sia una Poisson, per il rischio assumiamo una binomiale. Per il rischio relativo e l'OR devo applicare il metodo delta. Lezione 11 - 10/01- Farmacoepidemiologia - La farmacoepidemiologia studia gli effetti terapeutici i rischi e l'utilizzazione dei farmaci su scala di popolazione mediante un approccio epidemiologico. Nasce nei paesi del nord, in Italia non abbiamo un unico database, abbiamo database sul farmaco, sulla malattia. Il database del farmaco presenta il codice AIC (codice di emissione in commercio del farmaco) che indica il tipo di confezione del farmaco. Abbiamo le dosi giornaliere del mantenimento di una terapia. Sul database abbiamo un problema, che è il problema della farmacoepidemiologia, il ritiro del farmaco non indica l'assunzione di questo. La farmacoepidemiologia si occupa prevalentemente delle terapie croniche, perché è meno probabile non assumerli. Nonostante questoCi sono anche studi che dimostrano che ci sono individui che comunque non assumono, o c'è spreco economico, oppure una mancata prevenzione di cause successive. I database di Regione Lombardia sono utilizzabili da enti accreditati. Abbiamo anche i database dei medici generali che raccolgono le informazioni dei loro pazienti, abbiamo più informazioni sulla persona. Non possiamo unire i database, ma possiamo calibrare usando le informazioni dei database medici nei database regionali.
Parliamo di approccio osservazionale, nasce in contemporanea alla farmacovigilanza (segnalazioni passive agli operatori sanitari di un effetto avverso dopo l'assunzione del farmaco, si occupa solo dei rischi, si basa solo sulle segnalazioni, il medico da poi un giudizio se effettivamente la segnalazione è fondata, ma non cattura tutto).
Limiti degli studi clinici randomizzati: Non usiamo praticamente mai l'approccio randomizzato, sappiamo che con la selezione creiamo un
sottogruppo omogeneo (varianza di errore piccola) ma rischiamo di non mettere in evidenza eventi avversi. La selezione dei pazienti garantisce che gli effetti osservati siano limitatamente disturbati dall'effetto di confondenti (malattie concomitanti, altri farmaci, ecc...). D'altro canto in questo caso non è possibile generalizzare i risultati anche agli altri soggetti non selezionati. Dobbiamo cercare di generalizzare i dati il più possibile. Un altro problema riguarda la scarsa numerosità campionaria: limita la capacità di evidenziare eventi avversi relativamente rari. L'assegnazione casuale ai due livelli del fattore sperimentale ha lo scopo di distribuire casualmente l'effetto delle fonti di perturbazione: in questo modo se esistono delle differenze tra i gruppi queste possono essere attribuite al diverso tipo di trattamento e questo è garanzia di evidenze SOLIDE. Il pattern di assunzione, rigidamente stabilito e controllato.garantisce che gli effetti osservati siano limitatamente disturbati dall'eterogeneità dell'esposizione. D'altro canto in questo caso non è possibile generalizzare i risultati anche alle condizioni di usuale posologia, compliance, ecc. Il follow-up nello studio è breve per definizione. Il breve periodo di follow-up limita la possibilità di evidenziare eventi avversi a lungo termine. La farmacoepidemiologia nasce come complementare; dopo che il farmaco entra in commercio entra in gioco farmacoepidemiologia e farmacovigilanza. Quest'ultima si basa su: segnalazioni aneddotiche, segnalazioni spontanee e passive e sistemi di monitoraggio attivi (algoritmi che cercano di valutare la natura causale della relazione osservata su ogni singolo individuo). Sistemi di monitoraggio epidemiologici: basati su un sistematico e rigoroso tentativo di produrre solide evidenze di causalità sulla base di un processo induttivo che prescinde dallaresponsabilità individuale.
Vantaggi e svantaggi della farmacoepidemiologia:
A. Vantaggi: popol