Estratto del documento

La concordanza diagnostica

Supponiamo che due medici debbano esprimere una diagnosi relativa allo stato di salute di uno stesso paziente. Supponiamo per semplicità che il giudizio diagnostico sia semplicemente: malato/sano. Le due diagnosi potranno essere concordi o discordi:

  • Medico A: Malato, Medico B: Malato – Concordanza
  • Medico A: Malato, Medico B: Sano – Discordanza
  • Medico A: Sano, Medico B: Sano – Concordanza
  • Medico A: Sano, Medico B: Malato – Discordanza

Esempio 1a

Supponiamo che i due medici debbano esaminare 30 pazienti, i dati relativi ai loro giudizi diagnostici possono essere riassunti in una tabella di contingenza:

Medico A Medico B Sano Malato
Sano 10 7
Malato 0 12

Le concordanze sono 22 (10+12).

Le discordanze sono 7.

Misurare la concordanza diagnostica: il Kappa di Cohen

L'indice di Kappa di Cohen misura la concordanza diagnostica sulla base del confronto tra concordanza/discordanza osservata e concordanza/discordanza attese sotto l’ipotesi di “diagnosi casuale”.

P(accordo) osservata = P(accordo) attesa = Kappa - 1 / P(accordo) attesa

Accordo massimo possibile calcolato sotto l’ipotesi di “diagnosi casuale”:

P(disaccordo) osservata = 1 - P(disaccordo) attesa

Il Kappa di Cohen:

P(accordo) osservata - P(accordo) attesa = Kappa - 1 / P(accordo) attesa

La probabilità di accordo osservata è in parte dovuta al caso, in parte legata alle caratteristiche dei pazienti. Di solito, quindi, la concordanza osservata è maggiore di quella che si osserverebbe se i due medici agissero a caso.

Esempio 1b

P(sano) = 10 / 29 = 0.345

P(malato) = 1 - 0.345 = 0.655

Medico B Sano Malato
Sano 10 7
Malato 0 12

P(sano) = (10+7) / 29 = 17 / 29 = 0.586

P(malato) = 1 - 0.586 = 0.414

Probabilità di concordanza osservata = (10+12) / 29 = 22 / 29 = 0.759

Probabilità di concordanza attesa sotto l’ipotesi di “diagnosi casuale”:

P(concordanza sano) = P(sano) x P(sano) = 0.345 x 0.586 = 0.202

P(concordanza malato) = P(malato) x P(malato) = 0.655 x 0.414 = 0.271

P(concordanza) = P(concordanza sano) + P(concordanza malato) = 0.202 + 0.271 = 0.473

P(accordo) osservata - P(accordo) attesa = 0.759 - 0.473 = Kappa 0.54

1 - P(accordo) attesa = 1 - 0.473

Probabilità di concordanza osservata = 0.759

Probabilità di concordanza attesa = 0.473

Kappa = 1 - (disaccordo osservato / disaccordo fortuito) = 1 - [(1 - accordo osservato) / (1 - accordo fortuito)]

Anteprima
Vedrai una selezione di 6 pagine su 25
Statistica ostetricia Pag. 1 Statistica ostetricia Pag. 2
Anteprima di 6 pagg. su 25.
Scarica il documento per vederlo tutto.
Statistica ostetricia Pag. 6
Anteprima di 6 pagg. su 25.
Scarica il documento per vederlo tutto.
Statistica ostetricia Pag. 11
Anteprima di 6 pagg. su 25.
Scarica il documento per vederlo tutto.
Statistica ostetricia Pag. 16
Anteprima di 6 pagg. su 25.
Scarica il documento per vederlo tutto.
Statistica ostetricia Pag. 21
1 su 25
D/illustrazione/soddisfatti o rimborsati
Acquista con carta o PayPal
Scarica i documenti tutte le volte che vuoi
Dettagli
SSD
Scienze storiche, filosofiche, pedagogiche e psicologiche M-EDF/01 Metodi e didattiche delle attività motorie

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher valeria0186 di informazioni apprese con la frequenza delle lezioni di Ortopedia e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Firenze o del prof Grisotto Laura.
Appunti correlati Invia appunti e guadagna

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community