Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Dimostrazione: Φ è semidefinita positiva
È una forma quadratica e convessa (parabola) in theta (Φ) e ammette dunque un solo valore di minimo.
Interpretazione grafica della condizione sul determinante di ΦΦT
Se il determinante è diverso da zero, funzione invertibile, ho un solo punto di minimo e quindi una sola soluzione; se il determinante è uguale a 0 avrò infiniti punti di minimo e quindi non si può risolvere in modo univoco la relazione.
Il minimo si ottiene derivando la funzione e ponendola a zero:
Supponiamo che e~N(0,Σ), con Σ matrice diagonale nota con valori σi2. Si assume che gli errori di misura (o di modello) siano descritti come processo gaussiano centrato in 0 (quindi a media nulla) e incorrelati (poiché matrice diagonale). La matrice ha sulla diagonale le varianze, si assume che gli elementi fuori dalla diagonale siano nulli.
Sotto questa ipotesi si definisce:
Dati che hanno SD più elevate
Pesano in misura minore rispetto a quelli con SD meno elevata. Si vuole perciò ancora minimizzare la distanza tra dato e predizione del modello, ma adesso viene pesata per l'errore di misura commesso. È un'informazione addizionale di affidabilità, ci sono dati più credibili (SD bassa) rispetto ai dati con SD alta. Si dimostra che la soluzione del problema di minimo è , dove W=matrice pesi=Σ -114– ,Θ), Definizione generale di residuo: r(t ) = r = y(t ) g(t ovvero differenza tra dato effettivo e predizione di modello Per modello y = ΦΘ + e r = y – ΦΘ dell'identificazione numerica Risultati pt.1 Trovato le stime dei parametri e quindi determinato il modello, la bontà dei risultati dell'identificazione si valuta tramite analisi dei residui: confronto delle predizioni del modello contro i dati (fit). Il modello y = ΦΘ + e, e supponiamo nota la densità di
probabilità fSi consideri (e) del vettore aleatorio e.eSe e è una variabile aleatoria, allora anche y è una v.a. con una certa densità di probabilità f (y) che peryl’osservatore è:• perché dipende da ΦΘ che è incognitoparzialmente incognita• riflette l’aleatorietà del vettore e riassunta dalla sua densità di probabilità f (e)eDefinizione della stima ML (stimatore di massimo-verosimiglianza)Si consideri il vettore aleatorio y= ΦΘ + e(e) nota, se dessimo un valore al vettore Θ la fEssendo f (y) sarebbe completamente determinata. Fissatoe yun valore generico di Θ, la funzione f (y) per il valore misurato del vettore y fornisce una quantificazioneynumerica della probabilità a priori che il vettore aleatorio y possa avere come realizzazione esattamente ilvalore misurato sperimentalmente.Al variare di Θ, tale quantità, che viene chiamata
La verosimiglianza di y, indicata con L(Θ), varia. Si può quindi determinare una stima di Θ trovando quel suo valore che rende massima la verosimiglianza del vettore delle misure.
Esempio: rumore gaussiano e~N(0,Σ), con Σ non dipendente dai parametri del modello Θ. Allora y = ΦΘ + e è pure gaussiano con e~N(ΦΘ,Σ). La sua funzione di densità di probabilità è ML coincide con WLS (=minimi quadrati pesati) poiché se massimizzo la funzione densità di probabilità, il termine che non dipende dai parametri e con Σ nota, scompare e io minimizzo l'esponenziale. Vale solo nelle condizioni di errore gaussiano a media nulla.
Risultati dell'identificazione numerica pt2. Trovato il Θ e quindi determinato il modello, la bontà dei risultati dell'identificazione di si valuta attraverso analisi dei residui e precisione delle stime.
Aspettazione e varianza
Il valore atteso dallo stimatore (aspettazione) è pari al vettore dei parametri, ciò significa che è privo di errore di stima.
La varianza dello stimatore è:
Residui: bianchezza
I residui dovrebbero rispettare le statistiche sull'errore di misura. Sappiamo che l'errore di misura è a campioni scorrelati (successione tra positivo/negativo, o valutazione del numero dei passaggi per lo 0), ha media nulla e ha una certa varianza.
Bianchezza dei residui: mi aspetto un valore medio pari a zero.
Residui: ampiezza
Si considerano i residui pesati
Ipotesi. Sappiamo che l'errore di misura è a campioni gaussiani scorrelati, con matrice di varianza nota Σ = vdiag(σ , …, σ12 N2).
Ora, poiché:
Se definiamo i residui pesati come
Si attende che siano poco correlati e per la maggior parte di ampiezza compresa tra -1 e 1.
La matrice di covarianza dà un'informazione
quantitativa sul range di valori che di stima può l'errore (ovvero dell'incertezza) assumere, fornendo dunque una misura della precisione con cui stimiamo il vettore p. Nei casi pratici, si preferisce riportare l'incertezza in termini relativi attraverso il coefficiente di variazione:
Troppa incertezza: Modello troppo complesso per i dati a disposizione
- troppi parametri
- dati troppo poco informativi (es. pochi o troppo rumorosi)
Rimedi:
- semplificazione del modello
- migliorie all'esperimento
Scelta tra modelli in competizione:
Al crescere dell'ordine del modello
- migliorano i residui
- peggiorano le precisioni delle stime
Per bilanciare esigenze contrastanti di fit e precisione: criteri basati sul principio di parsimonia
Sistemi lineari tempo-invarianti (un ingresso, una uscita) e errore gaussiano: Criterio di Akaike
AIC= WRSS + 2 MWRSS diventa più piccolo mano a mano che il dato aderisce al modello e ciò avviene
All'aumentare della complessità del modello, si verifica anche un aumento del numero di parametri, compensando la diminuzione del WRSS.
Il criterio di Schwartz SC = WRSS + M log N rappresenta un compromesso tra l'adesione del modello ai dati (WRSS, funzione obiettivo, valore della sommatoria per i che vanno da 1 a N del funzionale) e la complessità del modello (con M numero di parametri).
Se la varianza del rumore fosse incognita (o nota a meno di un fattore di scala), le espressioni di AIC e SC sarebbero leggermente diverse.
Osservazione: WLS y = ΦΘ + e con Σ Σ 2. Finora abbiamo considerato Σ nota. Come trattiamo il caso in cui in Σ σ è incognito? La matrice NxN B è nota (sono noti gli elementi sulla diagonale) ma lo scalare σ2 è incognito?
Lo scalare modula ogni elemento della diagonale di B.
Stima con i pesi relativi:
- Si stimano i parametri del modello usando
- Si calcola il valore di Σ
- Si calcola σ
- Σ pesi assoluti: completamente notae
- Σ 2 pesi relativi: =σ B con B notoe
In qualsiasi studio clinico è prevista la raccolta di dati, che vengono utilizzati per descrivere la popolazione in studio e per rispondere a uno o più quesiti di ricerca (in statistica descrittiva utilizzavamo un insieme di n dati). L'obiettivo di uno studio è valutare se esista un'associazione che derivavano da una popolazione). Di solito, fra alcune caratteristiche di due gruppi diversi o se intervenendo, ad esempio con un trattamento, sia possibile modificare specifici parametri o modificare la storia naturale di una patologia.
Per rispondere a questi quesiti, operiamo dei confronti e utilizziamo quindi i test statistici, che
cipermetteranno di accettare o di rifiutare (confutare) una ipotesi. Fasi della verifica di ipotesi statistica- del sistema di ipotesi: è costituito dall'ipotesi da verificare (o meglio da falsificare), e dall'ipotesi alternativa (H1) che generalmente è negazione logica delladetta ipotesi nulla (H0)prima; come H0 l'ipotesi che
- H0 viene detta ipotesi nulla perché si preferisce formulare descrive la situazione di riferimento rispetto alla quale mi voglio differenziare;
- H0 deve essere un'ipotesi puntuale (=precisa) perché si tratta di un requisito per lo sviluppo formale del metodo;
- H1 può essere un'ipotesi complessa;
- scegliere la statistica test: una quantità calcolata sui dati osservati che sintetizza l'informazione portata dal campione ai fini dell'inferenza;
- esplicitare le assunzioni: ipotesi ausiliarie che non vengono sottoposte a verifica ma si rendono necessarie per lo
Alternativa
Il risultato è ottenuto a causa della relazione esistente tra la variabile indipendente e la variabile dipendente (o della relazione esistente tra le diverse variabili considerate nel disegno sperimentale).
Il sistema di ipotesi H0 e H1 costituiscono il sistema di ipotesi:
- Il sistema di ipotesi si dice bilaterale (bidirezionale/a due code) quando H1 è un'ipotesi complessa (descrive più valori) e comprende sia i valori minimi che quelli maggiori rispetto al valore puntuale previsto da H0 con µ0 valore determinato.
- Il sistema di ipotesi è invece unilaterale (unidirezionale/a una coda) nei seguenti casi:
Costruzione di un test a due code Test Statistici su 2 gruppi.
Definizione