Anteprima
Vedrai una selezione di 4 pagine su 13
Metodi dei minimi quadrati e funzione di massima verosimiglianza Pag. 1 Metodi dei minimi quadrati e funzione di massima verosimiglianza Pag. 2
Anteprima di 4 pagg. su 13.
Scarica il documento per vederlo tutto.
Metodi dei minimi quadrati e funzione di massima verosimiglianza Pag. 6
Anteprima di 4 pagg. su 13.
Scarica il documento per vederlo tutto.
Metodi dei minimi quadrati e funzione di massima verosimiglianza Pag. 11
1 su 13
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Principio di Massima Verosimiglianza

Stimare significa trovare i parametri di un modello che debba riprodurre un set di dati sperimentali.

Per esempio, un'istogramma che ci sembra simile a una gaussiana si può descrivere stimando μ e σ.

Dobbiamo fare attenzione a 2 cose:

  • La scelta del modello che vogliamo usare per descrivere i dati
  • Le incertezze dei dati sperimentali.

Il principio di massima verosimiglianza (maximum likelihood) si tratta di un principio generale per stimare i parametri.

  • Considerando N misure Xi estratte da una popolazione caratterizzata da Aj parametri
  • Assumiamo un modello che descriva la distrib.
  • Il principio di M.L. (maximum likelihood) ci permette di stimare Aj

P(Xi, Aj) = prob. di ottenere il valore Xi (misurato) da una distrib. P caratterizzata dai param.

Qual è la probab. di ottenere l'intero campione nelle N misure Xi? Dato che sono misure indipendenti, si fa il prodotto delle probab.

La funzione di max verosom. L(X, A) fornisce la prob. di ottenere l'intero campione dato il modello assunto con certi parametri Aj

L(xi, Aj) = ∏-⁡i=1 P(Xi, Aj)

se L(A1) > L(A2) allora il parametro A2 è + probabile/verosimile di A2 in base al campione osservato

lo scopo è quello di trovare il valore A che massimizza la funzione L(A)

cosa fare ?

  1. identificare la distrib. che meglio descrive i dati
  2. def. la funzione logaritmica di MLL = ∏P    ln(L) = ∑ ln(P)
  3. ln(L)/∂A = 0

quale distrib. possiamo assumere per gli errori sui valori misurati

è ragionevole assumere una distrib. normale?- è la distrib. che riproduce gli errori casuali- è la distrib. a cui tendono molte altre distrib.- facilita i contima la M.L. è generale, si può applicare anche a distrib. non gaussiane

Nel caso Gaussiano:

Lm,σ = ∏i=1N 1/σ√2π e-(Xi-m)²/2σ²

Xi = sono quantità note, sono le misure e descrivono il campionem, σ le dobbiamo stimare e sono caratteristiche della popolazione

METODO DEI MINIMI QUADRATI

REGRESSIONE VIENE USATO COME SINONIMO DI CORRELAZIONE

PER REGRESSIONE LINEARE INTENDIAMO UNA FAMIGLIA DI METODI STATISTICI

MODELLO LINEARE IN STATISTICA SI RIPENSCHIA ALLA LINEARITÀ DEI PARAMETRI E NON DELLE VARIABILI

Y = A + Bx Y = A + Bx + Cx2 , Y = A e-x

NON SONO FUNZIONI LINEARI MA Y È LINEARE RISPETTO AD A, B E C

IL METODO DEI MINIMI QUADRATI ORDINARI È UN METODO DI REGRESSIONE LINEARE BASATO SUL PRINCIPIO DI MAX VEROSIMIGLIANZA.SI FONDA SU 2 ASSUNZIONI:

  1. I VALORI DELLA X HANNO ERRORE TRASCURABILE RISPETTO AI VALORI DI Y
  2. I VALORI DI Y SONO DISTRIBUITI NORMALMENTE

COSA SIGNIFICA IL SECONDO P.TO? CHE OGNI Yi NON APPARTERRÀ ALLA RETTA Y = A + Bx: MA SARANNO DISTRIBUZIONI IN BASE ALLE INCERTEZZE DI Yi, OVVERO SECONDO UNA GAUSSIANA CON CENTRO SUL VALORE VERO

IL 68% DEI P.TO CADRÀ DENTRO LA BARRA DI ERRORE

NOI ABBIAMO LE COPPIE (Xi, Yi) E DOBBIAMO STIMARE A E B MA DATO CHE LE COPPIE SONO FINITE UNA STIMA DEI PARAMETRI CON LE LORO INCERTEZZE.

La distinzione tra variabili dipendenti e indipendenti è fondamentale

Infatti la stima di best-fit consiste nel distanza solo lungo y se invertiamo x e la retta varia.

Quando e come applicare i metodi di regressione lineare?

Se la relazione tra y e x è polinomiale:

y(x) = a1 + a2x + a3x2 + a4x3 + ... + amxm-1

y(x) = ∑K=1m aK xK-1

Possiamo usare il metodo dei minimi quadrati se la funzione è lineare nei parametri ak. Non c'è limite nel n° di parametri che possiamo stimare.

Facciamo le stesse assunzioni fatte in precedenza:

  • Errori di x sono trascurabili
  • Errori in y seguono una gaussiana

Applichiamo la max verosimiglianza:

Dobbiamo minimizzare la somma dei quadrati di questi residui (pesati sulla varianza)

L = P(a1, ..., am) = ∏i=1N 1/(σi√2π) e-(yi - ∑K=1m aKfK(x))2/2σi2

χ2 = ∑(yi - ∑K=1m aKfK(x))/σi2

Dettagli
Publisher
A.A. 2020-2021
13 pagine
SSD Scienze fisiche FIS/01 Fisica sperimentale

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Astrodreamer di informazioni apprese con la frequenza delle lezioni di Esperimentazioni di fisica 1 e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Bologna o del prof Mucciarelli Alessio.