Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
LA PROBABILITà CONDIZIONATA
La probabilità di un evento può variare subordinatamente al verificarsi di un altro evento
esempio -> nel lancio di un dado, la probabilità che esca il 4 è 1/6; se si ha l’informazione che è uscito un numero
—>
pari, la probabilità che sia 4 risulta 1/3, mentre se l’informazione fosse che è uscito un numero superiore a 2,
la probabilità sarebbe 1/4
Si definisce probabilità di un evento A condizionata all’evento B - e si indica -> P(A|B) - la probabilità del
• verificarsi di A nell’ipotesi che B si sia verificato; se B non si verifica, l’evento A|B non è definito
Per valutare P(A) si è preso in considerazione l’universo U degli eventi
elementari -> si valuta la probabilità di A subordinata all’ipotesi B, mentre
prima si valutava la probabilità di A subordinata all’ipotesi U;
l’informazione restringe l’universo U ad un suo sottoinsieme B
Secondo l’impostazione classica -> se 19 sono i casi favorevoli al
• verificarsi dell’evento B e K sono quelli favorevoli al verificarsi di A∩B, la
probabilità di A condizionata a B -> P(A|B) = k/b
si può trasformar dividendo per N il numeratore e il denominatore -> P(A|B) = (k/N)/(b/N) = P (A∩B)/P(B)
L’impostazione assiomatica definisce come probabilità di A condizionata a B la relazione -> P(A|B) = P (A∩B)/
• P(B), se P(B) > 0
La probabilità composta
Deriva dal concetto di probabilità condizionata -> P(A∩B) = P (B) P(A|B) = P(A) P (B|A)
per cui la probabilità che 2 eventi si verifichino contemporaneamente è pari alla probabilità di uno dei 2
—>
eventi moltiplicato con la probabilità dell’altro evento condizionato al verificarsi del primo
Nel caso di indipendenza stocastica si ottiene che la probabilità congiunta è pari al prodotto delle
• probabilità -> P(A∩B) = P(A) P(B) -> P(A,B)
Esempio -> la probabilità che il Milan vinca il campionato di serie A è 1 su 8 e la probabilità che il Verona vinca il
campionato di serie B è 1 su 3
la probabilità composta mi permette di rispondere alla domanda -> qual è la probabilità che sia il Milan sia il
—>
Verona vincano i rispettivi campionati a fine stagione?
Calcolo della probabilità composta Calcolo della probabilità composta su eventi
3
P (Milan vinca il campionato di serie A) = 1/8 P (prendere 30 a Psicometria) = 1/10
P (Verona vinca il campionato di serie B) = 1/3 P (prendere 30 a Metodologia) = 1/15
(1/8)*(1/3) = 1/24 P (prendere 30 a Analisi dei dati) = 1/7
—> e
La probabilità che sia il Milan che il Verona vincano i (1/10)*(1/15)*(1/7) = 1/1050
—>
rispettivi campionati a fine stagione è 1 su 24 C’è 1 probabilità su 1050 di prendere 30 in tutte le materie
26
Distribuzioni di probabilità
È un modello matematico che collega i valori di una variabile alle probabilità che tali valori possano essere
osservati
vengono utilizzati per modellizzare il comportamento di un fenomeno di interesse in relazione alla
—>
popolazione di riferimento
In base alla scala di misura della variabile di interesse X, possiamo distinguere:
Distribuzioni continue -> la variabile viene espressa su una scala continua -> diametro del pistone
• Distribuzioni discrete -> la variabile viene misurata con valori numerici interi -> numero di elementi
• difettosi in un circuito
Vengono espresse da una legge matematica detta funzione di densità di probabilità, indicata con f(x),
funzione di probabilità, indicata con p(x) Distribuzione uniforme
È una distribuzione di probabilità discreto
che attribuisce la stessa probabilità ad
ogni elemento dell’insieme discreto S su cui
è definito
Esempio -> lancio di una moneta non truccata
in cui ognuno dei 2 valori “testa” o “croce”
Distribuzione iper-geometrica
Distribuzione binomiale Esempio -> urna contenente N palline di cui K rosse e (N - k)
È il modello adatto per il campionamento da una non rosse
popolazione infinita, dove la probabilità p Dall’urna si estraggono N palline, o successivamente, o in
rappresenta la frazione di elementi difettosi o blocco
non conformi presenti nella popolazione la distribuzione iper-geometrica è la distribuzione di
—>
la v.a. X rappresenta il numero di successi in N
—> probabilità discreta che descrive tale estrazione
prove indipendenti Se l’estrazione è successiva si ha una successione di
•
Esempio -> esce il numero 4 nel lancio di un dado; ha prove non indipendenti in quanto varia la probabilità di
probabilità 1/6 per ogni lancio del dado estrazione di una pallina rossa al variare della prova
Distribuzione di Poisson
Se eseguiamo N prove indipendenti, il numero Definita per valori interi non negativi, che a differenza
delle volte in cui l’evento si verifica è una delle distribuzioni precedenti, può assumere i valori 0, 1,
variabile casuale X che può assumere i valori 0, 1, 2, 3, ..
2, .., N esprime le probabilità per il numero di eventi che si
—>
in base al teorema delle prove ripetute ad
—> verificano successivamente e indipendentemente in un
ogni valore x si associa una probabilità Px con dato intervallo di tempo Lambda (λ)
distribuzione di una variabile casuale discreta Esempio -> misurare il numero di chiamate ricevute in un
detta distribuzione binomiale callcenter, in un determinato arco temporale; è nota
anche come legge degli eventi rari
27
La legge dei grandi numeri
Nella letteratura sono stati dati vari teoremi della legge dei grandi numeri che costituiscono una
formulazione matematica della legge empirica del caso
una formulazione semplice è data dal
—>
Teorema di Bernoulli
Se un evento ha probabilità costante p in ogni prova, la probabilità che la frequenza relativa di n prove
differisca dalla probabilità p per meno di un numero > 0 arbitrario, tende all’unità al crescere del numero n
ε
ci permette di affermare che la media che calcoliamo a partire da un numero sufficiente di campioni sia
—>
sufficientemente vicina alla media reale
Il concetto di “sufficiente” fa riferimento alla probabilità e all’ampiezza campionaria
•
Un caso particolare di applicazione della legge dei grandi numeri è la previsione probabilistica della
proporzione di successi in una sequenza di n realizzazioni indipendenti di un evento E -> per n che tende a
infinito, la proporzione di successi converge alla probabilità di E
Distribuzione normale
È molto usata in statistica perché molti fenomeni hanno una distribuzione che si può
rappresentare con una distribuzione normale
la distribuzione binomiale si può approssimare, per n grande, alla distribuzione
—> e
normale
Considerando un istogramma delle frequenze relative che rappresenti un fenomeno con distribuzione
• simmetrica, formato da 7 classi, in modo che la somma delle aree dei rettangoli valga 1..
L’adattamento della spezzata alla curva è migliore
continuando a diminuire l’ampiezza delle classi si ottiene una spezzata sempre più e
—>
prossima alla curva
L’espressione analitica della funzione di densità della distribuzione normale ->
•
È definita per qualsiasi valore reale, nell’intervallo illimitato -> (-∞, +∞)
dipende da 2 parametri:
—> -> valore medio E
• μ -> varianza
• σ^2
La normale viene indicata con N (μ;σ^2)
Una delle sue proprietà è che valore medio, valore modale e mediana coincidono e corrispondono al punto di
massimo della distribuzione normale
28
Distribuzione normale standardizzata
Se = 0 e = 1 -> si ha la distribuzione normale standardizzata N (0;1) e la sua funzione di
μ σ^2
densità diventa ->
la probabilità che la variabile aleatoria X assuma un valore compreso fra 2 ascisse x1 e x2 è dato
—>
dall’area sottesa -> P (x1 < X < x2) : arco del trapezoidale (P1P2Q1Q2)
La variabile causale, l’area compresa fra tutta la curva e l’asse
delle x, vale 1
il calcolo è riportato su tavole, come le Tavole di Sheppard
—>
La curva di simmetria rispetto all’asse delle ordinate è -> f (z) = f (-z) -> P (-a < Z < 0) = P (0 < Z < a)
•
Calcoliamo l’area fra i punti 0 e 1, l’area fra le ascisse del massimo e del flesso
dalle tavole P (0 < Z < 1) = 0,3413 -> fra -1 e 1 -> l’area è: P (-1 < Z < 1) = 0,6826
—>
Significa che: nella distribuzione normale c’è probabilità del 68.26% che la variabile
• normale standardizzata abbia uno scarto dal valore medio inferiore a 1, che il 68.26% dei valori della
distribuzione sono compresi fra -1 e 1
Fissate le aree di probabilità, si possono determinare le rispettive ascisse
l’area di probabilità di 0.25, a partire da z = 0, corrisponde all’area fra l’ascissa 0 e
—>
l’ascissa 0.6745
Esiste una probabilità del 50% che a variabile sia compresa fra -0.6745 e 0.6745
• 29
Standardizzazione
Ha lo scopo di rendere i dati direttamente confrontabili
Punti z
Indicano la posizione dei dati in termini di distanza dalla media, che viene espressa in
deviazione standard
Rapporta tutte le distribuzioni a un’unica distribuzione “standard” a
• media pari a 0 -> tolgo la media da ciascun valore
S -> rapporta tutte le distribuzioni a un’unica distribuzione “standard” a deviazione standard pari a 1
•
Tramite i punti z è possibile standardizzare delle distribuzioni
è di importanza fondamentale in psicometria ed è parte integrante del bagaglio professionale di
—>
qualsiasi psicologo
Hanno per costruzione, sempre somma algebrica pari a 0 ->
e media sempre pari a 0 ->
—>
La somma dei quadrati dei punteggi z è uguale a N ->
lo scarto quadratico medio e la varianza dei punteggi z è uguale a 1 ->
—>
Distribuzione normale standardizzata; esempio
Ipotizziamo di fare una misurazione del livello di intelligenza su un gruppo di studenti di una scuola media
superiore, e utilizziamo un test che offre una serie di punteggi espressi in 30esimi
- Risolvere un problema di matematica
- Riassumere un testo
- Tradurre una frase
- E molto altro ancora...
Per termini, condizioni e privacy, visita la relativa pagina.