Anteprima
Vedrai una selezione di 12 pagine su 52
Lezione di calcolo delle probabilità per la scuola superiore Pag. 1 Lezione di calcolo delle probabilità per la scuola superiore Pag. 2
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Lezione di calcolo delle probabilità per la scuola superiore Pag. 6
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Lezione di calcolo delle probabilità per la scuola superiore Pag. 11
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Lezione di calcolo delle probabilità per la scuola superiore Pag. 16
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Lezione di calcolo delle probabilità per la scuola superiore Pag. 21
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Lezione di calcolo delle probabilità per la scuola superiore Pag. 26
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Lezione di calcolo delle probabilità per la scuola superiore Pag. 31
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Lezione di calcolo delle probabilità per la scuola superiore Pag. 36
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Lezione di calcolo delle probabilità per la scuola superiore Pag. 41
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Lezione di calcolo delle probabilità per la scuola superiore Pag. 46
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Lezione di calcolo delle probabilità per la scuola superiore Pag. 51
1 su 52
Disdici quando vuoi 162x117
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Sintesi
La nascita dello studio sistematico del calcolo delle probabilità si fa risalire al 1654, quando il matematico e filosofo Blaise Pascal, per soddisfare una richiesta del cavaliere De Meré, accanito giocatore di dadi, cominciò a dedicarsi allo studio dei meccanismi che regolano i giochi d’azzardo, intrattenendo a tale scopo anche un’interessante corrispondenza con il matematico Pierre de Fermat.
Estratto del documento

L’IMPOSTAZIONE ASSIOMATICA

DELLA PROBABILITA’

L'impostazione assiomatica della probabilità venne proposta

 nel 1933 in “Concetti

da Kolmogorov fondamentali del

calcolo delle probabilità”, sviluppando la ricerca che era ormai

cristallizzata sul dibattito fra quanti consideravano la

probabilità come limiti di frequenze relative e quanti

cercavano un fondamento logico della stessa.

Va notato che la definizione assiomatica non è una

 definizione operativa e non fornisce indicazioni su come

calcolare la probabilità. È quindi una definizione utilizzabile

sia nell'ambito di un approccio oggettivista che nell'ambito di

un approccio soggettivista.

Il nome deriva dal procedimento per "assiomatizzazione"

 quindi nell'individuare i concetti primitivi, da questi

nell'individuare i postulati (o assiomi) da cui poi si passava a

definire i teoremi.

DEFINIZIONI

SPAZIO DEGLI EVENTI:

 Per ogni esperimento si può costruire un insieme U

detto universo o spazio degli eventi, formato da tutti i

possibili esiti. Un evento casuale (o aleatorio) E si

identifica con un sottoinsieme di U.

Esempio:

Nel lancio di un dado, consideriamo l’evento E=“esce un

numero maggiore di 4”; in questo caso avremo che:

 

U 1

, 2

,

3

, 4

,

5

,

6

 

E 5

,

6

DEFINIZIONI

EVENTO COMPLEMENTARE (O CONTRARIO):

 Dato un evento E, sottoinsieme di U, si dice evento

contrario l’insieme complementare di E rispetto ad U e si

E

indica con .

Esempio:

Nell’esempio precedente si avrà dunque:

 

U 1

, 2

,

3

, 4

,

5

,

6

 

E 5

,

6

 

E 1

, 2

,

3

, 4

DEFINIZIONI

SOMMA LOGICA (O EVENTO UNIONE):

 Dati due eventi elementari E ed E , entrambi

1 2

sottoinsiemi di U, si dice somma logica l’insieme unione

E UE

1 2.

Esempio:

Nel lancio di un dado, si considerino gli eventi elementari

=“esce un numero pari” = {2,4,6}

E

1 =“esce un multiplo di 3” = {3,6}

ed E

2

La somma logica sarà l’evento:

=“esce un numero pari un multiplo di 3”=

E UE o

1 2

={2,3,4,6}.

Riconosciamo la somma logica quando nella descrizione

dell’evento compare il connettivo “o”.

DEFINIZIONI

PRODOTTO LOGICO (O EVENTO INTERSEZIONE):

 Dati due eventi elementari E ed E , entrambi

1 2

sottoinsiemi di U, si dice prodotto logico l’insieme

∩E

intersezione E

1 2.

Esempio:

Nel lancio di un dado, si considerino gli eventi elementari

=“esce un numero pari” = {2,4,6}

E

1 =“esce un multiplo di 3” = {3,6}

ed E

2

Il prodotto logico sarà l’evento:

∩E =“esce un numero pari multiplo di 3”= {6}.

E e

1 2

Riconosciamo la somma logica quando nella descrizione

dell’evento compare il connettivo “e”.

DEFINIZIONI

EVENTI INCOMPATIBILI E EVENTI

 COMPATIBILI:

Due eventi E ed E si dicono incompatibili se

1 2

non possono verificarsi contemporaneamente,

∩E ∩E ≠Ø allora

cioè se E =Ø. Viceversa, se E

1 2 1 2

sono compatibili.

Esempio:

Nell’estrazione di una carta da un mazzo di 40,

sono incompatibili gli eventi:

=“esce una figura”

E

1 =“esce un 7”

E

2

DEFINIZIONE DI PROBABILITA’

Definiamo probabilità p(E) di un evento E una

 che ad ogni evento dell’universo U

funzione 1

associa un numero in modo che siano

verificati i seguenti 3 assiomi:

p(E)≥0

Per ogni evento si ha

1. L’universo U rappresenta l’evento certo: p(U)=1

2. , …, E

Dati n eventi E , E a due a due incompatibili,

3. 1 2 n

U…UE )+…+p(E

si ha: p(E UE )=p(E )+p(E ).

1 2 n 1 2 n

Nota 1: Tale numero, come conseguenza degli assiomi 1 e 2, sarà

necessariamente compreso tra 0 e 1.

TEOREMI SULLA PROBABILITA’

TEOREMA DELL’EVENTO COMPLEMENTARE:

 Dato un evento E, la probabilità dell’evento

 

p ( E ) 1 p ( E )

complementare è:

PROBABILITA’ DELL’EVENTO IMPOSSIBILE:

 L’evento impossibile ha probabilità 0.

TEOREMI SULLA PROBABILITA’

PROBABILITA’ TOTALE (SOMMA LOGICA):

 Dati due eventi E ed E (compatibili o

1 2

incompatibili), vale la seguente relazione sulla

probabilità totale, cioè della somma logica:

– ∩E

p(E UE ) = p(E ) + p(E ) p(E ).

1 2 1 2 1 2

OSSERVAZIONE:

Se gli eventi sono incompatibili, il terzo termine sarà 0 e ciò è in

accordo con il terzo assioma.

ESEMPI

Lanciando un dado, qual è la probabilità che esca un 6 o

 un numero dispari?

Svolgimento:

Il connettivo “o” ci fa pensare alla somma logica, quindi

all’operazione di unione di eventi. Inoltre i due eventi

sono incompatibili, dato che 6 è un numero pari. Quindi

la probabilità della somma logica degli eventi è data dalla

somma delle probabilità dei singoli eventi elementari,

cioè: 1 3 4 2

      

p ( E E ) p ( E ) p ( E )

1 2 1 2 6 6 6 3

ESEMPI

Estraendo una carta da un mazzo di 40, qual è la

 probabilità che sia un re o una carta di fiori?

Svolgimento:

Il connettivo “o” ci fa pensare alla somma logica, quindi

all’operazione di unione di eventi. Ma in questo caso i

due eventi sono compatibili, giacché può uscire un re di

fiori. Quindi utilizziamo il teorema della probabilità totale:

4 10 1 13

        

p ( E E ) p ( E ) p ( E ) p ( E E )

1 2 1 2 1 2 40 40 40 40

ESEMPI

In un sacchetto ci sono palline rosse, bianche e blu. La

 probabilità di estrarre una pallina rossa è 1/3 e quella di

estrarre una pallina blu è 1/5. Qual è la probabilità di

estrarre una pallina bianca?

Svolgimento:

La probabilità richiesta si calcola facilmente come

della probabilità di “estrarre una

probabilità contraria

blu”. Quest’ultima si calcola come

pallina rossa o

probabilità totale di due eventi incompatibili, giacchè una

pallina non può essere contemporaneamente rossa e

blu, quindi:  

1 1 8 7

     

 

p 1 1

 

3 5 15 15

TEOREMI SULLA PROBABILITA’

PROBABILITA’ COMPOSTA (PRODOTTO

 LOGICO)

Consideriamo ora due eventi E ed E e

1 2

∩E

vogliamo calcolare la probabilità p(E ) che si

1 2

verifichino entrambi. Possono presentarsi due

casi:

 E ed E sono stocasticamente indipendenti

1 2

 E ed E sono stocasticamente dipendenti

1 2

CURIOSITA’ STORICA…

Il concetto di indipendenza stocastica tra

 eventi casuali fu definito per la prima volta

nel 1718 da Abraham de Moivre,

purtroppo noto al grosso pubblico solo per

aver correttamente predetto il giorno della

propria morte servendosi di una formula

matematica, nel suo libro “The Doctrine of

Chance”.

EVENTI DIPENDENTI E

INDIPENDENTI

Due eventi E ed E sono stocasticamente

 1 2

indipendenti se non si influenzano a

vicenda, cioè se il verificarsi di uno dei due

non modifica la probabilità che si verifichi il

secondo.

Viceversa, due eventi E ed E sono

 1 2

stocasticamente dipendenti se il

verificarsi di uno dei due modifica la

probabilità che si verifichi il secondo.

Esempio:

 Si estrae una carta da un mazzo di 40. Qual è la

probabilità che sia una figura e che sia di cuori?

Svolgimento:

La presenza del connettivo “e” ci fa pensare alla

probabilità composta, quindi dobbiamo chiederci se i

due eventi sono dipendenti o indipendenti.

La probabilità del primo evento è 12/40, cioè 3/10. La

probabilità che la carta sia di cuori non è influenzata dal

verificarsi dell’evento che la carta sia una figura, quindi

vale 10/40 cioè ¼. La probabilità composta sarà allora

3/40.

Pertanto questo è un caso di eventi indipendenti. La

probabilità composta è data dal prodotto delle probabilità

∩E

dei singoli eventi: p(E ) = p(E )*p(E )

1 2 1 2

Esempio:

 Si estrae una carta da un mazzo di 40 e, senza

reinserirla nel mazzo, se ne estrae una seconda. Qual è

la probabilità che siano due regine?

Svolgimento:

La probabilità del primo evento è 4/40, cioè 1/10. Ma

alla seconda estrazione le carte sono diventate 39 e, se

vogliamo che la prima sia già una regina, le regine

rimaste sono soltanto 3; quindi la probabilità che la

seconda carta sia ancora una regina sarà diventata

3/39 cioè 1/13. Pertanto la probabilità composta (o

prodotto logico) sarà data dal prodotto tra la probabilità

che la prima carta sia una regina per la probabilità che

la seconda sia ancora una regina, cioè 1/130.

Pertanto questo è un caso di eventi dipendenti. Cioè la

probabilità del secondo evento è condizionata al

verificarsi del primo evento. (Analogamente si

considerano dipendenti i due eventi se le due carte

vengono estratte simultaneamente, cioè quando non c’è

il reinserimento).

PROBABILITA’ CONDIZIONATA

Quando la probabilità di un evento E dipende

 2

dal verificarsi dell’evento E , si parla di

1

probabilità condizionata e si indica con p(E |E )

2 1

e si legge “probabilità di E ”.

condizionata ad E

2 1

In questo caso, cioè quando i due eventi sono

stocasticamente dipendenti, la probabilità

composta è data da:

∩E

P(E ) = p(E )* p(E |E )

1 2 1 2 1

che equivale alla seguente:

p ( E E )

 1 2

p ( E | E )

2 1 p ( E )

1

DIAGRAMMI AD ALBERO

Spesso si può usare un diagramma ad albero per

 rappresentare i casi possibili.

Questo ci permette di avere un'elencazione grafica di

tutti gli elementi dello spazio campione. Se poi si scrive

su ciascun ramo la p

Dettagli
Publisher
52 pagine