Anteprima
Vedrai una selezione di 8 pagine su 33
Appunti metodi statistici per l'amministrazione delle imprese Pag. 1 Appunti metodi statistici per l'amministrazione delle imprese Pag. 2
Anteprima di 8 pagg. su 33.
Scarica il documento per vederlo tutto.
Appunti metodi statistici per l'amministrazione delle imprese Pag. 6
Anteprima di 8 pagg. su 33.
Scarica il documento per vederlo tutto.
Appunti metodi statistici per l'amministrazione delle imprese Pag. 11
Anteprima di 8 pagg. su 33.
Scarica il documento per vederlo tutto.
Appunti metodi statistici per l'amministrazione delle imprese Pag. 16
Anteprima di 8 pagg. su 33.
Scarica il documento per vederlo tutto.
Appunti metodi statistici per l'amministrazione delle imprese Pag. 21
Anteprima di 8 pagg. su 33.
Scarica il documento per vederlo tutto.
Appunti metodi statistici per l'amministrazione delle imprese Pag. 26
Anteprima di 8 pagg. su 33.
Scarica il documento per vederlo tutto.
Appunti metodi statistici per l'amministrazione delle imprese Pag. 31
1 su 33
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

CAPITOLO 1: INTRODUZIONE ALLA PROBABILITÀ

CONCETTI DI BASE

  • ESPERIMENTO: processo che genera risultati ben definiti
  • SPAZIO CAMPIONARIO (S): insieme di tutti i possibili risultati sperimentali (punto campionario)

REGOLE DEL CONTEGGIO

  1. PER ESPERIMENTI IN PIÙ PASSI (k passi):
    • cardinalità N = n1n2...nk dove ni è il numero dei risultati possibili al passo i
  2. COMBINAZIONI: consente di calcolare il numero di risultati sperimentali quando si esprime l'importanza nella selezione di n oggetti da un insieme di N oggetti
    • coefficiente binomiale CNn = NCn = N! / (n!(N-n)!)
    (utilizzata per le estrazioni senza ripetizione)
  3. PERMUTAZIONI: consento di calcolare il numero di risultati sperimentali quando n oggetti sono selezionati da un insieme di N oggetti in cui l'ordine della selezione è importante
    • PNn = n! (N) = N! / (N-n)!

ASSEGNAZIONE DELLA PROBABILITÀ

  • CONDIZIONI DI BASE x l'assegnazione di probabilità:
    1. P(E) ∊ [0,1]
    2. ∑ P(Ei) = 1
  • METODO CLASSICO: i risultati sperimentali sono equiprobabili
    • CASI FAVOREVOLI / CASI POSSIBILI

EVENTI E LA LORO PROBABILITÀ

  • E = evento: insieme di punti campionari.
  • P(E) = probabilità di un evento: somma delle probabilità dei punti campionari che costituiscono l'evento

RELAZIONI DI BASE DELLA PROBABILITÀ

  • A⊆S P(A) = P(Ac) + P(A) = 1
    • P(Ac) = 1 - P(A)
  • LEGGE DELLA SOMMA: P(A∪B) = P(A) + P(B) - P(A∩B)
    • (*se A∩B=∅ allora P(A∪B)=P(A)+P(B) e A e B sono detti eventi disgiunti o mutuamente esclusivi)

Probabilità Condizionata

P(A∩B) - probabilità congiuntaP(A), P(B) - probabilità marginaliP(A|B) - probabilità condizionata = P(A∩B) / P(B)

da cui nasce la legge del prodotto: P(A∩B) = P(A|B) * P(B) = P(B|A) * P(A)

Se P(A|B) = P(A) diremo che A e B sono eventi indipendentiperché l'indipendenza è simmetrica OPPURE P(B|A) = P(B)

dalla stessa legge del prodotto per eventi indipendenti èP(A∩B) = P(A) * P(B)

Formula di Bayes
  • Probabilità a priori
  • Nuove informazioni
  • Teorema di Bayes
  • Probabilità a posteriori

Esempio: Impresa manifatturiera che riceve materiali da 2 fornitoriA₁: evento che una parte di materiale provenga dal fornitore 1A₂: evento che una parte di materiale provenga dal fornitore 2P(A₁) = 65% | probabilità a prioriP(A₂) = 35%

La qualità del materiale varia a seconda del fornitoreG: evento che una parte di materiale sia buonaNG: evento che una parte di materiale sia cattivaP(G|A₁) = 98%P(G|A₂) = 95%P(NG|A₁) = 2%P(NG|A₂) = 5%

Vogliamo distribuire o rifiutare eventualmente anche quando consideriamo il prodotto:

P(A₁∩G) = P(A₁) * P(G|A₁) = 0,65 * 0,98 = 0,637

P(A₁∩NG) = P(A₁) * P(NG|A₁) = 0,65 * 0,02 = 0,013

P(A₂∩G) = P(A₂) * P(G|A₂) = 0,35 * 0,95 = 0,3325

P(A₂∩NG) = P(A₂) * P(NG|A₂) = 0,35 * 0,05 = 0,0175

Valori la probabilità che data l'informazione che una parteprovenga da fornitore 1 è quale che essaprovenga dal fornitore 2?

Siamo cercando le probabilità a posteriori P(A₁|B) e P(A₂|B).dalla legge della probabilità totale ora sappiamo cheP(A|B) = P(A∩B) / P(B) è dalla regola del prodotto

P(B) = P(A₁∩B) + P(A₂∩B); per teorema delle probabilità totali.

Da qui introduciamo il Teorema di BayesP(A₁|B) = P(A₁) * P(B|A₁)/ Σi P(B|A) * P(Ai)

In generale:

P(Ai|B) = P(Ai) * P(B|Ai) /Σi P(B|Aj) * P(Aj)

Metodo utilizzato per calcolarela probabilità a posteriori

CAPITOLO 6: DISTRIBUZIONE DI PROBABILITÀ CONTINUA

VARIABILI CASUALI CONTINUE

è una variabile casuale che può assumere qualsiasi valore numerico in un intervallo o in un insieme, gli intervalli rappresentano eventi casuali, i valori continui.

DISITNZIONE TRA V.C. DISCRETE E V.C. CONTINUE

  • Nelle variabili casuali continue non parliamo di funzione di probabilità bensì f(x)=funzione di densità.
  • Funzione di densità: prob. Che la variabile casuale continua assuma qualsiasi valore in un determinato intervallo.
  • S ⊂ R -> S non è più discreto ma è un sottoinsieme di R.
  • P(X = x) = 0 = probabilità che la v.c. assuma un particolare valore è sempre 0.
  • L'area sotto f(x) in S è pari a 1.

1) VARIABILE CASUALE UNIFORME

Si ha una distribuzione di probabilità uniforme se ogni intervallo di uguale lunghezza è ugualmente probabile.

-> Le probabilità è proporzionale alla lunghezza dell'intervallo.

[X ∈ S = [Xm, XM] ⊂ R I = (x1, x2]

Xm x XM

f(x)=1/(XM-Xm) per Xm≤ X ≤ XM

0 aumenta

  • L'area A (al di sotto del grafico di f(x)) compresa tra x1 e x2 rappresenta la probabilità che una variabile casuale continua assuma un valore entro l'intervallo I = (x1, x2).

E(x)= XM + XM / 2

ESEMPIO: (Tempo che intercorre tra un'operazione di vendita su eBay e la successiva)

Var(X): (XM - Xm)2 /12

2) VARIABILE CASUALE GAUSSIANA

F(x)=1/(σ√2π) e-(x-μ)2/2σ2

dove: μ = media σ = deviazione standard

π =3,14159 e = 2,71828

  • μ è il valore attorno al quale la distribuzione è simmetrica media P(x1)=P(x1)=0,5
  • d è il valore che la distanza la media dal punto di flesso determina quanto la curva è piatta e larga

Distribuzione Campionaria di p

La distribuzione campionaria di p è la distribuzione di tutte le v.a. possibili di p.

Valore atteso

E(p) = p dove E(p) valore atteso di p p = proporzione della popolazione

Deviazione standard (dp)

Popolazione finita:

In generale:

Forma

Approssimazione alla gaussiana per n ≥ 30

  • La formula per il calcolo di p° data da x/n dove x è il numero di successi nel campione

Esempio

Calcolo della probabilità di errore e di dipendenza da n.

n = 10

0.1; 0.2; 0.3; 0.4; 0.5; 0.6; 0.7; 0.8; 0.9; 1

P(|p° - p| ≥ 0.1) = ?

* P(0.2, 0.4) U P(0.7, 0.6)

* la somma dei successi può essere vista come una binomiale V ~ bin (n; ½)

NOTA BENE: se aumenta n, la probabilità di errore diminuisce

Dimensione campionaria per contenere l’errore entro una determinata probabilità

Esempio (k)

n = 100 P(|p° - p| > 0.2) = 0.456

CAPITOLO 9: I TEST D'IPOTESI

CHE COSA SONO I TEST STATISTICI

  • prove sperimentali di un'ipotesi di interesse definita prima dell'inizio dell'esperimento
  • prove sperimentali con una componente casuale dell'ipotesi di interesse
  • i risultati dei test sono aleatori

IPOTESI NULLA (H0): ipotesi che si esclude

IPOTESI ALTERNATIVA/DI INTERESSE (H1/HA): opposto di ciò che indica H0

H0 e H1 sono complementari

IPOTESI PER I TEST A 1 CODA (per μ)

  1. H0: μ ≥ μ0 vs H1: μ < μ0 | ipotesi composte
  2. H0: μ ≤ μ0 vs H1: μ > μ0 |

IPOTESI PER I TEST A 2 CODE (per μ)

H0: μ = μ0 vs H1: μ ≠ μ0 → ipotesi semplici

ESEMPIO 1 (★)

Un'azienda vuole implementare un nuovo sistema di carburazione per aumentare i km/l e con il vecchio sistema si facevano mediamente 15 km/l.

DATI: Xi: variabile casuale che indica i km/lμ = E[Xi]H1: μ > 15 vs H0: μ ≤ 15

RISOLUZIONI

  • se i dati campionari evidenziano μ > 15 almeno che è poco verosimile e che H1 non veda
  • se i dati campionari risultano poco verosimili avendo assunto μ = 15 allora H0 è falsa ed è vera H1

ERRORE DI I E DI II TIPO

H0 VERA H1 VERA SI ACCETTA H0 CONCLUSIONE CORRETTA ERRORE DI II SPECIE SI ACCETTA H1 ERRORE DI I SPECIE CONCLUSIONE CORRETTA
  • ERRORE DI I SPECIE: P(errore I tipo) = α
  • ERRORE DI II SPECIE: P(errore II tipo) = β
  • se H0 e H1 interveri di uguaglianza per test sulla media allora "ERRORE I SPECIE" = α (o errore II livello di significatività)
  • α e l'elemento primario da indicare "esperimento ed è logicamente piccato
  • ERRORE II SPECIE: β si può stimare facendo assunzioni sul valore del parametro incognito1-β → potenza del test
  • Dettagli
    A.A. 2020-2021
    33 pagine
    SSD Scienze economiche e statistiche SECS-P/08 Economia e gestione delle imprese

    I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher sabrinapegoraro2000 di informazioni apprese con la frequenza delle lezioni di metodi statistici per l'amministrazione delle imprese e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Milano - Bicocca o del prof De Martini Daniele.