vuoi
o PayPal
tutte le volte che vuoi
matematica è la regina delle scienze e la teoria dei numeri è la regina della
matematica”
(Carl Friedrich Gauss )
Breve introduzione sulla vita di Gauss
Carl Friedrich Gauss (Braunschweig, 30 aprile 1777 - Gottinga, 23 febbraio 1855) è stato
matematico, astronomo e fisico, fornendo contributi determinanti a queste scienze. Viene
considerato uno dei principali matematici di tutti i tempi.
Nacque a Brunswick, nel ducato di Brunswick-Lüneburg (ora parte della Bassa Sassonia,
Germania), figlio unico di una famiglia di bassa estrazione sociale e culturale. Fin da bambino
impressionò tutti con la sua spiccata intelligenza. Secondo la leggenda Gauss all'età di tre anni
avrebbe corretto un errore di suo padre nel calcolo delle sue finanze.
Un alto aneddoto, forse vero forse verosimile, racconta che l'insegnante per mettere a tacere
l'allievo gli ordinò di fare la somma di tutti i numeri da 1 a 100. Poco dopo, sorprendendo tutti, il
giovanissimo Carl diede la risposta esatta, essendosi accorto che mettendo in riga tutti i numeri da 0
a 100 e nella riga sottostante i numeri da 100 a 0, ogni colonna dava come somma 100: Carl fece
dunque il prodotto 100x101 e divise per 2, ottenendo facilmente il risultato.Il Duca di Brunswick,
impressionato dalle sue capacità, finanziò il soggiorno di Gauss al Collegium Carolinum, da dove
passò nel 1795 all'Università di Gottinga. Mentre era all'università, Gauss riscoprì una serie di
importanti teoremi. Il suo primo importante risultato fu lo studio dei poligoni regolari costruibili
con riga e compasso che lo portò a affermare nel 1796 che si poteva costruire con riga e compasso
ogni poligono regolare a condizione che il numero n dei lati possa essere scritto nella forma:
(dove Fn è l'ennesimo numero primo di Fermat) Gauss teorizzò così la costruzione del poligono
regolare a 17 lati. Questo era la scoperta più importante in questo campo ed aveva occupato i
matematici fin dall'epoca degli antichi greci. Gauss voleva che un poligono regolare a 17 lati
(eptadecagono) fosse inciso sulla sua tomba ma lo scalpellino rifiutò dicendo che esso sarebbe stato
indistinguibile da un cerchio.Il 1796 fu probabilmente l'anno più produttivo di Gauss. Oltre alla
costruzione dell'eptadecagono (30 marzo) inventò l'aritmetica modulare, importantissimo strumento
della teoria dei numeri e dette la prima dimostrazione della legge di reciprocità quadratica (8 aprile).
Sempre in quell'anno congetturò per primo la validità del teorema dei numeri primi (31 maggio) e
che tutti in numeri naturali sono rappresentabili al più come somma di tre numeri triangolari (10
giugno). Tuttavia Gauss non pubblicò queste due ultime scoperte ma le tenne per sè. Infatti Gauss
era affetto da una sorta di mania di perfezionismo, che gli impediva di pubblicare le sue
dimostrazioni se non erano assolutamente rigorose. Scriveva invece le sue scoperte nel suo diario in
maniera criptica. Per esempio la scoperta che ogni intero poteva essere rappresentato come somma
di al più tre numeri triangolari venne scritta così "Eureka! num= Δ + Δ + Δ."
Introduzione sulle distribuzioni continue di probabilità
Le distribuzioni continue descrivono il comportamento delle variabili continue e sono
classificabili come variabili continue tutte quelle variabili che possono assumere un qualsiasi valore
in un certo intervallo reale,come ad esempio:
la temperatura di un forno;
– la velocità di un auto;
– la lunghezza di una sbarra;
– il peso di un oggetto;
– la statura di una persona;
–
poiché però non è possibile riportare tutti i valori assunti,questi vengono raggruppati in classi e di
conseguenza la rappresentazione grafica sarebbero istogrammi, dove l'altezza dei singoli rettangoli
è la densità di frequenza(rapporto tra la frequenza relativa e l'ampiezza di classe),di conseguenza la
somma delle aree di tutti i rettangoli deve essere 1.Se si riduce l'ampiezza delle classi fino a tendere
a zero, l'istogramma può essere approssimato da una curva, quindi la distribuzione teorica di
probabilità di una variabile continua, verrà rappresentata da una curva continua e verrà espressa da
una funzione “Fx” chiamata funzione di densità che deve godere di 2 condizioni:
Deve essere NON negativa per ogni X appartenenti ad un intervallo eventualmente illimitato;
– L'area compresa fra la curva e l'asse delle ascisse relative all'intervallo deve essere 1.
– Funzione di ripartizione e funzione di densità.
Prendendo come un riferimento una variabile aleatoria continua possiamo indicare con X la
variabile aleatoria continua,con x i valori che essa può assumere e con F(x) la funzione di
ripartizione: F(X)=P(X≤x)
Dove F(X) indica la probabilità che la variabile X assuma una valore minore o uguale ad x; la
funzione di ripartizione caratterizza completamente una variabile aleatoria continua dal punto di
vista probabilistico; le sue proprietà generali si possono così riassumere:
Se a e b sono due valori tali che a<b la probabilità che la variabile assuma un valore X
compreso tra a e b, risulta: P(a<X≤b)=F(b)-F(a)
Dalla precedente relazione, poiché la probabilità è una grandezza non negativa:
F(b)≥F(a)
Quando X tende a -∞ si ha:
F(-∞)=0
Per X che tende a + ∞ si ha:
F(+ ∞)=1
Si consideri un punto x0 in cui la funzione di ripartizione è continua; allora per X che tende
a x0 da sinistra risulta: P(X=x0)=F(x0)-F(x0-ε)=0
e per X che tende a x0 da destra: P(X=x0)=F(x0+ε)-F(x0)=0
ma allora: P(X=x0)=0
se e solo se F(x0) è continua in x0.
Ogni funzione che gode di tutte le precedenti proprietà può essere considerata come funzione di
ripartizione di una variabile aleatoria. La probabilità che X sia compresa in un intervallo (x,x+Δx)è,
per la: P(x<X≤x+Δx)=F(x+Δx)- F(x)
Per la media invece viene considerato il rapporto incrementale:
F(x+Δx)-F(x)/ Δx
Facendo tendere Δx a zero si ottiene la derivata della funzione di ripartizione:
F(x+Δx)-F(x)/ Δx=F'(x)
si ponga: f(x)=F'(x)
f(x) viene detta funzione di densità di probabilità ed assume un significato preciso solo per le
variabili aleatorie continue.
La probabilità che X appartenga ad un intervallo infinitesimo dx. risulta, per:
f(x)dx
Tale probabilità risulta uguale all'area del rettangolo infinitesimo di base dx e di altezza f(x).
Se si vuole determinare la probabilità che la variabile appartenga ad un intervallo (a,b) si può
pensare di scomporre questo intervallo(a,b) in tanti rettangoli infinitesimi di larghezza dx e
sommare le aree di tutti i rettangoli e quindi:
P(a<X≤b)=∫f(x)dx
La funzione di ripartizione può essere determinata:
F(X=xo)=P(X≤x0)=∫f(x)dx
In conclusione:
la funzione di densità di probabilità è la derivata della funzione di ripartizione;
– la probabilità che X appartenga ad un intervallo (a,b) è l'integrale, tra a e b, della funzione
– densità di probabilità;
Da un punto di vista geometrico la probabilità che la variabile appartenga all'intervallo (a,b) è
– l'area compresa tra la curva f(x) e l'asse delle ascisse, delimitata dalle ascisse X=a e X=b
Fra le variabili casuali tipiche continue esistono la variabile casuale con distribuzione uniforme,la
variabile casuale con distribuzione T-student, la variabile casuale con distribuzione Chi-quadro,la
variabile casuale con distribuzione gaussiana.
La distribuzione normale
La distribuzione continua di gran lunga più usata è la distribuzione normale.
Questa distribuzione fu individuata per la prima volta da De Moivre nel 1733 come mezzo per dare
una valutazione approssimata della funzione di probabilità binomiale.
In seguito fu riscoperta da Gauss nel 1809 nell'ambito della teoria degli errori e per tale motivo è
denominata come distribuzione di Gauss o distribuzione degli errori accidentali.
Il termine “distribuzione normale” deriva dalla convinzione che i fenomeni sperimentali fisici e
biologici abbiano una distribuzione di frequenza che si adatta bene a questa distribuzione teorica.
Il termine “distribuzione degli errori accidentali” deriva,dal fatto che risulta plausibile l'ipotesi che
gli errori accidentali o casuali, commessi effettuando misure ripetute,si distribuiscono secondo tale
curva.
Come si perviene alla variabile casuale gaussiana?
Si può pervenire alla variabile casuale gaussiana considerando il modo in cui si distribuiscono gli
errori riscontrabili nella misurazione ripetuta di una stessa grandezza. Gli errori che si commettono
nell'eseguire n misurazioni di una stessa grandezza sono determinati da numerose cause che non
sono controllabili e che quindi non possono essere eliminate. Si tratta dei cosiddetti errori
accidentali. Diversi da questi errori sono gli errori sistematici che sono dovuti dalla non perfetta
taratura di uno strumento.
Gli errori accidentali presentano le seguenti caratteristiche:
Le misurazioni,e quindi gli errori casuali connessi, possono assumere qualsiasi valore reale;
– E' più probabile commettere errori piccoli,in valore assoluto, che errori grandi;
– L'errore più probabile è quello nullo;da questo e dal punto precedente deriva che la funzione di
– densità della distribuzione degli errori accidentali deve essere crescente fino a zero e
decrescente successivamente;
La probabilità di commettere errori accidentali in eccesso o n difetto deve essere uguale. Ne
– segue quindi che la funzione di densità della distribuzione degli errori accidentali deve essere
simmetrica rispetto all'asse delle ordinate.
Non esistono limiti all'entità dell'errore che si può commettere per cui la funzione di densità
– della distribuzione degli errori accidentali deve essere asintotica rispetto all'asse delle ascisse.
Da queste caratteristiche si evince che:
Gli errori accidentali si distribuiscono secondo una variabile casuale gaussiana.
La possibilità di rappresentare distribuzioni di frequenze tramite modelli gaussiani è praticamente
illimitata. E' proprio per questo motivo che la variabile casuale gaussiana viene anche detta
variabile casuale normale.
Questa distribuzione è particolarmente importante sia perché risulta utile in molte applicazioni
pratiche,sia perché può sovente essere utilizzata come distribuzione limite in quanto è una
distribuzione alla quale tendono altre distribuzioni sotto condizioni abbastanza generali.
Quest'ultima caratteristica viene messa in evidenza in un gruppo di teoremi detti teoremi limite i
quali enunciano che:
sia Sn una variabile aleatoria somma di n variabili aleatorie indipendenti Xi aventi ciascuna la
stessa distribuzione di probabilità, speranza matematica μ e varianza σ^2; al crescere di n, Sn
tende ad assumere una distribuzione normale con media nμ e varianza n σ^2 .
Il teorema del limite centrale risulta valido , per n sufficientemente grande,qualunque sia la
distribuzione delle variabili Xì ; inoltre è generalizzabile al caso di variabili aleatorie con
distribuzione di probabilità qualsiasi,alla sola condizione che ciascuna di queste variabili abbia
media e varianza finite e non risulti predominante rispetto alle altre. In questo caso:
La somma di Sn è la somma dei valori medi delle singole variabili e la varianza è la somma delle
varianze. Se le variabili X hanno distribuzione normale con media μ e varianza σ^2 allora la
variabile Sn ha sempre distribuzione normale,qualunque sia il valore n,con media nμ e varianza
nσ^2.
Inoltre,tale distribuzione è utilizzabile nella verifica delle ipotesi.
Si parla di problemi di verifica delle ipotesi quando si formula un'ipotesi sulle caratteristiche
dell'universo e si vuole verificare se tale ipotesi può essere accettata o respinta.
Qualsiasi problema di verifica delle ipotesi passa attraverso le seguenti fasi:
viene formulata un'ipotesi sull'universo;
– si estrae un campione dall'universo;
– analizzando il campione estratto si verifica l'ipotesi;
– Ө
Con riferimento a un dato universo formuliamo un'ipotesi consistente nell' assegnare un valore 0 o
Ө
a un suo parametro . Per verificare l'ipotesi formulata eseguiamo un test strutturato cm segue:
Ө Ө