La Misura

La fisica è una scienza quantitativa, che traduce le sue leggi e le sue previsioni in termini quantitativi, e perciò numerici.
Dal punto di vista pratico ed operativo tale "traduzione" si effettua mediante un'operazione di misura.
Misurare una data grandezza significa predisporre una ben precisa serie di operazioni al termine delle quali alla grandezza da misurare resta associata in maniera univoca una ben precisa grandezza matematica, che generalmente è un numero. Tale numero - e questo punto è fondamentale - esprime un RAPPORTO: quello che esiste fra l'entità della grandezza misurata ed un'entità della stessa grandezza assunta una volta per tutte come unità di misura.

Così, dire che una certa sbarra è lunga, poniamo, tre metri, significa che la lunghezza della sbarra è il triplo della lunghezza di una sbarra campione (il metro campione conservato a Parigi).
Si capisce quindi come non abbia senso esprimere una misura con un numero, se questo non è seguito dall’indicazione della relativa unità di misura.
Conoscere le varie unità di misura ed avere un’idea ben precisa della loro entità è, pertanto, indispensabile, oltre che di utilità pratica, dato che consente un'immediata, seppure grossolana, valutazione di attendibilità.
Ad esempio l'affermazione: "questa scrivania è lunga due chilometri" appare subito inattendibile, mentre l'affermazione: "una molecola d'acqua è lunga un micron" potrebbe tranquillamente essere accettata da molte persone, pur essendo molto più inesatta della prima. Il fatto è che tutti hanno un'idea di quanta lungo sia un chilometro, e pochi di quanto lo sia un micron.
Un'operazione di misura implica, in ogni caso, un confronto. In alcuni casi la grandezza in misura è confrontata con una grandezza della stessa specie: per esempio nel misurare una lunghezza con un nastro graduato. In altri casi il confronto avviene fra grandezze diverse, come quando, ad esempio, misuriamo una temperatura attraverso l'allungamento di una colonnina di mercurio.
Naturalmente il confronto vero e proprio avviene sempre fra grandezze della stessa specie (lunghezza della colonnina di mercurio e lunghezza della scala graduata incisa sul vetro, nell'esempio precedente) solo che, in questo caso, lo strumento di misura ha dapprima tradotto (in senso fisico) la grandezza in esame (temperatura) in un'altra grandezza (lunghezza del mercurio) attraverso un ben preciso processo fisico (la dilatazione termica).
Di nuovo la conoscenza di processi di questo tipo, implicati nei vari strumenti di misura
usati, è abbastanza importante.
Prima di chiudere queste considerazioni generali è opportuno fare una precisazione. Più sopra abbiamo affermato che il risultato della misura è associato univocamente alla grandezza da misurare. In effetti questo è un risultato ideale, irraggiungibile in pratica a cause degli errori e incertezze che in nessun caso potranno essere totalmente eliminati. Quest’argomento sarà preso in esame brevemente più avanti.

Errori ed incertezze di misura
La maniera corretta, ed anche l'unica maniera possibile, di esprimere il risultato della misura di una grandezza X è:
X = A±a (Eq. 1)
dove A ed a sono due numeri, ed il cui significato è che la misura di X è "quasi certamente" maggiore di A-a e minore di A+a. Si dice che A è il risultato (della misura) ed a il suo errore, o meglio, la sua incertezza.
Diciamo subito che ciò che è importante non è il valore di a in assoluto, ma il valore del rapporto a/A ossia il confronto fra l'errore (o l'incertezza) ed il valore ottenuto. Si comprende come un'incertezza di 1 mm sia trascurabile se relativa alla misura di una sbarra di dieci metri, diventando invece enorme, e tale da invalidare la misura stessa, se relativa alla lunghezza di una formica che è essa stessa di qualche millimetro. Il rapporto a/A prende il nome di errore (o incertezza) relativo, e può anche essere espresso in percentuale.

Fin qui abbiamo parlato di errori o di incertezza. Fra le due cose esiste, per altro, una sostanziale differenza. Possiamo parlare di una incertezza, quando la grandezza fisica da misurare è, di per se stessa, non esattamente definita. Facciamo un esempio: si voglia misurare il volume di un cilindro. Con un opportuno strumento (p. es. con un calibro) si misurerà l'altezza, l, ed il diametro della sezione, d. Un semplice calcolo darà poi il volume, V = π(d/2)2 • l.
Naturalmente il risultato sarà esatto (a parte altre eventuali cause di errore) se il
recipiente è veramente un cilindro e, in particolare, se la sua sezione è veramente una circonferenza. In caso contrario (forma non perfettemante cilindrica) si potranno avere per d tanti valori diversi, non perché si stanno commettendo errori ma perché le distanze fra diverse coppie di punti opposti sono realmente diverse. In questo caso la cosa migliore da fare è prendere come risultato il valore medio di una decina di misurazioni, e come incertezza la semidifferenza fra il valore massimo ed il valore minimo, che prende il nome di "semidispersione massima", il che assicura che tutti i diversi numeri da noi trovati sono compresi nell'ambito individuato dall'eq.1.(Naturalmente se, a questo punto, risultasse un'incertezza relativa troppo grande, si dovrà definitivamente rinunziare a trattare la sezione come se fosse un cerchio).
Una situazione analoga si presenta quando si misurano grandezze che, nel corso del tempo, possono fluttuare intorno ad un valore medio. Ad esempio la pressione che un gas esercita sulle pareti del recipiente che lo contiene, è l'effetto complessivo degli urti che, al ritmo di miliardi e miliardi per ogni secondo e per ogni cm2, le molecole del gas effettuano contro le pareti. Trattandosi quindi di un effetto statistico e puramente casuale, si comprende come il numero di urti nell'unità di tempo sarà solo in media costante, ma in effetti varierà, intorno al valore medio, da istante ad istante.
Poiché, peraltro, nel procedimento di misura vi saranno generalmente errori ed incertezze dovuti ad altre cause di gran lunga superiori a tali fluttuazioni intrinseche, queste ultime - oltre a non potere essere evidenziate - potranno tranquillamente essere trascurate (salvo casi speciali).
Quest'ultimo discorso ha una portata del tutto generale: in un dato procedimento di misura occorre tenere conto solo di quegli errori (o incertezze) che risultano essere maggiori, i minori possono invece essere trascurati. Torneremo in seguito su questo punto parlando della sensibilità degli strumenti.
Quando una grandezza fisica è perfettamente definita nella sua entità (p. es. la carica di un elettrone), è ancora possibile che effettuando diverse misure si ottengano risultati diversi. In questa caso si parlerà più propriamente di errori di misura, legati al funzionamento non ideale degli apparati che si usano.

Approssimazioni dei valori numerici delle grandezze e cifre significative.
Nell’attività pratica è spesso necessario approssimare i risultati di una misura o, come spesso si usa dire, arrotondarli. Per fare ciò è necessario trascurare alcune cifre. Il numero di cifre da trascurare dipende da diversi fattori:

a) Dal grado di approssimazione che si vuole raggiungere. Il criterio di solito seguito nell’arrotondamento è che se la prima cifra da eliminare è minore di 5, le cifre rimanenti restano invariate (arrotondamento per difetto). Se le cifre da eliminare iniziano con un numero superiore o uguale a 5 si aumenta di un’unità la cifra precedente.
Si tenga presente che il numero di cifre significative del risultato di un’operazione di più misure deve essere uguale a quello della misura meno precisa.
Es.: Supponiamo di sommare le tre masse 31.4 g + 2.36 g + 0.527 g. Il risultato fornito dalla calcolatrice è 34.287 g ma le non tutte le cifre dopo la virgola hanno senso fisico, poiché la prima grandezza della somma limita la sua precisione alla prima cifra dopo la virgola. La risposta corretta è quindi, arrotondando per eccesso, 34.3 g.
b) Dal grado di precisione con il quale la determinazione è stata effettuata, vale a dire dal numero delle cifre che hanno significato fisico (cifre significative). E’ quindi necessario distinguere in una misura le cifre significative da quelle non significative. L’importanza della significatività delle cifre è messa in luce dal seguente esempio.
La lunghezza di un campione misurata con un righello millimetrato è di 9,7 cm. Ciò significa che la lunghezza reale è compresa tra 9.6 e 9.8 cm. Pertanto la massa del campione dovrebbe esprimersi correttamente in (9,7±0.1)cm, e non avrebbe senso scrivere 9.70 cm perché ciò avrebbe dovuto comportare l’uso di uno strumento sensibile al centesimo di cm, cioè (9,70±0.01)cm; in tal caso la misura assumerebbe una cifra significativa in più perché lo strumento è più sensibile.
E’ lecito assegnare agli errori statistici (media, deviazione standard) un valore di un ordine di grandezza migliore di quella dell’errore massimo (errore di sensibilità, semidispersione).
E’ ragionevole non indicare nella misura più cifre decimali di quante ne ha la sua incertezza. Si ha così la regola generale:
L’ultima cifra significativa del risultato di una misura deve essere dello stesso ordine di grandezza dell’errore”.
Per questa ragione non è corretto dichiarare per una misura di una lunghezza L=(3.045±0.02)m. La stessa misura è più ragionevolmente espressa da L=(3.05±0.02)m.

Gli errori possono essere di due tipi:
a) errori sistematici e casuali. Gli errori sistematici più comuni sono quelli dovuti al cattivo funzionamento della strumentazione utilizzata. Tali errori influiscono sul risultato di una misura sempre in un medesimo senso e portano o a misure in difetto o a misure in eccesso rispetto a quelle che si avrebbero in loro assenza. Se, ad esempio, un cronometro ritarda (va indietro), l'intervallo di tempo che si misura risulterà più breve di quanto esso non sia in realtà, la misura del tempo sarà allora errata per difetto. Oppure se in un righello costruito male il trattino usato per indicare il millimetro è minore del giusto, si commetterà un errore per eccesso in tutte le misure di lunghezza eseguite. Gli errori sistematici, una volta individuata la causa che li ha provocati, possono essere eliminati. Un'altra fonte di errore sistematico si ha quando lo strumento di misura interferisce con il funzionamento dell'apparato su cui si sta misurando una grandezza. Infatti questa è diversa con e senza strumento di misura applicato: è il caso delle misure di corrente e tensione con voltmetro e amperometro, perché con le loro resistenze interne cambiano la condizione di funzionamento del circuito in esame.
Ad esempio, usando un regolo che è dato come avente una lunghezza di 10 cm, e che in realtà è lungo 9 cm, si misurerebbero lunghezze apparenti sempre maggiori di quelle reali. Purtroppo gli errori sistematici non possono essere individuati: è inutile ripetere più volte la misura, perché si otterrà sempre lo stesso risultato (sbagliato).
L'unica cosa da fare è ripetere la misura, ma con strumenti diversi, oppure usare lo strumento sospetto per effettuare una misura di cui, per altra via, si conosca già il risultato (operazione di taratura).
b) Casuali, originati dal sovrapporsi disordinato e non sistematico di una molteplicità di cause, non correlate tra loro, che influiscono sul risultato della misura.
Gli errori casuali (detti anche accidentali) sono quelli dovuti all'operatore ed alle condizioni sperimentali della particolare misura. Questi errori modificano casualmente il risultato della misura, o in eccesso o in difetto. Tali fluttuazioni sono dovute all’impossibilità di riprodurre esattamente in ciascuna operazione di misura le stesse condizioni sperimentali. Esempi di tali errori sono: errori di parallasse, errori di start e stop nella misura di intervalli di tempo, pulizia, deriva di strumenti con la temperatura etc.
Con l'utilizzo di strumenti più sofisticati e con una maggior attenzione dello sperimentatore è possibile rendere gli errori accidentali piccoli ma, a differenza di quelli sistematici, non si possono eliminare del tutto.
Gli errori casuali sono suscettibili di una rigorosa trattazione matematica, in virtù del famoso "teorema del limite centrale" che assicura che:
i) Gli errori sono egualmente probabili nei due sensi (cioè in più o in meno).
ii) Gli errori sono tanto più probabili quanto più sono piccoli.
Più esattamente si potrà dire che la probabilità p(ε) di avere un errore di valore ± ε è data dalla legge di Gauss:
p(ε) =e –ε2/μ2(Eq.2)
che traduce la famosa “curva a campana”. Nell’eq.2 μ2 prende il nome di “errore quadratico medio” ed è legato alla "larghezza" della campana. .
Più piccolo è μ, più stretta è la curva e più precisa è la misura.
Occorre dire, peraltro, che nelle applicazioni pratiche non ci si trova quasi mai nella condizione di dovere applicare una teoria matematica degli errori.
E infatti, perché gli errori casuali divengano evidenti, occorrono strumenti di elevatissima sensibilità impiegati in procedure elaborate, le quali di solito vengono usate raramente, per determinare con estrema precisione valori di grandezza estremamente importanti (come ad es., appunto, la carica dell'elettrone).
Nella maggior parte dei casi si avrà una semplice incertezza e si userà quindi la semidispersione massima, o addirittura si sarà limitati dalla sensibilità degli strumenti, della quale parleremo qui di seguito.

Sensibilità e precisione. Errore “massimo a priori”.
Supposto che uno strumento sia esente da difetti che possano causare un errore sistematico (nel qual caso si dice che lo strumento è "esatto"), la sua precisione è la misura della maggiore o minore capacità di fornire sempre lo stesso risultato, a parità di ogni altra condizione, ossia della sua ripetibilità.
La sensibilità, viceversa, è la capacità che ha lo strumento di apprezzare (e cioè permettere di vedere) la differenza fra due misure di entità molto prossima. Cosi, dire che la sensibilità di una bilancia è un millesimo di grammo, significa che essa permette di distinguere fra un peso di, poniamo, 22,217 gr e un altro peso di 22,218 gr.
Un momento di riflessione fa capire che sensibilità e precisione sono qualità contrastanti: più uno strumento è sensibile meno è preciso, e viceversa. Infatti, al crescere della sensibilità, cresce anche la probabilità di apprezzare le fluttuazioni casuali e le incertezze inerenti la grandezza in esame, e quindi di ricavare successivamente indicazioni diverse per una stessa misura.
Ad esempio nel caso del cilindro di vetro illustrato precedentemente, se le differenze fra i "diametri" fossero di qualche centesimo di millimetro e per la misura si usasse un calibro che sia in grado di apprezzare al più il decimo di millimetro, in pratica lo strumento fornirebbe sempre lo stesso risultato, rivelandosi, cioè, molto preciso (ma poco sensibile).
In uno strumento ben fatto, il compromesso si raggiunge facendo in modo che la sensibilità e la precisione abbiano lo stesso valore che, peraltro, viene, per così dire, materializzato nella costruzione della scala di lettura.
Si noti come l'ottenimento della stessa indicazione in più operazioni successive di misura di una stessa grandezza non significa che la misura sia scevra di errori (o di incertezze), ma solo che questi sono minori della sensibilità. Quest'ultima quindi rappresenta il limite massimo degli errori.
Nella pratica comune, ci si trova quasi sempre in questa condizione: la sensibilità dello strumento assorbe ogni altra causa di errore.
Poiché, peraltro essa è una caratteristica dello strumento nota a priori la valutazione dell' "errore massimo possibile", potrà essere effettuata prima di effettuare la misura, ed essere usata per decidere sull'opportunità di usare quello strumento. Questa circostanza è particolarmente utile nel caso in cui il risultato della misura derivi dalla combinazione delle indicazioni fornite dalle varie misure di diversi strumenti.

Perturbazione causata dalla misura
Quando si effettua una misura, la grandezza da misurare appartiene ad un certo sistema fisico che si trova in un ben preciso stato, come, ad esempio, la pressione di un gas che si trovi ad un'assegnata temperatura dentro un assegnato contenitore.
L'effettuazione della misura implica però una interazione fra il sistema e lo strumento di misura, sicché il risultato non dovrebbe essere attribuito al sistema su cui si vuole indagare, ma all'insieme "sistema più strumento" e, per di più, in uno stato generalmente diverso da quello proprio del sistema isolato.
Si pensi ad esempio alla misura della temperatura di un corpo caldo. Al contatto col
termometro, supposto più freddo del corpo, quest'ultimo si raffredderà alquanto, cedendo calore al termometro che si riscalderà, finche i due oggetti perverranno alla stessa temperatura, che è quella che leggeremo, ma che sarà diversa da quella che aveva il corpo prima della perturbazione introdotta dalla misura.
Naturalmente, in questo caso, l'entità della perturbazione dipenderà dal rapporto fra le capacità termiche del corpo e del termometro: un usuale termometro praticamente non altera la temperatura dell'acqua di una vasca da bagno in cui venga immerso, mentre altererebbe considerevolmente quella dell'acqua contenuta in una fialetta da 1 cm3.
In una operazione di misura occorre quindi prendere tutte le possibili precauzioni per rendere minima la perturbazione sul sistema. Quest'ultima peraltro non potrà mai essere completamente annullata o rigorosamente valutata.

Dimensioni. Equazioni dimensionali
A differenza di quanto accade nella matematica, le grandezze oggetto dello studio fisico hanno sempre un significato concreto e ben preciso.
Dicesi dimensione di una grandezza fisica l’indicazione precisa del nome della quantità o qualità concreta cui la grandezza stessa si riferisce.
Le dimensioni di una grandezza fisica sono associate con simboli, come m, l, e t, che rappresentano massa, lunghezza, e tempo, ciascuna elevata a un esponente razionale.
Per esempio, la dimensione della grandezza fisica velocità, è distanza/tempo (l/t), e la dimensione di una forza è massa × distanza/tempo² o ml/t².
L'analisi dimensionale è una procedura utile e potente, che può essere adoperata come un controllo di consistenza per aiutarci nella derivazione o nella verifica dell'espressione finale. L'analisi dimensionale utilizza il fatto che le dimensioni possono essere trattate come grandezze algebriche, cioè le grandezze possono essere sommate o sottratte fra loro solamente se hanno le stesse dimensioni. Inoltre, i termini di ciascun membro di un'equazione debbono avere le stesse dimensioni. Seguendo queste semplici regole, si può adoperare l'analisi dimensionale come valido ausilio per giudicare la correttezza della forma di un'espressione, poiché la relazione può essere corretta solamente se le dimensioni in ambo i membri dell'equazione sono le stesse.

Unità di misura
Le unità di misura sono uno standard per la misurazione di quantità fisiche. Esistono diversi sistemi ufficialmente accettati dalla comunità scientifica internazionale o comunque in voga nelle diversi parti del pianeta. Per ogni sistema ufficiale di unità di misura esistono organismi internazionali che si occupano di custodire i campioni delle unità di misura, quando ne esistano, o comunque di mantenere aggiornate le definizioni delle unità adottate.
Esistono diversi sistemi di misura, basati su differenti insiemi di unità di misura fondamentali.
Il sistema di misura più ampiamente diffuso è quello detto “MKSA” che è fondato su sette unità base (fondamentali), e tutte le altre unità derivano da queste.

Quantità fisica/Simbolo della quantità fisica/Nome dell'unità SI /Simbolo dell'unità SI
lunghezza/ l / metro / m
massa/ m /chilogrammo / kg
tempo/ t / secondo / s
corrente elettrica/ I, i /ampere/ A
temperatura termodinamica/ T / kelvin /K
quantità di sostanza/ n / mole / mol
intensità luminosa/ IV /candela /cd

Meno usato è il sistema cgs (centimetro-grammo-secondo).

Così, adottando il sistema MKSA, la velocità sarà misurata in metri/secondo (m/s), la forza in kilogrammi per metro diviso secondo al quadrato (kgm/sec^2), l’energia in kg m^2/sec^2 e così via.

Hai bisogno di aiuto in Concetti generali di fisica?
Trova il tuo insegnante su Skuola.net | Ripetizioni
Registrati via email