Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

come sinonimo, si riferisce propriamente solo alla forza, comunemente detta forza peso,

sperimentata da un corpo posto sulla superficie della Terra (o di qualunque altro pianeta)

o nelle sue vicinanze.

Legge di gravitazione universale

La legge di gravitazione universale, formulata da Isaac Newton nel 1666 e pubblicata nel

1684, afferma che l'attrazione gravitazionale tra due corpi è direttamente proporzionale al

prodotto delle loro masse e inversamente proporzionale al quadrato della loro distanza.

L'espressione algebrica della legge è

INCLUDEPICTURE "../Impostazioni%20locali/Temporary%20Internet%20Files/

T051867A.bmp" \* MERGEFORMAT

dove F rappresenta la forza gravitazionale, m e m le masse dei due corpi, d la loro

1 2

mutua distanza, e G la costante di gravitazione universale. Il valore di questa costante fu

misurato per la prima volta dal fisico inglese Henry Cavendish nel 1798 per mezzo di uno

strumento chiamato bilancia di torsione. Il valore attualmente riconosciuto è di 6,67 ×

10-11 m2kg-2,

N valore che rappresenta l'intensità della forza di interazione tra due corpi

sferici, ciascuno di massa pari a 1 kg e posti a distanza di 1 m l'uno dall'altro.

La legge di Newton vale per tutti i corpi dotati di massa, dai corpi di dimensioni

macroscopiche alle particelle subatomiche; spiega quindi anche il moto orbitale dei pianeti

e le dinamiche di tutti i corpi celesti. Quando fu pubblicata, alla fine del XVII secolo, fornì

una spiegazione teorica definitiva alle leggi di Keplero sul moto dei pianeti, che erano state

formulate soltanto sulla base di dati sperimentali.

Campo gravitazionale

Ogni corpo dotato di massa è in grado di attirare a sé i corpi che lo circondano attraverso

la forza gravitazionale. Per descrivere meglio il fenomeno, è utile ricorrere al concetto di

campo di forze: ogni corpo dotato di massa si dice allora sorgente di un campo

gravitazionale; in altre parole, modifica lo spazio intorno a sé conferendogli la proprietà di

alterare lo stato di qualunque corpo dotato di massa. Il campo gravitazionale è una

grandezza fisica che dipende unicamente dalla massa del corpo sorgente, e rappresenta

la forza gravitazionale sperimentata da un corpo di massa unitaria. Le sue linee di forza

sono semirette che partono dalla massa sorgente e si estendono all’infinito in direzione

radiale; il verso è quello rivolto dall’esterno verso la sorgente.

Accelerazione di gravità e forza peso

In base alla seconda legge della dinamica, una forza applicata a un corpo produce su di

esso un’accelerazione direttamente proporzionale alla sua intensità. Anche la forza

gravitazionale, dunque, produce sui corpi un’accelerazione; in particolare, la forza

gravitazionale esercitata dalla Terra sui corpi che si trovano sulla sua superficie o nelle

sue immediate vicinanze produce un’accelerazione comunemente detta “accelerazione di

gravità”, indicata con la lettera g; con buona approssimazione, il suo valore si può

m/s2.

assumere costante e pari a circa 9,8

La forza gravitazionale a cui i corpi sulla superficie terrestre sono sottoposti prende il

nome di forza peso e risulta pari al prodotto tra la massa del corpo e l’accelerazione di

gravità. In termini scientifici, quindi, il peso di un corpo non è la sua massa (quest’ultima,

una proprietà intrinseca del corpo), ma la forza gravitazionale che agisce su di esso;

trattandosi di una forza, si misura in Newton, e non in grammi.

Variazione dell’accelerazione di gravità

A un’analisi più dettagliata, risulta che il peso di un oggetto non è costante, ma varia a

seconda della sua posizione sulla superficie terrestre. Un primo fattore di cui va tenuto

conto è l’effetto della rotazione terrestre. Il peso di un corpo rappresenta infatti la

risultante della combinazione tra la forza di gravitazione vera e propria, che attrae

l'oggetto verso il centro della Terra, e la forza centrifuga – la forza apparente che si

manifesta sulla Terra per effetto del suo moto di rotazione. Quest’ultima è massima

all’equatore e nulla ai poli: di conseguenza, il peso di un corpo all'equatore sarà minore del

peso del medesimo corpo misurato ai poli.

Il secondo fattore di cui va tenuto conto se si vuole determinare con precisione il valore

dell’accelerazione di gravità è la forma non perfettamente sferica della Terra: la superficie

terrestre all’equatore dista dal centro del pianeta più che ai poli. I valori dell’accelerazione

m/s2

di gravità che si misurano a diverse latitudini variano da g = 9,7799 all’equatore

m/s2

(latitudine 0°) a g = 9,83217 ai poli (latitudine 90°). A livello internazionale si è

m/s2.

assegnato all’accelerazione di gravità g un valore convenzionale pari a 9,80665

Gravitazione e le altre interazioni fondamentali

Secondo gli scienziati, dovrebbe essere possibile inquadrare tutte le forze fondamentali

della natura in un’unica teoria di campo, ma i modelli finora proposti non si sono rivelati

soddisfacenti. D’altro canto, per assimilare la gravitazione alle altre tre forze fondamentali,

sarebbe necessario individuare le onde gravitazionali che secondo la teoria della relatività

generale si associano alla propagazione del campo gravitazionale, e che dovrebbero

manifestarsi ogniqualvolta nell'universo viene perturbato il campo gravitazionale di

qualche oggetto molto massivo: i numerosi esperimenti intrapresi alla ricerca di

un’evidenza sperimentale, però, non hanno ancora fornito risultati definitivi.

Prima legge di Keplero

La prima legge di Keplero riguarda la forma dell’orbita dei pianeti. Essa afferma che ogni

pianeta si muove su un’orbita ellittica, di cui il Sole occupa uno dei due fuochi. Così, la

distanza di un pianeta dal Sole non è costante, ma varia nel corso del periodo di

rivoluzione; il punto più vicino al Sole prende il nome di perielio, quello più lontano, di afelio.

Seconda legge di Keplero

La seconda legge riguarda la velocità di percorrenza dell’orbita, ed è nota come legge

delle aree. Stabilisce che il segmento che congiunge il pianeta con il Sole (il raggio

vettore) spazza aree uguali in tempi uguali o, in altre parole, che il pianeta viaggia con

velocità areolare costante. Ciò significa che la velocità lineare di percorrenza dell’orbita

non è costante, ma varia al variare della distanza dal Sole; in particolare, ogni pianeta

percorre più rapidamente i tratti di orbita che si trovano più vicini al Sole e più lentamente

quelli che si trovano più lontani. La velocità è quindi massima al perielio e minima all’afelio.

Terza legge di Keplero

La terza legge di Keplero afferma che il rapporto tra il cubo della distanza media d di un

pianeta dal Sole e il quadrato del suo periodo di rivoluzione è costante; in formule,

2=kd

3,

T dove k è una costante di proporzionalità uguale per tutti i pianeti. La legge implica

che il tempo necessario a percorrere un’orbita completa è maggiore per i pianeti più

lontani che per quelli più vicini.

Meccanica dei fluidi

Meccanica dei fluidi Settore della fisica che studia il comportamento dei fluidi, ossia delle

sostanze liquide e gassose, dal punto di vista statico e dinamico. La meccanica dei fluidi

è fondamentale per diversi settori delle scienze applicate: ingegneria chimica, civile e

meccanica, aeronautica, meteorologia, architettura e ingegneria navale, oceanografia.

Si possono distinguere due rami diversi della meccanica dei fluidi: la fluidostatica, a sua

volta distinta in statica dei gas e idrostatica, che studia le condizioni di equilibrio dei fluidi in

quiete, e la fluidodinamica, divisa in aerodinamica e idrodinamica, che si occupa in

generale dei fluidi in moto. Il termine idrodinamica si applica più propriamente al flusso di

liquidi o al flusso a bassa velocità di gas che possono essere considerati incomprimibili.

L'aerodinamica, o dinamica dei gas, indaga invece il comportamento dei gas quando le

variazioni di pressione sono sufficientemente alte da non permettere di trascurare gli

effetti della comprimibilità.

Tra le numerose applicazioni della meccanica dei fluidi, sono da menzionare la

propulsione a getto, le turbine, i compressori e le pompe. Lo sfruttamento della pressione

dell'acqua e dell'olio in ingegneria è invece un argomento di competenza dell'idraulica.

Fluidostatica

Una delle caratteristiche fondamentali di un fluido a riposo è che la forza esercitata su

ciascuna delle particelle che lo costituiscono ha uguale intensità in tutte le direzioni. Il fatto

si comprende facilmente perché, se le cosiddette forze interne fossero diverse, ciascuna

particella si muoverebbe nella direzione della loro risultante, e il fluido non sarebbe in

quiete. Come conseguenza, la forza per unità di area, o pressione, esercitata dal fluido

contro le pareti di un qualsiasi recipiente che lo contiene è in ogni punto perpendicolare

alle pareti stesse. Se così non fosse, le componenti tangenziali delle forze

provocherebbero uno scorrimento del fluido.

Legge di Pascal

Questa proprietà venne espressa per la prima volta in forma leggermente più estesa dal

matematico e filosofo francese Blaise Pascal, nel 1647. La legge di Pascal afferma che la

pressione applicata a un fluido contenuto in un recipiente si trasmette in ugual misura a

tutte le direzioni e a tutte le parti del contenitore, posto che possano essere trascurate le

differenze di pressione dovute al peso del fluido: questa legge ha importantissime

applicazioni in idraulica.

La superficie libera di un liquido a riposo in un recipiente aperto è sempre perpendicolare

alla direzione della risultante delle forze che agiscono su di esso. Così, se l'unica forza

applicata è quella di gravità, la superficie è orizzontale, mentre se agiscono forze di

natura diversa essa può assumere varie forme. Ad esempio, le forze che agiscono

sull'acqua di un bicchiere in rapida rotazione intorno all'asse verticale sono la gravità e la

spinta centrifuga, reazione alla forza centripeta che le pareti del bicchiere esercitano sul

liquido per trattenendolo al loro interno: la superficie libera dell'acqua dunque si inarca,

assumendo un profilo parabolico, perpendicolare alla direzione della risultante delle due

forze.

Legge di Stevino

In un liquido sottoposto alla sola forza di gravità e contenuto in un recipiente aperto, la

pressione in ogni punto interno al liquido è direttamente proporzionale al peso della

colonna di liquido soprastante, e quindi all'altezza di questa e alla densità del liquido, ma è

totalmente indipendente dalle dimensioni o dalla forma del contenitore. Questo risultato,

noto come legge di Stevino, permette di concludere che la pressione esercitata sul fondo

di un tubo verticale pieno d'acqua, lungo 15 m e di diametro pari a 2,5 cm, è uguale a

quella esistente sul fondale di un lago profondo 15 m. Analogamente, se si riempie

d'acqua un tubo verticale lungo 30 m in modo che la superficie libera del liquido si trovi

solo a 15 m dal fondo, l'acqua esercita sul fondo del condotto esattamente la stessa

pressione dell'esempio precedente. Il peso di una colonna di acqua alta 30 cm e con

sezione di 6,5 centimetri quadrati è 195 g: questo valore rappresenta la forza applicata al

fondo di tale colonna d'acqua. Una colonna dello stesso liquido e della stessa altezza, ma

di diametro 12 volte maggiore, occupa un volume 144 volte maggiore e ha un peso 144

volte maggiore, tuttavia la pressione, che viene definita come la forza per unità di

superficie, non cambia. La pressione esercitata sul fondo di una colonna di mercurio della

stessa altezza è invece 13,6 volte maggiore, dal momento che la densità del mercurio

supera di tale quantità quella dell'acqua.

Principio di Archimede

Il secondo principio della fluidostatica fu scoperto dal greco Archimede e afferma che un

corpo immerso in un fluido riceve una spinta idrostatica, diretta dal basso verso l'alto, di

intensità pari al peso del volume di fluido spostato. Si può allora comprendere il motivo per

cui alcuni corpi possono galleggiare. Il peso totale di una nave a pieno carico, ad

esempio, eguaglia quello della quantità d'acqua spostata e il fatto che la risultante delle

due forze sia nulla è sufficiente a garantire l'equilibrio.

Si può pensare che la spinta idrostatica sia applicata a un punto, detto centro di

galleggiamento, che coincide con il centro di gravità della massa di liquido spostato. Il

centro di galleggiamento di un corpo galleggiante si trova esattamente sopra il suo

baricentro: maggiore è la distanza tra i due punti, maggiore è la stabilità del corpo.

Una delle possibili applicazioni del principio di Archimede consiste nel determinare la

densità di un oggetto di forma irregolare, del quale non sia possibile calcolare il volume

per via geometrica. Se si pesa il corpo prima in aria e poi in acqua, la differenza tra le due

misure fornisce il peso del volume di acqua spostato, che è uguale al volume dell'oggetto.

La densità si ottiene allora semplicemente dividendo la massa del corpo per il volume

così determinato. Nelle misure di peso ad altissima precisione si deve tenere conto

anche della spinta di Archimede dell'aria, che, data la molto minore densità dell'aria

rispetto all'acqua, risulta nella maggior parte dei casi trascurabile.

Fluidodinamica

Le leggi che regolano il comportamento dei fluidi in moto sono piuttosto complesse per

cui, nonostante la loro considerevole importanza pratica, ci limiteremo qui all'esposizione

dei più importanti concetti di base.

L'interesse per la fluidodinamica risale alle primissime applicazioni ingegneristiche delle

proprietà dei fluidi al fine di realizzare macchine capaci di svolgere differenti funzioni.

Archimede fornì probabilmente il primo contributo in questo campo, con l'invenzione della

pompa a vite. Altre macchine idrauliche vennero costruite in seguito dai romani, che non

solo adottarono la vite di Archimede per l'irrigazione e per l'estrazione dell'acqua dai

pozzi, ma costruirono nuovi sistemi idraulici, alcuni dei quali tuttora in uso. Nel corso del I

secolo a.C. l'architetto e ingegnere romano Vitruvio introdusse la ruota idraulica, una

macchina che rivoluzionò il sistema di macinazione del granturco.

Gli ulteriori sviluppi in questo campo furono ritardati dal fatto che, nonostante le numerose

precoci applicazioni della fluidodinamica, poco o nulla si sapeva allora dei suoi principi

teorici fondamentali. Dopo il contributo di Archimede, dovettero passare più di 1800 anni

prima che venisse compiuto un significativo progresso: ciò avvenne per merito del

matematico e fisico italiano Evangelista Torricelli che, nel 1643, inventò il barometro e

formulò un'importante legge, tuttora nota con il suo nome. La legge di Torricelli stabilisce

la relazione che esiste fra la velocità di efflusso di un liquido, da un foro praticato nel

recipiente che lo contiene, e l'altezza della colonna di liquido al di sopra del foro stesso. I

successivi progressi della meccanica dei fluidi si ebbero per opera del matematico

svizzero Leonhard Euler (Eulero) che, applicando allo studio dei fluidi i tre principi della

dinamica enunciati da Isaac Newton, scrisse le equazioni fondamentali per il moto di fluidi

ideali, ovvero non viscosi.

Eulero fu il primo a riconoscere che l'unica possibilità di enunciare leggi relativamente

semplici della dinamica dei fluidi fosse quella di limitare lo studio ai fluidi incomprimibili e

ideali, ossia di trascurare gli effetti delle forze di attrito interne. Naturalmente i fluidi ideali

sono solo approssimazioni dei fluidi reali: i risultati dell'analisi di Eulero dunque possono

fornire solo una stima approssimata del comportamento di fluidi reali, caratterizzati da

bassi valori di viscosità.

Flusso dei liquidi incomprimibili e non viscosi

I fluidi incomprimibili e non viscosi, ossia privi di forze di attrito interne, si comportano

secondo il principio di Bernoulli. Enunciato dal matematico svizzero Daniel Bernoulli,

questo principio afferma che l'energia meccanica totale associata al flusso di un liquido

ideale e incomprimibile è costante lungo le linee di flusso. Queste ultime sono linee ideali

parallele in ogni punto alla direzione di flusso del liquido che, nel caso particolare in cui il

moto sia stazionario, coincidono con le traiettorie seguite dalle singole particelle del fluido.

Il principio di Bernoulli mette in relazione gli effetti della pressione con quelli della velocità e

della gravità, ed evidenzia il fenomeno secondo cui la velocità di un fluido aumenta al

diminuire della pressione. Esso si rivela estremamente importante nella progettazione

degli effusori, nelle misure di flusso, e per gli studi di aerodinamica.

Principio dei vasi comunicanti

Si chiamano vasi comunicanti due o più recipienti collegati da un tubo di comunicazione.

Principio dei vasi comunicanti: in due vasi comunicanti, due liquidi raggiungono l’equilibrio

quando le altezze delle loro colonne sono inversamente proporzionali ai loro pesi specifici

ossia, le altezze delle colonne dei due liquidi al di sopra della superficie di contatto, sono

inversamente proporzionali alle rispettive densità.

Fenomeni capillari

Un liquido in quiete, contenuto in un recipiente, dispone per effetto della forza di gravità la

propria superficie libera in un piano orizzontale. Questo non accade in prossimità delle

pareti poiché lì si verifica un fenomeno di curvatura, detto menisco, dovuto al fatto che

una molecola è soggetta all’azione delle forze attrattive esercitate dalle alte molecole del

liquido a lei vicine (forza di coesione) ed alle forze attrattive esercitate dalle molecole della

parete di contenimento (forza di adesione). Queste due forze attrattive sono coesistenti,

ed a seconda che prevale l’una sull’altra, si avrà menisco concavo o convesso:

Il menisco concavo è caratteristico dei liquidi che bagnano la parete (come ad esempio

l’acqua);

Il menisco convesso è caratteristico dei liquidi che non bagnano la parete (come ad

esempio il mercurio).

Lo stesso fenomeno si verifica nei tubi a sezione molto piccola, detti tubi capillari, e

prende il nome di capillarità. La legge che lo regola è detta regola legge di Jurin –

Borelli, secondo la quale le differenze di livello che si hanno tra il menisco nel tubo

capillare e la superficie del liquido sono inversamente proporzionali al raggio dei

capillari.

Fenomeni dovuti alla capillarità sono: il sollevamento del petrolio, dell’alcol nello

stoppino di una lucerna, l’effetto di inibizione delle carte assorbenti e di quelle da filtro,

ecc.

Altri effetti superficiali, di tipo inverso sono quelli che danno luogo alle lamine liquide,

dovute al fatto che sulla superficie di un liquido si forma sempre una specie di

membrana sottilissima e contrattile. Esempi sono le bolle di sapone e la goccia che

assume la forma sferica (perché si comporta come una membrana elastica riempita

di liquido).

Moto di fluidi viscosi: moto laminare e turbolento

Equazioni di Navier-Stokes

I primi esperimenti sul moto a bassa velocità di fluidi viscosi furono probabilmente

condotti nel 1839 dal fisiologo Jean-Louis-Marie Poiseuille, interessato a determinare le

proprietà della circolazione del sangue, e nel 1840 dall'ingegnere idraulico tedesco Gotthilf

Heinrich Ludwig Hagen. I primi tentativi di includere gli effetti della viscosità nelle equazioni

matematiche del moto dei fluidi si devono invece all'ingegnere francese Claude-Louis-

Marie Navier e al matematico britannico George Gabriel Stokes il quale, nel 1845, formulò

le equazioni fondamentali per i fluidi viscosi incomprimibili. Note come equazioni di Navier-

Stokes, esse risultano talmente complesse da poter essere applicate soltanto a flussi

semplici, qual è, ad esempio, quello relativo al moto di un fluido reale in un condotto

rettilineo. In questo caso, il principio di Bernoulli non è applicabile, perché l'energia

meccanica totale viene dissipata per effetto dell'attrito viscoso: si verifica perciò una

caduta di pressione lungo tutto il condotto. Dalle equazioni si può dedurre che il calo di

pressione, per un determinato sistema di condotto e per un fissato fluido, sarà

proporzionale alla velocità di flusso.

Numero di Reynolds

Gli esperimenti realizzati verso la metà del XIX secolo mostrarono che ciò è vero solo nei

limiti di basse velocità, e che a velocità maggiori il calo di pressione dipende invece dal

quadrato della velocità. Il problema non trovò soluzione fino al 1883, quando l'ingegnere

britannico Osborne Reynolds distinse due tipi diversi di moto di un fluido viscoso

all'interno di un condotto. Egli osservò che a basse velocità le particelle seguono le linee

di flusso (regime laminare), secondo le previsioni delle equazioni analitiche, mentre a più

alte velocità il flusso si rompe in una serie di gorghi (regime turbolento) non perfettamente

prevedibili neppure con le moderne teorie. Reynolds stabilì inoltre che la transizione dal

regime laminare a quello turbolento dipende da un solo parametro, detto in suo onore

numero di Reynolds, che può essere calcolato moltiplicando il prodotto della velocità e

della densità del fluido per il diametro del condotto e dividendo il risultato ottenuto per la

viscosità. Se per un certo sistema fluidodinamico il numero di Reynolds risulta minore di

2100, il flusso all'interno del condotto è di tipo laminare; per valori più alti di tale parametro

si instaura invece un regime di moto turbolento.

Lo studio dei moti turbolenti non può essere unicamente teorico, ma dipende da una

sintesi tra dati sperimentali e modelli teorici, tutt'ora in fase di perfezionamento. Il

fenomeno della transizione da regime laminare a regime turbolento e la complessità di

quest'ultimo possono essere osservati nella diffusione del fumo di una sigaretta in aria

ferma. Dapprima esso sale verso l'alto dando luogo a un flusso di tipo laminare, ma dopo

una certa distanza diventa instabile e si rompe in una serie di gorghi e circonvoluzioni.

La teoria dello strato-limite

Prima del 1860, l'interesse ingegneristico nei confronti della meccanica dei fluidi si limitava

quasi esclusivamente allo studio del moto dell'acqua. Lo sviluppo dell'industria chimica,

che si verificò nella seconda metà del XIX secolo, spostò l'attenzione anche sul

comportamento di altri liquidi e dei gas. Gli studi di aerodinamica vennero inaugurati

dall'ingegnere aeronautico Otto Lilienthal, e conobbero i maggiori successi dopo il primo

volo a motore compiuto nel 1903 dai fratelli Wilbur e Orville Wright.

La complessità del comportamento dei fluidi viscosi, in modo particolare in regime di moto

turbolento, rappresentò un serio ostacolo agli ulteriori progressi della fluidodinamica. Nel

1904 l'ingegnere tedesco Ludwig Prandtl riconobbe che, in un gran numero di casi, è

possibile e conveniente suddividere un fluido in moto in due regioni distinte. Una regione

prossima alla superficie del condotto, che consiste di un sottile strato limite in cui sono

concentrati gli effetti della viscosità, e nella quale il modello matematico può essere

semplificato significativamente in virtù del suo sottile spessore, e una regione al di fuori di

questo strato, dove gli effetti della viscosità si possono trascurare e dove dunque è

possibile adottare le semplici equazioni matematiche dei fluidi privi di attrito interno. È alla

teoria dello strato-limite che si deve lo sviluppo delle più moderne applicazioni

ingegneristiche nel campo della fluidodinamica, quali le ali dei velivoli, le turbine a gas e i

compressori. Essa infatti non solo rese possibile una riformulazione semplificata delle

equazioni di Navier-Stokes, nella regione prossima alla superficie di un corpo immerso in

un fluido in moto, ma portò anche a ulteriori sviluppi della teoria dei fluidi ideali, nelle

applicazioni riguardanti la regione esterna allo strato limite. Gran parte delle conquiste

della meccanica dei fluidi che seguirono l'introduzione del concetto di strato-limite si

devono all'ingegnere aeronautico di origine ungherese Theodore von Kármán, al

matematico tedesco Richard von Mises e al fisico e meteorologo britannico Geoffrey

Ingram Taylor.

Moto di fluidi comprimibili

L'interesse per la dinamica dei fluidi comprimibili scaturì dallo sviluppo delle turbine a

vapore, dovuto all'inventore britannico Charles Algernon Parsons e all'ingegnere svedese

Carl Gustaf Patrik de Laval, intorno al 1880. Un effettivo sviluppo dello studio del moto di

vapore ad alta velocità all'interno di passaggi di flusso si ebbe però solo negli anni Trenta,

motivato dai successi della turbina a gas e della propulsione a getto. Le prime ricerche

sui flussi superficiali ad alta velocità vennero condotti nell'ambito degli studi di balistica, e

in particolare del moto dei proiettili in aria. Gli sviluppi più rimarchevoli si ebbero verso la

fine del XIX secolo e nel corso della seconda guerra mondiale, con la realizzazione di

velivoli ad alta velocità e dei razzi.

Uno dei principi fondamentali del comportamento dei fluidi comprimibili prevede che la

densità di un gas vari quando esso è sottoposto a notevoli variazioni di pressione e di

velocità. Contemporaneamente, inoltre, si manifestano anche variazioni di temperatura,

complicando l'analisi del sistema. Il comportamento di un fluido comprimibile in moto

dipende dalla velocità di flusso, e varia in modo sostanziale a seconda che questa sia

maggiore o minore della velocità del suono.

Onde d'urto

Il suono consiste sostanzialmente nella propagazione di una piccola perturbazione, o

onda di pressione, all'interno di un fluido, e si propaga con velocità proporzionale alla

radice quadrata della temperatura assoluta. Ad esempio, nell'aria alla temperatura di

20 °C, pari a 293 gradi kelvin nella scala assoluta, il suono si propaga alla velocità di circa

344 m al secondo. Se un aereo vola a velocità minore di quella del suono (subsonica), le

onde di pressione che si trasmettono attraverso il fluido si aggiustano in modo da

scivolare uniformemente sulla superficie del velivolo. Se viceversa l'aereo si muove con

velocità maggiore rispetto a quella del suono (volo supersonico), tali onde non riescono a

circondare le superfici in movimento per riaggiustare il flusso del fluido. L'aria non riesce a

impedire il disturbo improvviso provocato dall'aereo, e si dirige istantaneamente e con

forza verso le ali, nelle estreme vicinanze delle quali si ha la formazione di un'intensa

compressione, o onda d'urto, che viene percepita da un osservatore a terra sotto forma

di bang sonico. Il rumore associato al passaggio di questa onda d'urto è caratteristico

degli aerei che volano a velocità supersonica.

Il moto all'interno di fluidi comprimibili si identifica solitamente con un parametro detto

numero di Mach, pari al rapporto tra la velocità di flusso e la velocità del suono. I flussi

supersonici sono quindi caratterizzati da un numero di Mach maggiore di 1.

Statica dei Gas

Gas In fisica, uno dei tre diversi stati di aggregazione – solido, liquido, gassoso – in cui

può presentarsi la materia, ciascuno caratterizzato da proprietà microscopiche e

macroscopiche distinte. A differenza dei solidi, che hanno un volume e una forma propria,

e dei liquidi, che hanno volume proprio ma assumono la forma del recipiente che li

contiene, i gas non hanno né forma né volume propri.

La teoria atomica della materia permette di spiegare le caratteristiche dei tre stati di

aggregazione analizzandole in termini microscopici. Così, le molecole di un solido

occupano posizioni fisse all’interno di un reticolo regolare e la loro libertà di movimento è

limitata a piccole vibrazioni attorno ai siti reticolari; le molecole di un liquido sono legate da

forze meno intense di quelle dei solidi, e sono quindi dotate di una maggiore libertà di

movimento; nei gas, invece, non vi è alcun ordine spaziale microscopico: le molecole si

muovono incessantemente e casualmente, trattenute solo dalle pareti del recipiente che

le contiene.

Per descrivere il comportamento di un gas si ricorre a un modello ideale, quello di “gas

perfetto”, e alle tre variabili macroscopiche: pressione (P), volume (V) e temperatura (T).

Un gas si può dire “perfetto” se le sue molecole sono talmente piccole da poter essere

considerate puntiformi e se è talmente rarefatto da far sì che si possano trascurare le

interazioni tra le molecole.

Le leggi che correlano le tre variabili macroscopiche di un gas sono state ricavate per via

empirica. La legge di Boyle (che deve il nome allo scienziato irlandese Robert Boyle)

stabilisce che in un gas, in condizioni di temperatura costante, il volume è inversamente

proporzionale alla pressione. La legge di Gay-Lussac (dal chimico e fisico francese J.-L.

Gay-Lussac) afferma che, a volume costante, la pressione è direttamente proporzionale

alla temperatura assoluta.

Combinando queste due leggi, si ottiene la legge generale, nota anche come equazione di

stato dei gas perfetti, PV/T= R, dove n è il numero di moli. R è una costante universale –

K-1

di valore è pari a 8,314 J – la cui scoperta rappresentò una pietra miliare della

scienza moderna.

Lo strumento utilizzato per la misura della pressione è il manometro. La maggior parte dei

manometri funziona registrando la differenza tra la pressione di un fluido noto e quella

atmosferica. Per piccole differenze si usa un tubo trasparente a forma di U, di cui

un’estremità è collegata con il contenitore di cui si vuole misurare la pressione interna e

l’altra è aperta. Il tubo viene riempito di un determinato liquido, come olio, acqua o

mercurio, e la differenza di livello raggiunto dal liquido nei due bracci del tubo fornisce la

differenza tra la pressione della colonna di liquido, pari a quella interna del contenitore, e

la pressione atmosferica locale.

Per differenze di pressione di maggiore entità si usa il manometro a molla tubolare, o

manometro di Bourdon, dal nome del suo inventore, il francese Eugène Bourdon.

Consiste di un tubo metallico cavo a sezione ellittica piegato a uncino: un’estremità del

tubo è chiusa, l’altra è aperta. Se si applica a quest’ultima una pressione (in aggiunta a

quella atmosferica), la sezione ellittica si deforma leggermente, avvicinandosi sempre più

alla forma circolare, e nello stesso tempo il tubo si allunga leggermente. All’estremità

chiusa si ottiene un movimento, proporzionale alla pressione applicata, che si può

misurare su una scala opportunamente calibrata. I manometri progettati per registrare

rapide fluttuazioni di pressione sfruttano generalmente sensori piezoelettrici o

elettrostatici, che riescono a seguire le variazioni con una risposta pressoché istantanea.

Per ottenere il reale valore assoluto di pressione da una misura effettuata con un

manometro – che indica la differenza tra la pressione del fluido e la pressione atmosferica

– bisogna sommare il valore della pressione atmosferica locale al valore indicato dallo

strumento. Un valore negativo corrisponde a un parziale vuoto.

10-6

Per misurare bassi valori della pressione di un gas (fino a mm di mercurio) si usa il

manometro di McLeod: si comprime un volume noto di gas – di cui si vuole determinare la

pressione – con una trasformazione isoterma, che ne riduca notevolmente il volume; se

ne misura la pressione con un comune manometro, e si risale alla pressione iniziale

incognita utilizzando la legge di Boyle. Per pressioni ancora minori, si usano manometri

che sfruttano fenomeni che coinvolgono radiazione, ionizzazione o effetti molecolari.

Legge di Dalton

Non essendo rigorosamente esatta la legge di Boyle – Mariotte, Dalton estese la legge ai

miscugli gassosi enunciando la seguente legge: La pressione totale esercitata da un

miscuglio di due o più gas è uguale alla somma delle pressioni parziali che i singoli gas

componenti il miscuglio eserciterebbero nel caso in cui ogni gas occupasse da solo tutto

il volume dell’intero recipiente; la pressione di una miscela di gas è uguale alla somma

delle pressioni parziali dei gas componenti.

CHIMICA

La Materia, i suoi stati e le sue trasformazioni

La chimica è la scienza che si occupa dello studio della proprietà della materia, cioè la

composizione, la struttura e le trasformazioni che essa subisce.

Con il termine materia s’intende tutto ciò che occupa uno spazio e che ha una massa.

Con il termine sostanza si indica invece quella parte della materia che possiede le stesse

proprietà.

La materia, qualunque sia il suo stato fisico, possiede un peso dovuto alla forza di gravità

che in taluni casi viene confuso con la massa, pertanto è fondamentale la distinzione tra

massa e peso:

Massa: misura della quantità di materia;

Peso: misura dell’attrazione della massa da parte della terra.

Un parametro importante per caratterizzare la materia è la densità, definita come la

massa dell’unità di volume.

L’universo è formato da elementi fondamentali che possono combinarsi tra loro e formare

i composti. Gli elementi a loro volta sono formati da entità più piccole, dette atomi.

La materia è rappresentata dunque da composti ottenuti dalla combinazione di elementi

base.

Stati fisici della materia.

La materia di presenta sotto tre stati fisici:

Solido

Liquido

Aeriforme (gas e vapori)

La caratteristica di un solido è quella di avere forma e volume propri. Lo stato solido ha

dunque una conformazione di atomi ben precisa, all’interno della quale essi non possono

muoversi, un esempio classico sono i cristalli. La forma può essere cambiata solo con

l’applicazione di forze di notevole intensità come quelle necessarie a piegare una sbarra

di ferro.

Nello stato liquido e nello stato gassoso, gli atomi sono liberi di muoversi e la sostanza

non ha una forma ben precisa, ma assume la forma del contenitore in cui essa si trova

(come l’acqua in bottiglia).

Un liquido è caratterizzato da un volume proprio ma non da una forma definita; esso

assume la forma del recipiente che lo contiene. Le sue molecole sono ad una distanza

reciproca dello stesso ordine di grandezza di quelle di un solido, ma non hanno una

posizione fissa nello spazio. Questo fa presumere che esse siano libere di muoversi una

rispetto all’altra, ma non di aumentare la loro reciproca distanza. Ne consegue che un

liquido conserva il suo volume, indipendentemente dalla forma assunta.

Un gas, non ha ne forma ne volume propri e si espande fino ad occupare tutto il volume

del recipiente nel quale viene rinchiuso, aumentando così la sia rarefazione. In un gas

molto rarefatto le molecole costituenti sono molto lontane le une dalle altre, tanto che le

loro interazioni avvengono solo quando esse si urtano. Si può dire che le molecole dei

gas rarefatti, fra un urto e l’altro, si muovono rettilineamente e nel loro complesso e le loro

traiettorie sono delle spezzate che si intersecano tra loro.

In condizioni non comuni rispetto a quelle terrestri si può parlare di un quarto stato della

materia: il plasma, presente nei tubi al neon, nella ionosfera terrestre, nelle stelle, e a

temperature che arrivano fino ai bilioni di gradi.

Passaggi di stato.

I passaggi o cambiamenti di stato sono delle trasformazioni della materia da uno stato

fisico all’altro, in particolari condizioni di temperatura e pressione.

Tali passaggi sono: fusione, solidificazione, evaporazione, condensazione, liquefazione,

sublimazione, condensazione di gas o brinamento.

Fusione: passaggio dallo stato solido allo stato liquido per azione del calore. Si verifica ad

una temperatura detta di fusione, che varia da sostanza a sostanza, ma che è uguale,

per una stessa sostanza, alla sua temperatura di solidificazione. Tale temperatura le

l’acqua è 0° C. Esempio: il ghiaccio che si scioglie e diventa acqua.

Solidificazione: è il processo inverso della fusione e quindi permette il passaggio dallo

stato liquido allo stato solido. Si ottiene ad una temperatura detta di solidificazione

(mediante raffreddamento). Esempio: l’acqua che diventa ghiaccio.

Evaporazione: passaggio dallo stato liquido allo stato di vapore, si verifica ad una

temperatura detta di evaporazione che varia da sostanza a sostanza , ma che è uguale,

per una stessa sostanza, alla temperatura di condensazione. Tale temperatura per

l’acqua è 100° C. Esempio: l’acqua che bolle.

Condensazione: è il processo inverso dell’evaporazione; passaggio dallo stato aeriforme

allo stato liquido mediante raffreddamento, ossia togliendo calore. Si ottiene ad una

temperatura detta di condensazione. Esempio: la pioggia.

Liquefazione: è il passaggio, sotto adeguate condizioni di pressione e di temperatura, di

un gas allo stato liquido, in sostanza coincide con la condensazione, anche se in

generale la condensazione di riferisce all’acqua.

Sublimazione: è il passaggio diretto dallo stato solido allo stato aeriforme e viceversa,

saltando la fase liquida. Esempio: deodoranti solidi utilizzati in auto o negli armadi.

Tavola periodica degli elementi chimici. Numero di Avogadro.

La grandissima verità di sostanze che esistono in natura e tutte quelle che sono state e

che saranno prodotte in laboratorio, sono combinazioni di un numero prestabilito di

sostanze fondamentali, dette elementi chimici.

Il concetto di elemento chimico fu enunciato da Boyle: un elemento si riconosce dal fatto

che è decomponibile in altre sostanze.

Gli elementi chimici sono formati da atomi, che rappresentano la struttura più semplice

della materia., che non è possibile suddividere ulteriormente con mezzi chimici.

La struttura immediatamente successiva a quella degli elementi è rappresentata dalle

molecole, che si possono ottenere dall’unione di più elementi simili oppure diversi.

Si può quindi dire che la materia alla sua base è costituita da atomi che si combinano tra

loro per formare elementi, e che tali elementi si combinano per formare le molecole.

Si chiama peso atomico la massa relativa agli atomi, che si ottiene assumendo come

unità di misura la dodicesima parte della massa dell’isotopo 12 del carbonio. Ogni

elemento chimico avrà dunque un proprio peso atomico e le molecole avranno un peso

molecolare ottenuto dalla somma dei pesi atomici degli elementi componenti, moltiplicato

per il numero di volte con cui gli elementi compaiono. Per qualunque sostanza si definisce

mole o grammomolecola un numero di grammi di essa pari al suo peso molecolare.

Numero di Avogadro

Numero delle molecole contenute in una mole di qualunque sostanza o, in altre parole,

numero degli atomi contenuti in 12 g di carbonio 12. Secondo il Comitato sui Dati per la

1023,

Scienza e la Tecnologia (CODATA), il numero di Avogadro equivale a 6,022045 ×

valore calcolato come media approssimata dei dati ottenuti mediante metodi sperimentali

chimici e fisici indipendenti. Indicato con il simbolo NA o N deve il suo nome al chimico

0,

italiano Amedeo Avogadro, che nel 1811 postulò la legge secondo cui volumi uguali di gas

diversi, nelle stesse condizioni di temperatura e pressione, contengono lo stesso numero

di molecole.

Recentemente, nell’ambito di studi compiuti a livello internazionale per ridefinire il

chilogrammo in base a costanti o grandezze universali, è stata fornita una nuova stima

1023,

del numero di Avogadro; il valore aggiornato, pari a 6,0221353 × si basa su un

metodo ultrapreciso di conta degli atomi contenuti in un campione di materiale: mediante

raggi X sono state valutate la struttura, la densità e la massa molare di un cristallo di

silicio ultrapuro e quindi diviso il volume molare per il volume atomico.

Elementi chimici

Gli elementi chimici a noi noti oggi sono 109, di cui 90 presenti in natura e 19 sintetizzati in

laboratorio attraverso reazioni nucleari. Questi ultimi elementi sono definiti artificiali o

transuranici.

Elementi chimici Sostanze costituite da atomi dello stesso tipo, tutti contenenti un ugual

numero di elettroni e di protoni. Si conoscono più di 100 elementi diversi, alcuni dei quali, i

cosiddetti elementi transuranici, sono estremamente radioattivi; essi pertanto non si

trovano in natura, ma vengono prodotti per via artificiale bombardando nuclei atomici di

altri elementi con particelle cariche.

Una prima classificazione divide gli elementi chimici in metalli e non-metalli; i primi sono

elettropositivi, tendono a cedere un elettrone e si combinano velocemente con gli atomi

dei non-metalli; questi ultimi sono al contrario elettronegativi e facilmente acquistano un

elettrone. In qualche caso si individua anche una terza classe, dei cosiddetti semimetalli,

con proprietà intermedie. Se vengono ordinati in base al numero atomico, proporzionale

alla carica positiva netta del nucleo, si osserva una spiccata periodicità nelle

caratteristiche fisiche e chimiche degli elementi e ciò suggerisce una ulteriore

suddivisione in famiglie; sono così definite le famiglie dei metalli alcalino-terrosi, dei

lantanidi, degli attinidi, degli alogeni e dei gas nobili.

L'unità di peso atomico è pari a un dodicesimo del peso dell'isotopo 12 del carbonio,

arbitrariamente posto uguale a 12. Il numero atomico, il peso e il simbolo chimico di ogni

elemento noto vengono forniti dalla tavola periodica.

Tavola periodica degli elementi o Sistema periodico

Schema che comprende tutti gli elementi chimici, disposti in ordine di numero atomico

crescente e in modo da rispettare la periodicità delle loro caratteristiche. Gli elementi

sono suddivisi in sette righe orizzontali, chiamate periodi, e in diciotto colonne verticali,

dette gruppi. Il primo periodo, che contiene solo due elementi, idrogeno ed elio, e i due

periodi successivi, che contengono ciascuno otto elementi, sono definiti periodi corti. Gli

altri, chiamati periodi lunghi, possono contenere da 18 (come i periodi 4 e 5) a 32 elementi

(come il 6). Il periodo 7 comprende la serie degli attinidi, ottenuta sintetizzando

artificialmente nuclei radioattivi di numero atomico superiore a 92 (che corrisponde

all'uranio).

Le colonne verticali, o gruppi, sono numerate da sinistra a destra utilizzando numeri

romani seguiti dalle lettere A e B, dove B si riferisce agli elementi di transizione.

Viceversa, secondo il metodo introdotto dall'Unione internazionale di chimica pura e

applicata (IUPAC), che si sta ampiamente diffondendo, i gruppi si numerano

semplicemente dall'uno al diciotto, procedendo da sinistra a destra.

Tutti gli elementi che appartengono a un determinato gruppo hanno proprietà chimiche

molto simili e, al contempo, molto differenti da quelle degli elementi di altri gruppi. Ad

esempio, gli elementi del gruppo 1 (o IA) sono metalli, con l'eccezione dell'idrogeno, e

hanno valenza +1; invece, quelli del gruppo 17 (o VIIA), con l'eccezione dell'astato, sono

non metalli, che generalmente formano composti in cui hanno valenza (o grado di

ossidazione) -1.

Tabella elementi:

Massa atomica degli elementi

NUMERO ELEMENTO ELEMENTO MA S S A A TO MI CA

ATOMICO (NOME) (SIMBOLO) (uma)*

1IdrogenoH1,00792ElioHe4,00263LitioLi6,9414BerillioBe9,01225BoroB10,816CarbonioC12,0117AzotoN

14,00678OssigenoO15,99949FluoroF18,998410NeonNe20,179811SodioNa22,989812MagnesioMg24,30

5113AlluminioAl26,981514SilicioSi28,085515FosforoP30,973816ZolfoS32,06717CloroCl35,452818Argo

nAr39,94819PotassioK39,098320CalcioCa40,07821ScandioSc44,955922TitanioTi47,86723VanadioV50

,

941524CromoCr51,996225ManganeseMn54,93826FerroFe55,84527CobaltoCo58,933228NichelNi58,693

429RameCu63,54630ZincoZn65,40931GallioGa69,72332GermanioGe72,6133ArsenicoAs74,921634Sel

enioSe78,9635BromoBr79,90436CriptoKr83,79837RubidioRb85,467838StronzioSr87,6239IttrioY88,906

40ZirconioZr91,22441NiobioNb92,906442MolibdenoMo95,9443TecnezioTc9844RutenioRu101,0745Rodi

oRh102,905546PalladioPd106,4247ArgentoAg107,868248CadmioCd112,41249IndioIn114,81850Stagno

Sn118,71151AntimonioSb121,76052TellurioTe127,6053IodioI126,904554XenoXe131,2955CesioCs132,

905456BarioBa137,32857LantanioLa138,905558CerioCe140,11559PraseodimioPr140,90860NeodimioN

d144,2461PromezioPm14562SamarioSm150,3663EuropioEu151,9664GadolinioGd157,2565TerbioTb158

,

925366DisprosioDy162,50067OlmioHo164,930368ErbioEr167,2669TulioTm168,934270ItterbioYb173,04

7 1 L u t e z i o L u 1 7 4 , 9 6 7 7 2 A f n i o Hf 1 7 8 , 4 9 7 3 Ta n t a l i o Ta 1 8 0 , 9 4 8 7 4 Wo l f r a mi o

(Tungsteno)W183,8475RenioRe186,20776OsmioOs190,2377IridioIr192,21778PlatinoPt195,0879OroAu

196,966580MercurioHg200,5981TallioTl204,383382PiomboPb207,2083BismutoBi208,980484PolonioPo

20985AstatoAt21086RadonRn22287FrancioFr22388RadioRa22689AttinioAc22790TorioTh232,0391Prot

oattinioPa231,03692UranioU238,028993NettunioNp23794PlutonioPu24495AmericioAm24396CurioCm24

797BerkelioBk24798CalifornioCf25199EinsteinioEs252100FermioFm257101MendelevioMd258102Nobeli

oNo259103LaurenzioLr260104RutherfordioRf261105DubnioDb262106SeaborgioSg266107BohrioBh2621

08HassioHs263109MeitnerioMt268110DarmstadtioDs271111RoentgenioRg272112UnunbioUub277*

unità di massa atomica

La tavola periodica

La tavola periodica degli elementi, formulata da Dimitri Mendeleev nel 1869, raggruppa e

classifica tutti questi elementi in base alle loro masse atomiche; essa contiene otto

colonne verticali dette gruppi, e sette righe orizzontali dette periodi. I gruppi sono numerati

da I a VIII ei periodi da 1 a 7.

La massa atomica di un elemento è la massa dell’atomo espressa nell’unità unificata di

massa atomica (u. m. a.).

I metalli hanno le seguenti proprietà fisiche:

Buoni conduttori di elettricità e di calore,

Hanno una grande capacità riflettente,

Una grande malleabilità e duttilità,

A temperatura ambiente si presentano allo stato solido.

I non metalli hanno le seguenti proprietà:

Non sono buoni conduttori di elettricità e di calore,

Non hanno potere riflettente,

A temperatura ambiente essi possono essere solidi, liquidi o gassosi.

Nella tavola periodica, l’VIII gruppo è molto importante, poiché contiene i gas nobili, che si

presentano tutti in forma monoatomica, nel senso che in natura non si legano avendo una

configurazione atomica già stabilizzata. Essi sono: Elio, Neo, Argo, Cripto, Xeno, Rado.

Leggi fondamentali della chimica

Si è detto che la materia è costituita da elementi che, combinandosi tra loro, danno luogo

a tutto ciò che ci circonda.

Tali combinazioni avvengono per mezzo di reazioni chimiche, attraverso le quali gli

elementi formano i composti chimici definiti come molecole.

Le reazioni chimiche avvengono secondo delle leggi definite fondamentali della chimica.

Legge di conservazione delle masse

La somma delle masse delle sostanze che reagiscono tra loro è uguale alla somma delle

sostanze che si formano nella reazione.

Tale legge equivale a dire: nulla si crea e nulla si distrugge, ma tutto si trasforma.

Questa legge è stata formulata per la prima volta da Lavoisier nel 1774 ed è di validità

generale.

Tale legge perde di significato nel momento in cui si considerano reazioni nucleari, poiché

in tal caso c’è una perdita di massa apprezzabile; tuttavia Einstein ha dimostrato che la

materia non va perduta ma viene trasformata in energia.

Legge delle proporzioni definite

Ogni composto ha una composizione chimica definita e che le combinazioni avvengono

secondo rapporti fissi e costanti. Tale legge è nota come Legge di Proust.

Legge delle proporzioni multiple

Le quantità in peso di un elemento che si combinano con la stessa quantità di un altro

elemento per formare diversi composti stanno tra loro n rapporti espressi da numeri

interi. Tale legge è nota come Legge di Dalton.

SOLUZIONI

Soluzione In chimica, miscela omogenea di due o più sostanze; la sostanza presente in

quantità maggiore, che può essere solida, liquida o gassosa, è detta solvente, mentre

quella presente in quantità minore, in genere solida o liquida, è detta soluto. Raramente

miscele di gas, come l'atmosfera, sono dette soluzioni. Le soluzioni appaiono omogenee

e il soluto non può essere separato tramite filtrazione, a differenza di quanto avviene nei

colloidi o nelle sospensioni, in cui le particelle di soluto sono di dimensioni molecolari e

finemente disperse tra le molecole del solvente. Si dice soluzione solida una miscela di

metalli che ha subito un processo di solidificazione mantenendo le proporzioni fra i

costituenti.

Solubilità

Alcuni liquidi, ad esempio acqua e alcol, si sciolgono fra loro in qualsiasi proporzione; al

contrario se si scioglie zucchero in acqua, non si potrà superare un limite fissato, che

dipende dalle condizioni di pressione e temperatura, e la soluzione può quindi divenire

satura. La solubilità di un composto in un solvente è definita, per valori fissati di pressione

e temperatura, come la quantità massima di quel composto che può sciogliersi in

soluzione e, tranne poche eccezioni come gas o sali organici di calcio, cresce

all'aumentare della temperatura del solvente. In generale, le soluzioni di molecole

strutturalmente simili a quelle del solvente hanno solubilità elevate.

Proprietà fisiche

Quando si aggiunge del soluto a un solvente, molte delle proprietà di quest'ultimo variano;

in particolare all'aumentare della concentrazione di soluto, si alza il punto di ebollizione e

si abbassa il punto di solidificazione (o congelamento). Per questo motivo, si può inibire il

congelamento dell'acqua contenuta nel radiatore di un'automobile aggiungendovi una

sostanza antigelo, ad esempio 1,2-etandiolo (HOCH2CH2OH), sotto forma di soluto.

Inoltre, la pressione di vapore del solvente si abbassa all'aumentare della concentrazione

di soluto.

Un'altra importante proprietà delle soluzioni è la capacità di esercitare pressione

osmotica. Se due solventi vengono separati da una membrana semipermeabile (una

membrana che permette il passaggio delle molecole di solvente ma non di quelle di

soluto), le molecole del solvente si sposteranno dalla soluzione a concentrazione più

bassa a quella a concentrazione più alta, con l'effetto di diluire quest'ultima. Vedi Osmosi.

Acidi e Basi

Acidi e basi Classi di composti chimici che presentano proprietà opposte. Gli acidi hanno

sapore aspro, conferiscono una colorazione rossa alla tintura di tornasole e spesso

reagiscono con i metalli liberando idrogeno gassoso; le basi hanno sapore amaro,

conferiscono al tornasole una colorazione blu e sono viscide al tatto. Mescolando

soluzioni acquose di un acido e di una base, si sviluppa una reazione detta di

neutralizzazione, che ha la caratteristica di procedere rapidamente e di produrre un sale.

L'acido solforico e l'idrossido di sodio NaOH, ad esempio, producono acqua e solfato di

sodio secondo la reazione: H2SO4 + 2NaOH⇄2H2O + Na2SO4

Prime teorie

Il primo passo verso la comprensione della chimica di acidi e basi fu compiuto intorno al

1834 dal fisico inglese Michael Faraday, con la scoperta della loro proprietà di essere

elettroliti, sostanze che, sciolte in acqua, generano una soluzione contenente particelle

cariche (vedi Ioni), permettendo la conduzione di corrente elettrica. Nel 1887 il chimico

svedese Svante Arrhenius (e in seguito il chimico tedesco Wilhelm Ostwald) propose un

criterio di classificazione per acidi e basi: in base a tale metodo si definisce acido un

composto che, in soluzione acquosa, determina una concentrazione di ioni idrogeno

(protoni) maggiore di quella che si riscontra in acqua pura, e basico un composto che,

nelle medesime condizioni, determina un aumento di concentrazione di ioni idrossido

OH- .

La teoria di Arrhenius, per quanto di grande semplicità e chiarezza, limita tuttavia la

definizione a specie contenenti rispettivamente idrogeno e ossidrili, e può essere

applicata solo a soluzioni acquose.

TEORIA DI BRØNSTED-LOWRY

Nel 1923 il chimico danese Johannes Brønsted e, indipendentemente, il chimico

britannico Thomas Lowry proposero una nuova teoria che estendeva la classificazione di

Arrhenius a soluzioni non acquose; essi definirono acide le sostanze con tendenza a

H+)

cedere protoni (ioni idrogeno e basiche quelle con tendenza ad acquistarli.

Secondo la definizione di Brønsted-Lowry, un acido si trasforma nella corrispondente

base cedendo un protone; analogamente una base che acquista un protone si trasforma

nell'acido coniugato. Si definisce 'forte' un acido che dona velocemente tutti i protoni a una

base, cosicché un acido è tanto più forte quanto più è debole la sua base coniugata. Alla

luce di quanto detto, si consideri la reazione di equilibrio fra un generico acido (1) e una

generica base (2): Acido (1) + Base (2)⇄Acido (2) + Base (1) La reazione effettiva

procede prevalentemente nella direzione che porta alla formazione dell'acido e della base

+ Cl-

più deboli; ad esempio la reazione di HCl in ambiente acquoso HCl + H2O⇄H3O +

procede prevalentemente da sinistra a destra (equilibrio spostato verso destra), perché,

Cl- +(acido

mentre l'acido cloridrico è forte, gli ioni e H3O coniugato di H2O) costituiscono

rispettivamente una base e un acido deboli. + F-

Al contrario nella reazione HF + H2O⇄H3O + l'equilibrio è spostato verso sinistra

-

perché H2O è una base più debole rispetto a F , e HF è un acido più debole (in acqua) di

+.

H3O La teoria Brønsted-Lowry fornisce una spiegazione del comportamento anfotero

dell'acqua: essa è una base in presenza di un acido più forte (ad esempio HCl) che ha

quindi maggior tendenza a dissociarsi, e un acido nella reazione con una base più forte

+ Cl- H2O⇄NH4+

(ad esempio l'ammoniaca). Così si ha HCl + H2O⇄H3O + e NH3+ +

OH- .

Misura della forza di un acido e di una base

La forza di un acido o di una base può essere valutata attraverso la misura della

+ OH-

concentrazione degli ioni H3O e , che saranno stati prodotti in soluzioni acquose

rispettivamente acide o basiche per cessione o sottrazione di protoni. Sulla base di

questo criterio, sono state messe a punto due scale, note come pH e pOH, i cui valori

corrispondono rispettivamente al logaritmo, cambiato di segno, della concentrazione dello

+]

ione ossonio e dello ione idrossido in soluzione acquosa: pH = -log [H3O pOH = -log

[OH- ]

All'acqua pura corrisponde pH uguale a 7,0; l'aggiunta di un acido produce un aumento

+]

della concentrazione dello ione ossonio [H3O e una conseguente riduzione del valore

del pH che fornisce una misura della forza dell'acido in analisi.

La formulazione più recente della teoria di acidi e basi, dovuta a Gilbert Newton Lewis,

definisce gli acidi come sostanze capaci di 'accettare' e le basi come capaci di 'donare'

una coppia di elettroni per formare un legame covalente. Questo schema interpretativo

ha il vantaggio di mantenere validità anche in presenza di solventi diversi dall'acqua, e

non implica la formazione di sali o di coppie coniugate acido-base nelle reazioni di

neutralizzazione. Secondo l'esposizione di Lewis, l'ammoniaca è classificata come base

poiché può donare un doppietto elettronico al trifluoroborano (classificato perciò come

acido) per formare un addotto acido-base: H3N: + BF3

⇄H3N-BF3

pH

Grandezza che esprime la concentrazione di ioni idrogeno di una soluzione. Il termine,

che deriva dal francese pouvoir hydrogène, 'potere d'idrogeno', viene definito come il

H+

logaritmo della concentrazione di ioni (protoni) cambiato di segno: cioè pH = -log10[H

+], [H+] H+ H+

dove è la concentrazione di ioni espressa in moli per litro. Siccome gli ioni

+),

si legano alle molecole d'acqua per formare ioni idronio (H3O il pH è anche espresso in

funzione della concentrazione di questi ioni.

+ (OH-

Nell'acqua pura a 22 °C, gli ioni H3O e ossidrile ) esistono in uguali quantità; la

10-7

concentrazione di ogni specie è moli/litro, cosicché il pH dell'acqua pura è -log

(10-7), 107,

ossia il log cioè 7. Se si aggiunge un acido all'acqua, tuttavia, si forma un

+, 10-6 10-1

eccesso di ioni H3O la cui concentrazione può variare fra e moli/litro, a

seconda della forza e della quantità di acido. Per questo motivo, le soluzioni acide hanno

pH variabile fra 6 (per un acido debole) e 1 (per un acido forte). Al contrario, una

+ OH-

soluzione basica ha bassa concentrazione di ioni H3O e un eccesso di ioni , di

conseguenza il pH varia fra 8 (per basi deboli) e 14 (per basi forti).

Il pH di una soluzione può essere misurato tramite titolazione, che consiste nella

neutralizzazione di un acido (o di una base) con una quantità misurata di base (o di

acido) a concentrazione nota, in presenza di un indicatore (composto il cui colore

dipende dal pH). Il pH di una soluzione può anche essere determinato direttamente

misurando il potenziale elettrico che insorge su elettrodi particolari immersi in soluzione.

Il pH è un parametro che serve alla misurazione del grado di acidità di una soluzione.

Tale valore varia nell’intervallo che va da 0 a 14 e, man mano che aumenta, diminuisce il

grado di acidità in favore di quello di basicità. Viceversa man mano che diminuisce,

aumenta il grado di acidità diminuendo quello di basicità.

Soluzione Valore del pH

Succo gastrico 1 – 2

Succo di limone 2 – 3

Vino 3 – 4

Latte 6 – 7

Sangue 7 – 8

Soluzione di bicarbonato 8 – 9

Sapone da bagno 10 – 11

Ammoniaca domestica 12 - 13

I Sali

Sali Composti chimici ottenibili miscelando quantità equivalenti di un acido e di una base.

Si formano secondo la generica reazione: Acido + Base → Sale + Acqua Ad esempio, per

reazione di una molecola di acido cloridrico con una di idrossido di sodio si forma una

molecola di cloruro di sodio, e dalla reazione si libera anche una molecola di acqua: HCl +

NaOH → NaCl + H2OPer reazione di un acido con una base, presi in quantità tale che il

numero di idrogeni acidi dell'acido sia pari a quello di ioni idrossido della base, si ottiene un

sale neutro: Al(OH)3 + H3PO4 → AlPO4 + 3H2OSe l'acido è poliprotico, si forma un sale

acido chiamato anche idrogenosale: H2CO3 + NaOH → NaHCO3 + H2OSe invece la

base è polidrossilica si ottiene un sale basico: Fe(OH)3 + HCl → Fe(OH)2Cl + H2OLa

nomenclatura dei sali segue la nomenclatura degli acidi da cui derivano cambiando il

suffisso; ad esempio:

il suffisso 'idrico' dell'acido diviene 'uro' nei sali: acido cloridrico (HCl) → cloruro di sodio

(NaCl)

il suffisso 'oso' dell'acido diviene 'ito' nei sali: acido nitroso (HNO2) → nitrito di sodio

(NaNO2)

il suffisso 'ico' dell'acido diviene 'ato' nei sali: acido nitrico (HNO3) → nitrato di sodio

(NaNO3).

Tutti i sali sono elettroliti, ovvero in acqua si scindono in cationi e anioni, dando luogo a

una reazione che prende il nome di idrolisi salina. In generale i sali sono elettroliti forti,

ossia sono completamente dissociati in soluzione acquosa. Un sale sciolto in acqua può

dare luogo a soluzioni acide, basiche o neutre, a seconda della propria composizione.

Dal punto di vista dell'idrolisi salina, possono verificarsi le quattro seguenti situazioni:

1. un sale proveniente dalla reazione di una base debole con un acido forte in soluzione

acquosa si idrolizza e dà reazione acida;

2. un sale proveniente dalla reazione di una base forte con un acido debole in soluzione

acquosa si idrolizza e dà reazione basica;

3. un sale proveniente dalla reazione di una base debole con un acido debole in soluzione

acquosa si idrolizza e dà reazione acida, neutra o basica, secondo che l'acido sia meno

debole, ugualmente debole o più debole della base;

4. un sale proveniente dalla reazione di una base forte con un acido forte in soluzione

acquosa non si idrolizza e la sua soluzione è neutra.

Nome scientifico Nome comune Formula

Cloruro di sodio Sale da cucina NaCI

Carbonato di calcio Marmo CaCO3

Carbonato di sodio Soda Na2CO3

Solfuro di Mercurio Pirite FeS3

Struttura degli atomi

Il primo scienziato ad ipotizzare l’esistenza degli atomi fu J. Dalton, il quale formulò la sua

teoria atomica riprendendo le antiche idee di Democrito. Dalton, supponendo che gli atomi

fossero particelle indivisibili e approfondendone lo studio, dedusse le seguenti tesi:

L’atomo è il più piccolo costituente di un elemento;

Gli atomi di uno stesso elemento sono tutti uguali fra loro;

Atomi di diversi elementi si combinano tra loro per formare i composti;

Durante una reazione chimica gli atomi conservano le loro proprietà.

Dalton immaginava che l’atomo avesse forma sferica, che fosse solido ed indivisibile.

Durante un esperimento scoprì che facendo passare della corrente elettrica attraverso

un gas, questi emetteva delle particelle cariche sia positivamente sia negativamente.

Agli inizi del 1900 i fisici Rutherford e Bohr formularono un nuovo modello di atomo, nel

quale vie erano cariche negative, gli elettroni, disposti attorno ad una parte centrale, il

nucleo; le cariche positive, dette protoni, erano disposte nel nucleo assieme ad altri

elementi privi di carica, i neutroni.

L’ultima versione riconosciuta scientificamente risale al 1926 con il modello a nuvola

elettronica. Tutte le particelle presenti in un atomo sono definite molecole subatomiche ; il

numero di protoni presenti nel nucleo di un atomo è detto numero atomico ed è indicato

con la lettera Z. La somma del numero dei protoni e del numero dei neutroni è detta

numero di massa ed è espresso dalla lettera A.

Modello con nuvola elettronica

Tutte le particelle presenti in un atomo sono definite molecole subatomiche; il numero di

protoni presenti nel nucleo di un atomo è detto numero atomico ed è indicato con la lettera

Z. La somma del numero di protoni e del numero di neutroni è detta numero di massa ed

è espresso dalla lettera A.

Gli elettroni in un atomo sono distribuiti secondo livelli di energia e la loro disposizione

attorno al nucleo rappresenta una nuvola elettronica. Gli elettroni che hanno energia più

bassa sono i più vicini al nucleo, mentre quelli che hanno energia più alta sono più lontani.

Il primo modello energetico può contenere la massimo due elettroni; il secondo e il terzo

possono contenerne al massimo otto. Questo tipo di configurazione è quella che

conferisce una maggiore stabilità energetica all’intero sistema atomico. All’aumentare del

numero di elettroni, questi si distribuiscono su orbitali esterni sempre più complessi.

I corpi solidi, struttura e proprietà meccaniche

Un corpo solido propriamente detto è un corpo a struttura cristallina. In alcune sostanze,

quali il sale da cucina e lo zucchero, la struttura cristallina è bene evidente anche ad

occhio nudo. In altre, come i metalli, essa non è visibile ad occhio nudo; tuttavia se si

pulisce la superficie di un metallo con un opportuno agente chimico, l’osservazione al

microscopio mostra il metallo come una massa di piccolissimi cristalli le cui dimensioni

sono di qualche milionesimo di centimetro.

I cristalli sono corpi solidi limitati da superfici naturali piane. Lo studio ai raggi X ha

mostrato che i cristalli sono sistemi comprendenti un grandissimo numero di atomi

disposti nello spazio secondo un reticolo che può essere complicato ma che è comunque

sempre regolare. I cristalli sono corpi anisotropi; in essi le proprietà fisiche (dilatabilità,

conducibilità termica, conducibilità elettrica, ecc.) dipendono dalla direzione- Esistono poi

corpi i quali, per quanto presentano molte particolarità di comportamento simili a quelle dei

solidi, non hanno una struttura cristallina. Questi corpi detti amorfi, vanno spesso

considerati come fluidi dotati di elevata viscosità (esempio sono il vetro o la pece).

Nella meccanica si è introdotto il concetto di corpo rigido, ossia di un corpo

assolutamente indeformabile. In natura però non esistono corpi del genere poiché

qualunque materiale soggetto a sollecitazioni esterne (forze) si deforma sempre, per

quanto essa è talvolta così piccola da sfuggire all’osservazione grossolana. Se la

deformazione che il corpo subisce per effetto della forza non eccede un certo limite, il

corpo riprende la sua forma primitiva non appena la sollecitazione cessa. Le forze che un

corpo deformato esercita per riprendere la sua forma primitiva si chiamano forze

elastiche.

La legge di Hooke stabilisce che: tutte le deformazioni, entri i limiti di elasticità dei corpi

che le subiscono, sono proporzionali alle forze deformatrici come le conseguenti reazioni

elastiche.

I casi più frequenti di deformazioni elastiche sono i seguenti:

Elasticità di trazione e di compressione;

Elasticità di torsione;

Elasticità di flessione.

Come detto, le forze elastiche sono proporzionali alla deformazione del corpo, finché

questa si mantiene inferiore ad un certo valore. Se la deformazione supera questo limite

di elasticità, si ha una deformazione permanente mentre se aumentiamo ancora l’intensità

della sollecitazione arriviamo al limite di rottura: a questo punto il corpo si rompe.

I limiti di elasticità e di rottura sono elementi caratteristici di ogni materiale; essi servono

definire le proprietà meccaniche dei materiali stessi.

I materiali possono essere classificati come:

Elastici, se hanno elevato limite di elasticità (la gomma elastica);

Tenaci, se hanno elevato limite di rottura (alluminio, ottone);

Fragili, se il loro limite di elasticità coincide con quello di rottura (vetro, ghisa);

Duttili, se possono essere facilmente ridotti a fili sottili (rame, platino, alluminio);

Malleabili, se possono essere facilmente ridotti in fogli (oro);

Plastici, se in essi manca praticamente la fase elastica e quindi ogni loro deformazione è

permanente (piombo).

Vi sono infine materiali in cui alcune delle precedenti caratteristiche possono coesistere.

ACUSTICA

Facendo cadere un sassolino sulla superficie tranquilla dell’acqua di uno stagno si

osserva che, dal punto in cui il sasso è caduto, parte un’increspatura della superficie

dell’acqua, che ha la forma di un cerchio il quale, col passare del tempo si allarga fino a

giungere alla sponda dello stagno o alle pareti dei recipienti. Questa increspatura è

chiamata onda.

La propagazione dell’onda non dà luogo ad alcun trasporto di materia.

Si può generalizzare affermando che: si ha un’onda quando, in un mezzo continuo, si

provoca uan perturbazione in un punto.

Vi sono diversi tipi di onda:

Onde elastiche. L’esempio più semplice di onda elastica si ha nel caso di una corda tesa,

ad un estremo della quale venga impressa una rapida oscillazione: questa perturbazione

si propaga lungo la corda, proprio come la perturbazione del sassolino si propaga lungo

la superficie dello stagno. Si parla dunque di onde elastiche in quanto il meccanismo della

propagazione ha origine dalle proprietà elastiche. La perturbazione consiste in una

deformazione elastica provocata ad un estremo del corpo considerato.

Onde elastiche periodiche. Le perturbazioni che presentano il maggior interesse sono

quelle aventi carattere oscillatorio o periodico. Si ricordi che un punto materiale è animato

da un moto oscillatorio o periodico quando esso, dopo intervalli di tempo uguali, assume

sempre la stessa posizione e la stessa velocità; assume quindi lo stesso stato di modo. Il

periodo è definito come il più piccolo intervallo di tempo dopo il quale lo stesso stato di

moto si ripete.

Onde longitudinali e trasversali. Si è in presenza di un’onda longitudinale quando il

movimento delle particelle del corpo, trasmesso da un’onda elastica, avviene nella

direzione di propagazione dell’onda. Non è questo il caso delle onde che si propagano

lungo una corda tesa, della quale si scuote un estremo: la perturbazione si sposta lungo

la corda, ma le particelle della corda vibrano in direzione ad essa perpendicolare. In

generale, si ha un’onda trasversale quando il movimento trasmesso dall’onda alle

particelle del corpo è perpendicolare alla direzione di propagazione dell’onda. Le onde

elastiche che si propagano in un solido possono essere longitudinali, trasversali o

addirittura una sovrapposizione di entrambi i tipi di onde, a seconda che la perturbazione

che ha dato origine all’onda è trasversale, longitudinale o obliqua.

Il suono e la sua propagazione: velocità del suono

L’acustica è quella parte della fisica che studia i fenomeni legati ai suoni, ossia la

produzione e la propagazione del suono.

Con il termine suono si intende la causa delle sensazioni percepite dal nostro orecchio.

Soggettivamente “suono” è la sensazione percepita dall’organo dell’udito, oggettivamente

è il fenomeno vibratorio che la produce.

In generale, si chiama sorgente sonora qualsiasi corpo che emetta un suono.

L0origine di qualsiasi suono è sempre dovuta alle vibrazioni della sorgente sonora:

vibrazione di corde (corde vocali, pianoforte, violino), colonne dia aria (organo, clarino) o

di piastre e membrane (tamburi, altoparlanti). Tutti questi corpi, vibrando, vibrando

alternativamente comprimono e rarefanno l’aria che si trova nella loro immediata

vicinanza. Queste perturbazioni sono trasmesse dall’aria sotto forma di onde elastiche

(onde acustiche o sonore) che si allontanano dalla sorgente sonora e, penetrando nel

nostro orecchio, producono la sensazione sonora.

Tuttavia esistono corpi che pur vibrando non emettono suoni: un sasso che oscilla

sospeso ad un filo non emette alcun suono. Affinché il nostro orecchio percepisca un

suono, è necessario che la sorgente sonora vibri abbastanza rapidamente ma non

troppo; per la precisione, è necessario che la frequenza dell’onda sia compresa tra 16 e

12.000 Hertz circa.

Questi fenomeni vincolati al nostro organo uditivo, l’orecchio, sono comunemente chiamti

fenomeni sonori. Normalmente le sensazioni sonore vengono da noi percepite perché si

trasmettono attraverso l’aria. Questo può essere constatato mettendo un campanello

elettrico sotto una campana pneumatica.

Quando chiudiamo il circuito elettrico del campanello questo inizia a suonare ed il suono

sarà udito distintamente se la campana è piena d’aria; andrà invece sempre più

affievolendosi man mano che verrà estratta l’aria dalla campana, e cesserà del tutto

quando nella campana si sarà fatto il vuoto completo. Oltre all’aria vi sono anche i altri

mezzi nei quali il suono può trasmettersi: questi possono essere i solidi, liquidi o aeriformi;

l’unica condizione necessaria è che si tratti di corpi elastici, in quanto solo questi ultimi

sono capaci di trasmettere la perturbazione sonora. Dunque il suono può essere

trasmesso da tutti i corpi mentre non può propagarsi in regioni dello spazio prive di

materia.

Velocità del suono

Si analizza adesso il meccanismo della propagazione del suono nell’aria.

Quando l’estremo non vincolato di una lamina di acciaio fissata ad un estremo si muove

da A verso A’, esso sposta uno strato dia ria che è a suo immediato contatto,

comprimendolo; questo strato, a sua volta, comprime lo strato d’aria che è a suo

immediato contatto e così via: abbiamo quindi uno strato di compressione che si propaga

nell’aria, allontanandosi in tutte le direzioni. Negli istanti successivi, l’estremo della lamina

si muove da A’ verso A e poi da A verso A’, lo strato d’aria che è a suo immediato

contatto viene ora decompresso e quindi si rarefa; questa rarefazione si propaga allo

strato contiguo di aria e così via. Si ha così una decompressione o rarefazione, che si

propaga nell’aria e che segue la decompressione.

La lamina vibrando, genera un’onda elastica periodica costituita da una serie di strati in

cui l’aria è alternativamente compressa e rarefatta. Queste onde di compressione e di

rarefazione sono comunemente chiamate onde sonore. In un mezzo omogeneo ed

isotropo (che ha caratteri fisici identici in tutte le direzioni) il suono presenta la stessa

velocità in tutte le direzioni.

La distanza che intercorre tra due successivi strati compressi o de strati rarefatti si

chiama lunghezza d’onda del suono emesso dalla sorgente sonora; essa è la distanza

percorsa dalla perturbazione in un periodo, cioè nel tempo necessario a che una

particella d’aria compia una oscillazione completa. Poiché le particelle di aria vibrano nella

direzione in cui ha luogo la propagazione dell’onda sonora, un suono che si propaga

nell’aria (o più in generale in un fluidi) è costituito da onde elastiche longitudinali. Dunque

tutte le particelle di aria vibrano sotto l’azione delle onde sonore. Man mano che ci si

allontana dalla sorgente sonora, queste vibrazioni sono meno ampie in quanto l’energia

meccanica di oscillazione si distribuisce man mano su superfici sferiche sempre

maggiori. Il massimo spostamento di una particella dalla sua posizione di equilibrio si

chiama ampiezza della vibrazione; diremo dunque che l’ampiezza della vibrazione

diminuisce man mano che ci si allontana dalla sorgente sonora.

La propagazione del suono non è istantanea visto che occorre un certo tempo affinché le

onde elastiche, partite dalla sorgente sonora, giungano ad una certa distanza da essa. Si

trova sperimentalmente che il suono si propaga nell’aria (secca, alla pressione di una

atmosfera ed alla temperatura di 0 gradi) con una velocità di circa 331, 4 metri al

secondo.

Si osserva poi che non sempre un corpo in vibrazione emette un suono; il nostro

orecchio percepisce solamente vibrazioni la cui frequenza è compresa entro due limiti

chiamati limiti di udibilità. Precisamente danno luogo ad una sensazione sonora solamente

le onde elastiche la cui frequenza è compresa tra 16 e 12.000 Hertz (ossia tra 16 e

12.000 oscillazioni complete al secondo). Le onde elastiche con frequenza minore di 16

Hertz, o maggiore di 12.000 Hertz, giungono al nostro orecchio, ma non generano alcuna

sensazione uditiva e prendono il nome di infrasuoni. Le onde elastiche di frequenze

superiori a 16.000 Hertz prendono il nome di ultrasuoni.

Per quando concerne la lunghezza d’onda delle onde acustiche, possiamo osservare

quanto segue: Detto T l periodo di una certa onda acustica e λ la sua lunghezza d’onda,

la velocità v del suono è data da

I suoni sono vibrazioni elastiche longitudinali la cui lunghezza d’onda, nell’aria, varia 3 cm

e 29 m circa.

Infine, si precisa una importante differenza:

Suoni, le onde acustiche generate da qualsiasi vibrazione meccanica periodica;

Rumori, le perturbazioni acustiche alle quali manca un preciso carattere di periodicità.

I caratteri distintivi del suono ed il Teorema di Fourier

Le caratteristiche di un suono sono l’altezza, l’intensità ed il timbro.

L’altezza (o acutezza) è il carattere che ci consente di distinguere i suoni gravi da quelli

acuti. Due suoni di diversa altezza corrispondono ad onde di diversa frequenza; i suoni

acuti hanno frequenza molto elevata (migliaia di Hz), quelli gravi molto bassa (decine di

Hz).

L’intensità è il carattere che ci consente di distinguere i suoni forti da quelli deboli. Un

suono è tanto più intenso di un altro quanto più è la sensazione sonora che esso procura

al nostro orecchio; inoltre l’intensità i un suono si indebolisce man mano che ci

allontaniamo dalla sorgente sonora. L’intensità di un suono dipende dall’ampiezza delle

oscillazioni intorno alla posizione di equilibrio della particella del mezzo posta in

vibrazione, così che ad oscillazioni di maggior ampiezza corrispondono suoni più intensi.

Il timbro è il carattere che ci consente di distinguere i vari suoni in relazione alla forma

della loro onda ossia ci consente di distinguere i vari suoni, identici per altezza ed

intensità, che provengono da sorgenti diverse.

Il teorema di Fourier dà una giustificazione di questo fenomeno:

Qualsiasi oscillazione periodica può considerarsi composta da un certo numero di

oscillazioni armoniche semplici di ampiezza e frequenza diverse, tutte però multiple di una

stessa frequenza fondamentale. La frequenza base, che nel caso di una oscillazione

armonica semplice è detta frequenza fondamentale, è quella più bassa; le altre

oscillazioni componenti di frequenza più elevata sono dette armoniche superiori. Pertanto,

il timbro di un suono è determinato dal numero, dalla qualità e dalla intensità delle

armoniche che accompagnano il suono fondamentale.

Si può ritenere approssimativamente una oscillazione armonica semplice quella di un

diapason: questo è uno strumento costituito da una piccola verga a sezione rettangolare

foggiata ad U (i due rami sono detti rebbi) capace, una volta percorsa, di emettere un

suono ben determinato. Su tale suono, caratteristico e semplice, è possibile accordare gli

strumenti musicali.

Viene chiamato diapason normale quello che emette un suono di 345 vibrazioni al

secondo e corrisponde al “la” della terza scala.

Grazie all’uso del diapason si può porre in evidenza il fenomeno della risonanza acustica:

un corpo, capace di emettere un suono di una ben determinata frequenza, si mette a

vibrare quando è investito da un suono di quella stessa frequenza, ma non quando è

investito da suoni di frequenza diversa dalla propria.

Riflessione, rifrazione e diffrazione delle onde elastiche

Le onde elastiche, e quindi anche le onde sonore, quando durante la loro propagazione

incontrano un ostacolo o passano da un mezzo ad un altro di diversa natura, presentano

particolari fenomeni: riflessione, rifrazione e diffrazione:

Si ha una riflessione del suono quando un’onda sonora incontra sul suo cammino un

ostacolo sufficientemente ampio costituito da una superficie pressoché piana; l’onda si

riflette simmetricamente rispetto a detta superficie come se provenisse da un punto

simmetrico alla sorgente.

Le leggi della riflessione sono:

Il raggio incidente, il raggio riflesso e la retta normale alla superficie riflettente nel punto di

incidenza giacciono nel medesimo piano;

Il raggio incidente ed il raggio riflesso giacciono da parti opposte rispetto alla normale del

piano;

L’angolo di riflessione è uguale all’angolo di incidenza.

Si ha una rifrazione del suono quando un’onda passa da un mezzo ad un altro di

differente densità, variando così la sua velocità di propagazione. Infatti la velocità

diminuisce passando da un mezzo meno denso ad un mezzo più denso, mentre aumenta

quando accade l’inverso.

Le leggi della rifrazione sono:

Il raggio incidente, il raggio rifratto e la retta normale alla superficie di separazione tra i

due mezzi nel punto di incontro del raggio incidente giacciono nel medesimo piano;

Il raggio incidente ed il raggio rifratto giacciono da parti opposte rispetto alla normale al

piano;

La velocità di propagazione delle onde sonore nel primo mezzo v e quella nel secondo

1

mezzo v stanno tra loro nello stesso rapporto dei seni dell’angolo di incidenza α e

2

dell’angolo di rifrazione β.

Si ha una rifrazione del suono quando un’onda incontra sul suo cammino uno schermo

opaco con un foro; le vibrazioni si propagano al di là del foro continuando ad allargarsi ad

onde così che il foro risulta a sua volta sorgente di nuove vibrazioni. Questo fenomeno

fornice la spiegazione del perché le onde sonore superino gli ostacoli e siano percepibili

anche al di là di essi.

Interferenza dei suoni e principio di Huygens – Fresnel

Si considerino due sorgenti di vibrazione situate ad una certa distanza tra loro, le

superfici d’onda che esse generano si propagheranno nello spazio ad in alcune zone

verranno anche a sovrapporsi.

Si definisce interferenza il fenomeno che ha luogo quando due sistemi di onde della

stessa frequenza vengono a sovrapporsi propagandosi nello stesso mezzo.

In questo modo si può ottenere:

Un raffreddamento del suono, nel caso in cui le vibrazioni delle due sorgenti sonore si

sovrappongano trovandosi in concordanza di fase;

Un indebolimento del suono, nel caso in cui le vibrazioni delle due sorgenti sonore si

sovrappongano trovandosi sfasate l’una rispetto all’altra di una frazione di mezza

lunghezza d’onda;

Il silenzio, nel caso in cui le vibrazioni delle due sorgenti sonore si sovrappongano

trovandosi in opposizione di fase.

Il fenomeno dell’interferenza può essere verificato sperimentalmente con il tubo di

Quincke. I fenomeni che interessano le leggi della riflessione, rifrazione e diffrazione

trovano la loro giustificazione razionale nel principio di Huygens – Fresnel. Questo

principio è fondamentale per la spiegazione di numerosi fenomeni fisici di natura

ondulatoria.

Principio di Huygens – Fresnel: ogni punto di una superficie d’onda S diviene a sua volta

sorgente di altre onde, e tutte le onde che partono dai vari punti della superficie S sono tra

loro in concordanza di fase.

Corde vibranti, eco, risonanza e scale musicali

Il fenomeno, detto delle corde vibranti, trova una sua applicazione nel pianoforte e negli

strumenti musicali a corda (arpa, violino). Una corda può vibrare in modo da costituire un

unico fuso ed in questo caso emette un unico suono fondamentale; però può anche

vibrare in modo da costituire più fusi separati da nodi, ed in questo caso emette dei suoni

armonici di quello fondamentale.

Viene comunemente dato il nome di nodi ai punti fissi e di ventri ai punti di massi

vibrazione di una corda vibrante; così, ad esempio, nel caso di una corda che dà luogo

ad un unico fuso abbiamo un ventre al centro e due nodi alle estremità.

Effetti analoghi vengono ottenuti ricorrendo ai tubi sonori; essi consistono in particolari

tubi che emettono suoni dovuti alla vibrazione dell’aria in essi contenuta. Le applicazioni di

questo fenomeno si trovano nell’organo e negli strumenti musicali a fiato (flauto, tromba,

ecc.).

L’eco è la ripetizione distinta di un suono riflesso da un ostacolo. Questo fenomeno si

verifica quando la sorgente del suono e l’ostacolo si trovano ad una distanza tale da

consentire che, la percezione da parte del nostro orecchio del suono diretto, sia già

cessata quando arriva quella del suono riflesso dall’ostacolo. Si definisce rimbombo, il

fenomeno per cui non percepiamo la ripetizione distinta del suono, ma un suo

prolungamento e rafforzamento, in quanto le onde riflesse giungono al nostro orecchio

quando vi permane ancora l’effetto sonoro prodotto dalle onde dirette.

Il fenomeno della risonanza, ossia quel fenomeno acustico per cui un corpo, che emette

un suono, è capace di far entrare in vibrazione un corpo che abbia uno stesso periodo di

vibrazione.

Il diapason, entra in vibrazione per effetto dell’eccitazione di un altro diapason posto in

vibrazione ma solo quando i due diapason sono perfettamente uguali fra loro. Questo

perché il primo diapason, inizialmente fermo, comincia a vibrare sotto l’impulso

comunicatogli dalla prima onda che si diparte al secondo diapason posto in vibrazione, e

poiché i due diapason si trovano a possedere la stessa frequenza, il primo diapason sarà

nelle condizioni di sincronismo per ricevere i successivi impulsi fornitigli dalla seconda,

dalla terza onda, ecc., prodotte dalla vibrazione del secondo diapason. Nel caso in cui i

due diapason non siano perfettamente uguali, accade che le onde emesse dal secondo

diapason successivamente alla prima onda, giungano al primo diapason sfasate, e

pertanto tendono a fermare il moto.

Per determinare la frequenza delle vibrazioni emesse da una sorgente sonora vengono

comunemente impiegati i risuonatori di Helmholtz.

Le composizioni musicali sono costituite da una successione e sovrapposizione di suoni

di varie frequenze, chiamate note musicali.

Una successione ordinata di suoni usati per la composizione musicale viene chiamata

scala, mentre l’intervallo è il rapporto delle frequenze di due note successive in una

scala.

Le scale dei suoni che in musica hanno particolare rilievo sono 3:

La scala naturale, costituita, nota la frequenza N di una nota musicale, dalla serie di note

che prendono, rispettivamente, il nome di: do, re, mi, fa, sol, la, si e do . Questa ultima

2

nota ha la frequenza doppia del do. Ogni successione di sette notte basata

sull’inquadratura appena menzionata prende il nome di ottava. L’intervallo tra due ottave è

sempre 2. Una maggiore disponibilità di note viene ottenuta inserendo tra due note

successive i cosiddetti diesis e bemolli. I primi si ottengono elevando di un semitono una

nota, i secondi si ottengono abbassando la stessa nota di un semitono. Pertanto la scala

naturale risulta costituita da 17 suoni: 7 note, 5 diesis e 5 bemolli;

La scala temperata ottenuta dividendo l’ottava compresa fra due do successivi in 12

12

intervalli tutti uguali e apri ad un valore di 2= 1,05946;

La scala musicale, definita una volta stabilita la frequenza fondamentale di riferimento sul

la3 della scala, in corrispondenza della frequenza di 435 Hertz.

Il campione internazionale di frequenza è il diapason normale, depositato a Sevrès

nell’Ufficio Internazionale dei Pesi e delle Misure, che corrisponde ad un diapason che,

percosso, vibra con la frequenza di 435 Hertz.

La riproduzione dei suoni è legata alla possibilità di far vibrare un corpo elastico in modo

che le sue oscillazioni riproducano esattamente tutti i caratteri delle vibrazioni originate

dalla sorgente sonora.

Anche se oggi risultano molto perfezionati, i metodi di registrazione e riproduzione dei

suoni sono sempre riducibili al principio fondamentale applicato da Thomas Alva Edison

nella realizzazione del fonografo.

Applicazione dei suoni

La sonda acustica è un particolare dispositivo impiegato per determinare la profondità dei

fondi marini sfruttando il fenomeno della riflessione del suono emesso da una sorgente

sonora sistemata sotto la chiglia della nave e diretto verticalmente verso il fondo marino

stesso.

Nota la velocità di propagazione v del suono nel mezzo e determinato il tempo t che il

suono impiega a percorrere il cammino dalla chiglia della nave al fondo marino e ritorno, si

avrà la possibilità di determinare la profondità h nel luogo cercato, dalla seguente

relazione:

Gli ultrasuoni e gli infrasuoni. Si può ritenere ambedue questi fenomeni fisici, delle

vibrazioni elastiche di carattere acustico, sebbene non avvertibili da parte del nostro

orecchio.

Gli infrasuoni sono le vibrazioni elastiche di carattere acustico che posseggono una

frequenza inferiore ai 16 Hertz, cioè alla minima frequenza avvertibile da un orecchio

umano normale.

Sono esempi di infrasuoni le vibrazione causate, in una camera, dalla pressione di una

porta che si chiude o da una finestra che si apre; queste vibrazioni elastiche si

propagano nell’aria con la velocità e le caratteristiche proprie dell’onda sonora anche se

la loro frequenza le pone al di sotto del limite inferiore di udibilità.

Sono pure esempi di infrasuoni le onde sismiche la cui sorgente si trova normalmente in

un punto interno alla crosta terrestre, detto ipocentro. Le onde sismiche, in particolare, si

dividono in:

Onde causate da vibrazioni longitudinali, che si propagano con una velocità di circa 7 Km/

s all’interno della crosta terrestre;

Onde causate da vibrazioni trasversali, che si propagano con una velocità di circa 4 Km/

s all’interno della crosta terrestre;

Onde massimali, che si propagano con una velocità di circa 3,6 Km/s e risalgono

l’ipocentro ad un punto della superficie terrestre, chiamato epicentro, e da qui si irradiano.

Essendo di ampiezza superiore alle precedenti, queste onde risultano anche molto più

disastrose delle altre.

Gli apparecchi registratori di scosse sismiche vengono chiamati sismografi.

Gli ultrasuoni sono le vibrazioni elastiche di carattere acustico che posseggono una

frequenza superiore ai 12.000 Hertz e pertanto, avendo il limite massimo di udibilità, non

sono avvertibili dall’orecchio umano normale.

Si possono ottenere ultrasuoni nell’aria mediante il fischio di Galton o utilizzando la

proprietà di alcuni cristalli (quarzo, spato d’Islanda, ecc.) tramite un fenomeno chiamato

piezoelettricità.

Gli ultrasuoni hanno un diffuso impiego per gli scandagli subacquei, per la localizzazione

di navi e di branchi di pesci, ecc.

La tecnologia moderna impiega gli ultrasuoni nell’analisi dell’omogeneità di struttura dei

metalli, poiché risulta che un corpo a struttura omogenea può essere attraversato dagli

ultrasuoni alla stessa velocità in tutte le direzioni. Importanti applicazioni si trovano anche

in medicina.

La voce e l’orecchio

I due organi naturali dell’uomo che interesano l’acustica sono gli organi della voce e

dell’udito. L’organo di emissione della voce si comporta come una canna sonora chiusa

contenente dell’aria che viene posta in eccitazione dalla vibrazione delle corde vocali.

Questo è schematicamente costituito dalla laringe che è una cavità cartilaginea posta

nell’estremità superiore della trachea ad in cui si trovano due linguette chiamate corde

vocali. Quando si parla i polmoni emettono l’aria che, attraverso la trachea, giunge alle

corde vocali. Le corde vocali quindi cominciano ad entrare in vibrazione e, limitando più o

meno una fenditura, detta rima della glottide, comunicano il loro moto vibratorio all’aria

contenuta nelle cavità nasali e boccali. Queste, secondo la configurazione che vengono

ad assumere, si comportano da risuonatori atti a rinforzare l’uno o l’altro dei suoi prodotti.

In generale, nella voce l’altezza dei suoni è regolata dalla tensione e dalla lunghezza delle

corde vocali, l’intensità dell’energia con cui l’aria viene emessa dai polmoni ed il timbro

della configurazione che assumono in ciascuna persona le varie cavità che,

comportandosi da risuonatori, contribuiscono a dare alle voci delle singole persone

caratteristiche particolari.

I limiti entro cui può variare la frequenza della voce umana sono compresi tra 16 (voce di

basso) e 1035 Hertz (massimo acuto accessibile alla voce di un soprano).

L’organo dell’udito si comporta come un ricevitore capace di mettere in risalto le

differenze di frequenza, intensità e timbro che caratterizzano i vari suoni.

L’orecchio può essere suddiviso in:

Orecchio esterno, costituito da un padiglione che raccoglie le onde sonore che giungono

dall’ambiente esterno e le convoglia attraverso il condotto uditivo alla membrana del

timpano che, sotto gli impulsi ricevuti dall’esterno, si mette a vibrare;

Orecchio medio, costituito dalla cassa timpanica che comunica con il retrobocca

attraverso un canale chiamato tromba di Eustachio, il quale consente – quando si apre la

bocca – di equilibrare tra loro eventuali differenti pressioni che si potrebbero avere sulle

due facce della membrana del timpano ed evitare che tale membrana si rompa sotto

l’azione di suoni particolarmente intensi. Le vibrazioni prodotte dalla membrana del

timpano vengono trasmesse dalla catena degli ossicini alla finestra ovale (membrana che

separa l’orecchio medio da quello interno). Gli ossicini sono tre, martello, incudine staffa,

ed assolvono la funzione di attenuare l’ampiezza delle vibrazioni prodotte dalla membrana

del timpano e di rafforzare le variazioni di pressione da trasmettere all’orecchio interno;

Orecchio interno, costituito da una cavità scavata nell’osso temporale, detta labirinto;

nella parte della cavità detta vestibolo sono innestati i tre canali semicircolari disposti

secondo i tre piani ortogonali dello spazio in modo da esplicare la funzione di presiedere

l’equilibrio del corpo. Da questa cavità parte la chiocciola sulle cui pareti si innesta il nervo

acustico; essa è suddivisa in tre condotti: uno centrale, chiamato canale cocleare,

riempito di un liquido detto endolinfa, ed altri due lateriali, chiamati scala vestibolare e

scala timpanica, riempiti di un altro liquido detto perilinfa. Sulla membrana basilare, situata

entro il canale coclearie, si trovano gli organi del Corti costituiti da cellule oblunghe

(pilastri) affiancati da un notevole numero di cellule acustiche che trasformano le

vibrazioni sonore in sensazioni acustiche percepibili attraverso il nervo acustico.

Secondo l’ipotesi di Helmholtz, la capacità analizzatrice dei suoni da parte dell’orecchio si

spiega col fatto che le vibrazioni dell’endolinfa eccitano, per un fenomeno di risonanza,

solo quelle cellule acustiche che posseggono la stessa frequenza di vibrazione dei suoni

percepiti.

Il campo di udibilità dell’orecchio umano normale è compreso tra le frequenze da 16 a

12.000 Hertz; eccezionalmente, soprattutto individui giovani, possono percepire anche

suoni di frequenza fino a 20.000 Hertz.

L’intensità fisica del suono percepibile dall’orecchio è caratterizzata da due soglie,

precisamente:

La soglia di udibilità che rappresenta l’energia incidente sull’unità di superficie nell’unità di

erg/cm2

tempo (espressa in x sec);

La soglia del dolore che rappresenta il valore dell’intensità fisica, superato il quale, il

suono determina nell’orecchio una sensazione dolorosa.

Sia la soglia di udibilità che quella del dolore dipendono dalla frequenza del suono. La

10-10

prima, in particolare, è una quantità di energia molto piccola, dell’ordine di circa erg/

cm2 x sec. OTTICA

Nozioni generali e fotometria

L’ottica è quella parte della fisica che studia la luce ed i fenomeni ad essa legati.

Il fenomeno luminoso è la causa delle sensazioni percepite dall’occhio; questa causa è la

luce.

Un corpo investito dalla luce si riscalda, poiché il calore è energia, è evidente che la

trasformazione di luce in calore può avere spiegazione solo ammettendo che la luce è

una particolare forma di energia. Pertanto, ogni corpo capace di inviare della luce è una

sorgente di energia luminosa.

Tra i vari tipi di sorgenti di energia luminosa ricordiamo:

Le sorgenti primarie (o corpi luminosi), che emettono una luce propria per due motivi:

Per incandescenza: sono corpi il cui calore della luce emessa è legato alla temperatura

del corpo (a 600° si ha emissione di una luce di colore rosso scuro, a 1.200° arancione

vivo, a 6000° giallo – biancastro). Si è provato che la temperatura superficiale delle stelle

varia da 1650° fino a 23.000°; il Sole ha una temperatura superficiale di 6.000°;

Per luminescenza: sono corpi che emettono luce propria a temperatura relativamente

bassa (inferiore a 400°). Vi sono due tipi di fluorescenza: la fluorescenza (che si ha

quando un corpo si trova sotto l’azione della causa che lo eccita) e la fosforescenza (che

si ha quando il corpo continua ad emettere luce, per un certo periodo di tempo più o meno

lungo, anche dopo la cessazione dell’azione eccitatrice);

Le sorgenti secondarie (o corpi illuminanti) che possono solo rinviare la luce ricevuta

dalle sorgenti primarie (es. i pianeti e la Luna che ci inviano la luce che essi ricevono dal

Sole). Ogni corpo illuminato cessa di essere visibile quando viene a mancare la luce da

parte delle sorgenti primarie.

Le sorgenti secondarie sono si dividono in:

Corpi opachi, che non si lasciano attraversare dalla luce;

Corpi trasparenti, che si lasciano attraversare dalla luce. Questi si dividono ulteriormente

in corpi diafani (se, una volta attraversati dalla luce ed osservati dalla parte opposta della

sorgente, consentono di intravedere la forma della sorgente stessa; un esempio ne è il

vetro, l’acqua, il cellophane) e translucidi (se non è possibile intravedere tale sorgente; un

esempio ne è il vetro smerigliato, la carta oleata, la maiolica). Inoltre, la distinzione tra

corpi opachi e trasparenti non può essere data esclusivamente dalla natura delle

sostanze, ma anche dal loro spessore (ad esempio, l’oro ridotto in fogli sottilissimi di

spessore 0,1 diventa trasparente).

µ

La fotometria stabilisce le leggi ed i criteri di misura dell’energia luminosa.

I suoi scopi sono quelli di valutare di valutare l’energia luminosa emessa dalla sorgente

luminosa nell’unità di tempo (potenza luminosa) e misurare come si distribuisce l’energia

luminosa quando giunge ad illuminare le superfici poste sul suo cammino (schermi).

Si consideri una sorgente puntiforme S che emette uniformemente energia luminosa in un

mezzo trasparente (dunque che non assorbe energia). Si chiama flusso luminoso F della

sorgente S, la quantità totale di energia irradiata da questa sorgente nell’unità di tempo.

Ciò premesso si definisce intensità luminosa i della sorgente, il flusso luminoso

convogliato nel cono che il vertice nella sorgente S ed un’area uguale all’unità di

superficie.

La relazione che lega intensità luminosa e flusso luminoso è data da:

Dove 4π è l’area di questa superficie.

L’unità di misura dell’intensità luminosa i, nel Sistema Internazionale, è la candela

internazionale (cd): questa è una unità pratica corrispondente alla ventesima parte

cm2

dell’intensità luminosa emessa in direzione normale alla superficie da 1 di platino alla

temperatura di fusione (1752°).

L’unità di misura del flusso luminoso F invece, nel Sistema Internazionale, è il lumen, unità

di misura corrispondente al flusso luminoso prodotto da una sorgente puntiforme di

intensità pari ad una candela internazionale, convogliato entro un cono con vertice nella

sorgente S e che intercetta nella sfera di centro S e di raggio unitario una superficie di

area unitaria.

Se si considera la stessa sorgente puntiforme S, si avrà che una sfera con centro in S e

raggio r riceverà sull’unità di superficie una quantità di energia luminosa data dal rapporto

che, tenuto conto della relazione precedente, si può esprimere come

Questa grandezza prende il nome di intensità di illuminazione I.

Dunque l’intensità di illuminazione I su di una superficie sferica di raggio r è inversamente

proporzionale al quadrato del raggio della superficie stessa.

Teniamo conto che l’illuminazione di una superficie dipende anche dall’inclinazione che

questa presenta rispetto al fascio luminoso.

L’unità di misura dell’intensità di illuminazione I è il lux (o candela – metro), unità pratica

corrispondente all’illuminazione che si ha sulla superficie di un metro quadro posto alla

distanza di un metro e colpito, in direzione normale, dai raggi di una sorgente puntiforme

di intensità luminosa pari ad una candela internazionale.

I fotometri sono strumenti che permettono di confrontare l’intensità di una sorgente

luminosa incognita con quella di un’altra sorgente luminosa di intensità nota.

La luce e la sua propagazione: velocità della luce

Un fenomeno molto semplice, dovuto alla propagazione della luce, si osserva con la

camera oscura, della quale Lo nardo da Vinci diede la prima e dettagliata descrizione. La

camera oscura è costituita da una scatola nella quale una parete è sostituita con una

lastra di vetro smerigliato; nel centro della parete opposta è praticato un piccolo forellino.

Se dinnanzi a questo si pone, ad una certa distanza, un oggetto luminoso o fortemente

illuminato, si osserva che sul vetro smerigliato si forma la sua immagine capovolta.

Il cammino della luce ha un andamento rettilineo e viene chiamato raggio luminoso.

Una sorgente luminosa puntiforme emette in tutte le direzioni infiniti raggi luminosi rettilinei.

Anche l’ombra che ogni oggetto illuminato proietta dietro di sé è legata alla propagazione

rettilinea della luce. Posizionata una sorgente puntiforme innanzi ad un oggetto opaco ed

uno schermo bianco opaco dietro l’oggetto, ci si rende conto che questa emette infiniti

raggi in tutte le direzioni, e di questi solo quella parte che è intercettata dal corpo opaco

non va ad illuminare lo schermo. Questi raggi risultano tangenti al contorno del corpo

opaco e danno luogo ad un cono d’ombra che delimiterà sullo schermo una zona

completamente oscura, dal contorno netto, chiamata zona d’ombra. Se invece la

sorgente luminosa S è estesa, si otterrà una zona d’ombra centrale oltre ad una zona più

esterna, non completamente oscura, detta zona di penombra. Quanto detto consente di

interpretare il meccanismo che presiede al fenomeno delle eclissi.

Velocità della luce

Le misure della velocità della luce, che è una delle costanti più importanti in Fisica, si sono

succedute con metodi diversi e sempre più raffinati fino ai giorni nostri. Le più moderne

determinazioni danno per la velocità della luce nel vuoto, indicata con la lettera c, il valore

108

c = 2,997925 X m/s

con un’incertezza, dovuta ad errori accidentali, solo sull’ultima cifra.

La velocità della luce nell’aria differisce di molto poco (in meno) dalla velocità nel vuoto.

Per entrambe queste velocità il valore approssimato è

∼≡ ∼≡

c 3 X 108 m/s 300.000 Km/s

Riflessione e rifrazione della luce (Ottica Geometrica)

Riflessione.

Un raggio luminoso che si propaga in un mezzo trasparente omogeneo (quali aria, acqua,

ecc.) percorre un cammino rettilineo. Se sul suo cammino incontra un corpo opaco a

superficie levigata (quale uno specchio) questo cambia direzione ossia, come si dice

comunemente, si riflette.

La riflessione della luce è quel fenomeno per cui un raggio luminoso, incontrando sul

proprio cammino un corpo opaco a superficie levigata, subisce un cambiamento di

direzione.

Si definiscono:

Raggio incidente, il raggio emesso da una sorgente luminosa che giunge alla superficie

speculare;

Angolo di incidenza i, l’angolo formato dal raggio incidente e dalla normale n alla superficie

riflettente;

Raggio riflesso, il raggio rinviato dalla superficie speculare;

Angolo di riflessione r, l’angolo formato dal raggio riflesso e dalla normale n alla superficie

riflettente.

La riflessione della luce avviene secondo le stesse leggi già enunciate in acustica per la

riflessione di un’onda sonora (essendo le onde sonore e le onde luminose entrambe onde

elastiche); dunque il raggio incidente, il raggio riflesso e la normale alla superficie

riflettente nel punto cui avviene l’incidenza giacciono sullo stesso che è perpendicolare a

detta superficie; inoltre gli angoli di incidenza i e di riflessione r sono uguale fra loro.

Rifrazione.

Quando un raggio luminoso si propaga in un mezzo omogeneo (quale aria e acqua),

esso percorre un cammino rettilineo; quando invece passa da un mezzo trasparente ad

un altro pure trasparente ma di diversa natura, tale passaggio comporta una deviazione

dei raggi luminosi dal cammino precedente: questo fenomeno prende il nome di rifrazione

della luce.

Si può così definire:

Raggio incidente, il raggio luminoso che percorre il primo mezzo;

Il raggio luminoso che percorre il secondo mezzo;

Punto di incidenza, il punto in cui il raggio incidente incontra la superficie di separazione

dei due mezzi;

Angolo di incidenza i, l’angolo che il raggio incidente forma con la normale alla superficie

di separazione dei due mezzi nel punto di incidenza;

Angolo di riflessione r, l’angolo che il raggio forma con la normale alla superficie di

separazione dei due mezzi nel punto di incidenza.

Le due leggi fondamentali della riflessione della luce sono dovute a Cartesio e sono le

seguenti:

il raggio incidente, il raggio rifratto e la normale alla superficie di separazione dei due

mezzi nel punto di incidenza giacciono sullo stesso piano;

il rapporto fra i seni dell’angolo d incidenza e dell’angolo di rifrazione è costante, ossia:

In cui n è comunemente chiamato indice di rifrazione relativo dei due mezzi e dipende

solo dalla natura dei mezzi stessi.

Poiché la luce può anche propagarsi nel vuoto ed è possibile il passaggio dei raggi

luminosi da una regione priva di materia ad un mezzo materiale; si può avere tra questi

due mezzi un indice di rifrazione chiamato indice di rifrazione assoluto.

Riflessione totale.

Si consideri un raggio luminoso che passa da un mezzo più rifrangente ad uno meno

rifrangente; noteremo che il raggio rifratto si scosterà dalla normale più del relativo raggio

incidente. Se aumentiamo l’angolo di incidenza possiamo arrivare a valori tali che il suo

corrispettivo angolo di rifrazione raggiunga 90°.

L’angolo di incidenza, a cui corrisponde un angolo di rifrazione di 90° è chiamato angolo

limite; in queste condizioni il raggio rifratto non può più oltrepassare la superficie di

separazione tra i due mezzi e viene a trovarsi nel piano determinato da essa.

Quando si viene a superare, anche di poco il valore dell’angolo limite, il raggio luminoso,

anziché rifrangersi, si riflette all’interno del mezzo più denso, e segue le leggi proprie della

riflessione: questo fenomeno prende il nome di riflessione totale.

I casi più frequenti di riflessione totale sono il miraggio, la fata morgana e l’arcobaleno.

Specchi piani e curvi

Gli specchi piani sono corpi opachi qualsiasi a superfici piane e ben levigate, capaci di

riflettere, in determinate condizioni, i raggi luminosi.

Gli specchi curvi si classificano in specchi sferici, cilindrici e parabolici.

Gli specchi sferici sono costituiti da una calotta sferica di cui una superficie è speculare.

Questi, a loro volta, si suddividono in:

concavi, quando la superficie speculare è rivolta verso il centro della calotta sferica;

convessi, quando la superficie speculare è rivolta verso la parte opposta al centro della

calotta.

Gli specchi cilindrici mantengono inalterate le immagini dell’oggetto nella direzione

parallela all’asse e le modificano nelle altre direzioni.

Gli specchi parabolici riflettono parallelamente all’asse tutti i raggi luminosi emessi da una

sorgente puntiforme posta nel fuoco F dello specchio e concentrano nel fuoco F tutti i

raggi luminosi incidenti sullo specchio parallelamente all’asse (un esempio sono i fai

dell’automobile).

I mezzi trasparenti limitati da superfici piane: dispersione ottica

Spesso può capitare che un raggio luminoso, dopo il suo passaggio da un mezzo

trasparente ad un altro, riemerge e si rifrange nuovamente in un terzo mezzo trasparente

di natura identica al primo.

Esempi sono dati da una lastra di vetro inserita in una finestra o un prisma incorporato in

una macchina fotografica o in un binocolo. Questi mezzi trasparenti sono la lastra e il

prisma ottico.

La lastra è un mezzo trasparente limitato da due superfici piane e parallele. In questa si

chiamano raggio incidente, il raggio luminoso che entra nella lastra, raggio emergente,

quello che ne esce.

Il prisma ottico è un mezzo trasparente limitato da due superfici piane che formano tra

loro un angolo chiamato angolo di rifrangenza del prisma. Quando un raggio luminoso

passa attraverso un prisma, subisce per effetto del fenomeno di rarefazione, una doppia

deviazione, e precisamente nell’entrare si avvicina alla normale alla superficie di

incidenza e nell’uscire si allontana dalla normale alla superficie di emergenza. Viene

chiamato angolo di deviazione, l’angolo formato dal raggio incidente con il raggio

emergente.

Se un raggio solare giunge sulla faccia incidente di un prisma a sezione triangolare,

questo raggio luminoso subisce una prima rifrazione; poi si propagherà nel vetro del

prisma e successivamente, prima di riemergere nell’aria, subisce una seconda rifrazione.

Intercettando il raggio luminoso emerso da uno schermo opaco, si osserva una striscia a

differenti colori ottenuti per rifrazione del raggio di luce solare attraverso il prisma. Tale

striscia è chiamata spettro e questo fenomeno è chiamato dispersione ottica. Newton

eseguì per primo questo esperimento riuscendo a dimostrare che la luce bianca solare è

una luce composta di diversi colori fondamentali: rosso, arancione, giallo, verde, azzurro,

indaco e violetto.

Le lenti

La lente è un mezzo trasparente limitato da due superfici, di cui almeno una curva.

Le lenti su suddividono in due classi fondamentali: lenti convergenti e lenti divergenti:

Nelle lenti convergenti un fascio di raggi paralleli viene rifratto e convogliato in un unico

punto F detto fuoco il quale si trova, rispetto alla lente, dalla parte opposta della sorgente

luminosa;

Nelle lenti divergenti un identico fascio di raggi luminosi viene rifratto dalla lente e fatto

divergere in modo che i prolungamenti dei vari raggi emergenti confluiscano in un unico

punto virtuale F detto fuoco il quale si trova, rispetto alla lente, dalla stessa parte della

sorgente luminosa.

Elementi geometrici fondamentali di una lente sono: l’indice di rifrazione, i centri di

curvatura, i raggi di curvatura, l’asse ottico principale, i fuochi, il centro ottico.

Le lenti sottili sono le uniche che consentono di ottenere immagini regolari di un oggetto;

anche per questo tipo di lenti valgono le distinzioni in lenti convergenti e lenti divergenti.

L’attitudine di una lente a convergere o a divergere i raggi luminosi, in particolare quelli

paralleli all’asse principale, è comunemente espressa dal valore 1/f, reciproco della

distanza focale f della lente stessa. L’espressione 1/f risulta positiva quando si tratta di

lenti convergenti per le quali si indica come positiva la distanza focale f, risulta invece

negativa quando si tratta di lenti divergenti per le quali si indica come negativa la distanza

focale f.

Il rapporto 1/f si chiama potere diottrico di una lente; la sua unità di misura è chiamata

diottria ed equivale al potere diottrico di una lente che ha un metro di distanza focale.

Gli strumenti ottici

Lo strumento ottico è qualsiasi dispositivo che serva ad aiutare l’occhio umano nella

visione.

A tale scopo sono solitamente impiegati mezzi riflettenti (specchi) e mezzi rifrangenti

(prismi e lenti), convenientemente combinati secondo le leggi dell’ottica geometrica.

Possiamo suddividere gli strumenti ottici in:

Semplici, se costituiti da una sola lente, o sistema di lenti (esempi sono dati dalla

macchina fotografica, l’apparecchio di proiezione, la lente di ingrandimento, l’occhio

umano);

Composti, se costituiti da due lenti, o sistemi di lenti, chiamate obiettivo oculare (esempi

sono dati dal microscopio, dal cannocchiale, ecc.)

Eccezion fatta per l’occhio, dei rimanenti si dà una semplice definizione:

La macchina fotografica è uno strumento ottico semplice che serve a fissare nel tempo

l’immagine di un oggetto.

L’apparecchio di proiezione è uno strumento ottico semplice che serve per ottenere su di

uno schermo l’immagine di un oggetto.

Il microscopio è uno strumento ottico composto destinato alla visione di oggetti vicini

molto piccoli (può essere semplice se costituito da un’unica lente convergente, oppure

composto se costituito da un tubo avente a ciascuna delle due estremità una lente, o

sistema di lenti, convergente e di breve distanza focale).

Il cannocchiale è uno strumento ottico composto destinato all’osservazione di oggetti

lontani (può essere astronomico, terrestre e di Galileo).

L’occhio umano: la vista

Occhio Organo della vista, sensibile alla luce e presente in molte specie animali. A

seconda del livello evolutivo raggiunto in ciascuna specie, gli occhi possono essere

semplici strutture, in grado di distinguere solo la luce dal buio, oppure organi complessi

(come nell’uomo e in altri mammiferi) capaci di distinguere anche piccole variazioni di

forma, colore, luminosità e distanza. La funzione dell’occhio è quella di tradurre le onde

elettromagnetiche della luce in impulsi nervosi che vengono trasmessi al cervello

mediante il nervo ottico.

L’occhio, o bulbo oculare, è una struttura sferoidale del diametro di circa 2,5 cm con una

sporgenza pronunciata sulla sua superficie anteriore. La parte esterna è formata da tre

strati di tessuto: il più esterno è la sclera, un rivestimento protettivo che ricopre circa

cinque sesti della superficie oculare e che, nella parte anteriore, è in continuità con la

cornea, trasparente e sporgente. Lo strato intermedio è la coroide, molto ricca di vasi

sanguigni, che riveste i tre quinti posteriori del bulbo oculare ed è in continuità con il corpo

ciliare e con l’iride che si trova nella parte anteriore dell’occhio. Infine, lo strato più interno

è la retina, sensibile alla luce.

La cornea è una membrana trasparente, convessa in avanti, costituita da cinque strati,

attraverso la quale la luce penetra all’interno dell’occhio. Dietro la cornea c’è una cavità

(camera anteriore) che contiene un liquido trasparente e acquoso, l’umor acqueo, che la

separa da una struttura, il cristallino, che rappresenta la “lente” dell’occhio. Il cristallino è

una sfera appiattita formata da un gran numero di fibre trasparenti disposte in strati; è

circondato dal muscolo ciliare, di forma circolare, a cui è collegato da alcuni legamenti.

Insieme ai tessuti circostanti, il muscolo ciliare forma il corpo ciliare che, appiattendo il

cristallino o arrotondandolo, ne modifica la lunghezza focale, cioè la distanza alla quale

esso mette a fuoco le immagini.

L’iride è una formazione circolare, pigmentata, localizzata dietro la cornea e davanti al

cristallino; essa presenta un’apertura circolare al centro, la pupilla, le cui dimensioni sono

controllate da un muscolo posto sul suo margine. Contraendosi e rilassandosi, questo

muscolo fa allargare o rimpicciolire la pupilla stessa, controllando la quantità di luce che

penetra nell’occhio. Dietro il cristallino, il bulbo oculare contiene una sostanza gelatinosa

trasparente, l’umor vitreo, racchiusa da uno strato membranoso sottile, la membrana

ialoidea. La pres s ione dell’umor v itreo mantiene il bulbo oc ulare dis tes o.

La retina è una membrana fotosensibile, formata in gran parte da cellule nervose

stratificate che poggiano, dal lato esterno della retina, su uno strato pigmentato. Queste

cellule si distinguono, a seconda del loro aspetto e della loro funzione, in coni e bastoncelli

e hanno differenti sensibilità ai colori e alla quantità di luce. I coni sono più sensibili ai

colori e permettono un’alta acutezza visiva; i bastoncelli sono più sensibili dei precedenti

alla luce e permettono la visione crepuscolare a scarsa acutezza visiva (con il termine

acutezza visiva si intende la capacità di discriminare un oggetto; essa è tanto maggiore

quanto minore è la distanza alla quale si percepiscono come separati due punti

appartenenti a quell’oggetto). Sulla retina, in perfetta opposizione alla pupilla, si trova una

piccola zona ellissoidale del diametro di circa 2,5 mm, di colore giallo, chiamata fovea

centralis: essa corrisponde alla zona di massima acutezza visiva dell’occhio. Nella fovea

le cellule fotosensibili sono rappresentate solo da coni. Intorno a essa sono presenti sia

coni sia bastoncelli; procedendo verso la periferia della zona sensibile i coni si diradano e,

all’estremità esterna, si trovano solo bastoncelli.

Nel punto in cui il nervo ottico penetra nel bulbo oculare si trova una piccola zona rotonda

di retina priva di cellule fotosensibili, la papilla ottica, che rappresenta il punto cieco

dell’occhio.

L’occhio si comporta come un sistema diottrico centrato (umor acqueo, cristallino ed

umor vitreo) applicato ad una camera oscura.

L’occhio normale è a risposo quando il muscolo ciliare non è in tensione e le due calotte

presentano il minimo grado di convergenza, ossia sono meno incurvate. In quel caso si

possono vedere distintamente gli compresi all’incirca tra i 6 metri e l’infinito.

L’occhio può comunque vedere anche al di sotto dei 6 metri in quanto è dotato di un

potere di accomodazione, dovuto al fatto che il cristallino è in grado di aumentare la

curvatura delle sue due facce.

Si chiama punto remoto dell’occhio, la distanza massima alla quale esso può distinguere

chiaramente un oggetto e punto prossimo la distanza più vicina alla quale può distinguere

invece un oggetto in virtù del massimo potere di accomodazione della vista.

Per un occhio normale di una persona in età giovanile si può ritenere come punto remoto

l’infinito e come punto prossimo una distanza di circa 15 cm dall’occhio.

La visione distinta è invece la distanza alla quale l’occhio può vedere senza che venga

richiesto un potere di accomodazione eccessivamente affaticante per la vista. Tale

distanza, sempre per un occhio normale di una persona in età giovanile, oscilla intorno ai

25 m circa dall’occhio.

L’occhio gode di una sua particolarità chiamata persistenza delle immagini sulla retina: la

durata delle persistenza è di circa 1/10 di secondo a partire dall’istante iniziale di

ricevimento della percezione visiva dell’immagine sulla retina e fino alla sua scomparsa.

Questa proprietà è utilizzata nella cinematografia per dare all’occhio la sensazione del

movimento degli oggetti mediante una proiezione sullo schermo di immagini a scatti, che

si susseguono a ritmo di circa 16 immagini per secondo.

I principali difetti di un occhio sono:

Ipermetropia, difetto caratteristico di un occhio che, a riposo, converge un fascio di raggi

paralleli in un punto situato posteriormente alla retina. L’occhio ipermetrope deve

effettuare l’accomodazione anche per oggetti lontani; la correzione di questo difetto

comporta lenti convergenti. Quando però la sfocatura dell’immagine è originata da

diminuzione del potere di accomodazione dell’occhio per avanzamento dell’età, e ciò per

un maggior irrigidimento del cristallino, il difetto della vista viene chiamato presbiopia;

Brachimetropia, difetto caratteristico di un occhio che, a riposo, converge un fascio di

raggi paralleli in un punto situato anteriormente alla retina. L’occhio brachimetrope, detto

anche miope, ha molto vicino il punto remoto e di conseguenza anche il punto prossimo,

per cui risultano a fuoco sulla retina solo immagini di oggetti vicini senza che intervenga il

potere di accomodazione dell’occhio. La correzione di questo difetto comporta lenti

divergenti;

Daltonismo, difetto caratteristico dell’occhio incapace di percepire esattamente i colori. In

genere il colore fondamentale che non viene percepito è il rosso, di modo che i colori

composti risultano falsati perché mancanti del colore non percepito (ad esempio la luce

naturale per un daltonico non è bianca ma verde). È un difetto che non può essere

corretto.

Natura ondulatoria della luce

Fino ad ora si è definita la luce come quella entità fisica che provoca le sensazioni

luminose ne nostri organi visivi; si considera adesso l’insieme dei fenomeni che

interessano la natura della luce e che normalmente vengono inquadrati nell’ottica fisica

che è quella parte della fisica che analizza la luce considerandola un’onda

elettromagnetica.

Nell’ottica fisica al termine generico di “luce” viene sostituita l’espressione più rigorosa di

radiazioni luminose.

A seguito degli studi di Maxwell, che riuscì a coordinare in una sintesi matematica tutti i

fenomeni elettromagnetici, e sorse la cosiddetta teoria elettromagnetica della luce. In

base a tale teoria le radiazioni luminose sono dovute ad oscillazioni del campo

elettromagnetico e, siccome i fenomeni elettromagnetici per propagarsi non richiedono

alcun supporto materiale, era possibile giustificare la propagazione delle radiazioni

luminose anche nel vuoto senza dovere ricorrere a postulare l’esistenza di un

problematico etere cosmico.

Con lo sviluppo degli studi sui corpi neri e sull’otomistica, la teoria della luce si rafforzò

ancor più, in particolare per opera di Max Planck, e si arrivò a postulare la teoria oggi

nota sotto il nome di teoria quantistica della luce, per cui le radiazioni luminose, oltre alle

proprietà ondulatorie, possono presentare – in particolari circostanze – anche

caratteristiche di tipo corpuscolare.

Le grandezze caratteristiche di un’onda luminosa sono:

La frequenza v, ossia il numero di vibrazioni nell’unità di tempo;

Il periodo T, ossia il tempo impiegato a compiere una vibrazione completa che si può

esprimere con

La lunghezza d’onda λ, ossia lo spazio percorso dall’onda in un intervallo di tempo pari ad

un periodo che possiamo esprimere con

Dove v è la velocità della propagazione dell’onda luminosa in un dato mezzo.

Di queste tre grandezze, la frequenza di una vibrazione luminosa è indipendente dal

mezzo in cui avviene la propagazione della luce ed è caratteristica del colore di una

sostanza, così come viene percepito dal nostro occhio. Questo perché la frequenza di

una luce monocromatica con il passare dal rosso al violetto, varia di frequenza da un

1014 1014

valore di circa 3,75 x Hz ad un valore di circa 7,50 x Hz.

Le radiazioni

Il fenomeno della dispersione ottica osservato, ha messo in evidenza come la luce bianca

solare sia un tipo di luce policromatica, cioè costituita dalla sovrapposizione di un certo

numero di luci monocromatiche (cioè di un unico colore) che vanno, nello spettro visibile,

dal rosso al violetto.

Nello spettro solare sono preseti in prevalenza le radiazione infrarosse, luminose ed

ultraviolette. Tra queste radiazioni luminose quelle comprese tra il rosso ed il violetto sono

chiamate radiazioni visibili, mentre quelle non percepibili con il nostro occhio, ossia quelle

infrarosse e quelle ultraviolette, sono denominate radiazioni visibili.

Le radiazioni infrarosse sono radiazioni dotate di proprietà colorifiche che hanno una

frequenza minore delle radiazioni situate all’estremo rosso dello spettro e, non essendo

percepite dal nostro occhio, sono rilevabili, ad esempio, con lastre fotografiche

opportunamente sensibilizzate oppure con ricevitori termici connessi con apparecchi

elettronici (le radiazioni infrarosse sono quelle emesse dal Sole e da qualunque altro

corpo caldo anche non luminoso, quale può essere ad esempio una stufa e, pertanto,

anche il cosiddetto calore raggiante è costituito da radiazioni infrarosse).

Le radiazioni ultraviolette sono radiazioni dotate della proprietà chimica di impressionare

una lastra fotografica e di rendere fluorescenti alcune sostanze (ad esempio il platino –

cianuro di bario che, investito da esse, emette radiazioni verdi e gialle). Le radiazioni

ultraviolette hanno una frequenza maggiore delle radiazioni situate all’estremo violetto

dello spettro e sono presenti nella luce solare. Sorgenti intense di radiazioni ultraviolette

possono essere prodotte anche da speciali lampade a vapori di mercurio per particolari

scopi terapeutici.

L’interferenza e diffrazione della luce

L’interferenza della luce è quel fenomeno ottico per cui due raggi luminosi, quando

giungono ad uno schermo percorrendo due cammini di differente lunghezza, producono

su detto schermo delle strisce alternate chiare ed oscure, corrispondenti ad onde che

giungono su di esso in concomitanza od opposizione di fase.

Queste strisce prendono il nome di frange di interferenza.

La diffrazione della luce si ha quando un sottile fascio luminoso attraversa una fenditura di

ampiezza ridottissima e regolabile e prosegue il suo cammini andando a colpire uno

schermo opportunamente esposto. Su questo schermo non si osserverà una zona netta

di luce, ma una serie di strisce parallele, alternativamente illuminate ed oscure. Queste

strisce prendono il nome di frange di diffrazione.

La legge della rifrazione, ha validità per sostanze omogenee e per i cristalli isotropi; nei

cristalli anisotropi (ossia con proprietà differenti nelle diverse direzioni), che sono i più

diffusi, salvo qualche direzione privilegiata, un fascio luminoso di sdoppia e dà luogo a

due raggi rifratti: questo fenomeno prende il nome di birifrazione e le sostanze che si

comportano in questo modo prendono il nome di sostanze birifrangenti.

In alcuni cristalli, quale per esempio lo spato d’Islanda o la tormalina, uno di questi due

raggi, chiamato raggio ordinario, segue la legge della rifrazione, l’altro raggio, chiamato

raggio straordinario, non la segue affatto.

Polarizzazione

L’interferenza e la diffrazione della luce stabiliscono la natura ondulatoria del fenomeno

luminoso ma non consentono di stabilire se le onde luminose sono longitudinali o

trasversali. Una risposta di questo genere è data dal fenomeno della polarizzazione della

luce, in base alla quale le onde luminose sono onde trasversali nelle quali le vibrazioni, di

carattere elettromagnetico, avvengano in piani perpendicolari alla direzione della

propagazione della luce.

Una esperienza che riguarda questo fenomeno è la cosiddetta esperienza della

tormaline.

Considerato un cristallo C1 di tormalina (sostanza isotropa) dello spessore di circa 1 mm

si fa giungere sopra un fascio di luce naturale (luce solare). Se si ruota il cristallo intorno

ad un asse coincidente con la direzione dei raggi incidenti, i raggi luminosi emergeranno

con una intensità di luce minore di quella del raggio incidente e con una colorazione

verde. Se adesso, parallelamente al cristallo C1 , si dispone un secondo cristallo C2 –

anch’esso di tormalina – e lo si fa ruotare, si vede che il raggio luminoso emergente si

indebolis c e pr ogr es s iv amente fino ad es tinguer s i quando C s i inc r oc ia

2

perpendicolarmente con C1.

Questa esperienza dimostra che, mentre in un raggio di luce naturale le vibrazioni

avvengono in qualsiasi direzione, ma sempre normalmente alla direzione di

propagazione, quando invece lo stesso raggio luminoso attraversa un cristallo

birifrangente, come la tormalina C1, le vibrazioni luminose risultano scomposte in due

componenti secondo due piani tra loro normali. Queste componenti costituiscono, una il

raggio ordinario che viene assorbito dalla tormalina, l’altra il raggio straordinario che

attraversa il cristallo e ne riemerge con le vibrazioni contenute tutte in un determinato

piano fisso; quest’ultimo raggio si estingue solo quando i due cristalli si trovano in

posizioni tra loro perpendicolari. Comunemente il primo cristallo C1 è chiamato

polarizzatore il secondo cristallo C2 è chiamato analizzatore.

Tra i tipi più importanti di polarizzazione della luce possiamo segnalare la polarizzazione

rettilinea e la polarizzazione rotatoria:

La polarizzazione rettilinea consiste nel fenomeno per cui le vibrazioni luminose

avvengono secondo spostamenti perpendicolari alla direzione di propagazione e la

direzione in cui avviene la vibrazione, detto piano di vibrazione. Il piano che passa per la

direzione di propagazione ed è normale a quello di vibrazione, viene chiamato piano di

polarizzazione. Si può ottenere una polarizzazione rettilinea, ad esempio di un raggio di

luce solare naturale, per:

Riflessione tra due specchi paralleli o tra due specchi incrociati, di cui uno specchio fa da

polarizzatore e l’altro da analizzatore.;

Rifrazione, mediante un blocco di vetro o mediante più lastre di vetro sovrapposte che

fanno da polarizzatore, mentre per analizzatore possiamo utilizzare un cristallo di

tormalina;

Doppia rifrazione, ottenibile con i cristalli di spato d’Islanda che si comportano come

cristalli birifrangenti in quanto ogni vibrazione viene scomposta secondo due componenti

tra loro perpendicolari che si propagano nel cristallo separatamente l’una dall’altra;

La polarizzazione rotatoria consiste nella proprietà che hanno alcune sostanze di far

ruotare il piano di vibrazione di un raggio di luce polarizzata rettilineamente. Il quarzo è tra

le sostanze dotate di potere rotatorio: basta una lamina di quarzo tagliata

perpendicolarmente al proprio asse di cristallizzazione perché le vibrazioni orientate di

una luce polarizzata subiscano una rotazione angolare. Questo potere rotatorio è

caratteristico di ogni sostanza e dipende anche dal suo spessore; vi sono alcune

sostanze, dette destrogire, che fanno ruotare il piano di vibrazione in senso contrario alle

lancette dell’orologio. Il polariscopio è uno strumento che serve per riconoscere quando

una luce è polarizzata.

Spettroscopia

In base al fenomeno della dispersione ottica, la luce solare può essere decomposta,

mediante un prisma di vetro, nelle diverse luci monocromatiche che la compongono, e

come sia possibile raccogliere su uno schermo tali componenti monocromatiche note col

nome di sette colori dell’iride (rosso, arancione, giallo, verde, azzurro, indaco e violetto).

Questa stessa immagine ottenuta per rifrazione prende il nome di spettro mentre lo

strumento atto ad osservare gli spettri prende il nome di spettroscopio.

Gli spettri si dividono in:

Spettri continui, prodotti da luci emesse da un solido o da un liquido che, portati

all’incandescenza, emettono radiazioni di tutte le lunghezze d’onda;

Spettri discontinui, prodotti da luce emessa da gas o vapori portati all’incandescenza. In

questi spettri si osservano, su un campo scuro, una o più righe luminose a contorno ben

definito e di colore determinato secondo la natura delle sostanze esaminate; queste righe

sono tanto più sottili quanto lo è la fenditura di cui sono l’immagine. Se dette righe sono

distanti l’una dall’altra abbiamo uno spettro a righe mentre se sono più vicine abbiamo uno

spettro a bande

Spettri di assorbimento, prodotti da gas o vapori a qualsiasi temperatura, frapposti tra una

sorgente di luce emessa da un solido incandescente ad una temperatura notevolmente

più elevata e la fenditura di uno spettroscopio.

Corpo nero

Ogni corpo, portato all’incandescenza, emette uno spettro di radiazioni. Su questo

argomento Kirchhoff concentrò alcuni suoi importanti studi.

Si definisce:

Potere emissivo e di un corpo, la quantità di energia luminosa che viene emessa dalla

sua unità di superficie quando detto corpo di trova ad una data temperatura;

Potere assorbente a di un corpo, il rapporto tra la quantità di luce assorbita da detto

corpo e la quantità di luce che arriva su di esso.

In tutti i corpi vale la legge di Kirchhoff: il rapporto fra il potere emissivo ed il potere

assorbente è lo stesso per tutti i corpi, ossia

Dove k assume il significato di una costante universale.

Per definizione il massimo valore del potere assorbente è l’unità; esso è caratteristico di

quel corpo che assorbe tutte le radiazioni che giungono ad esso.

Un corpo che presenti la proprietà di avere potere assorbente a = 1 per tutte le frequenze

delle radiazioni e per tutte le temperature è chiamato corpo nero.

Colori e colorimetria

Il colore non è altro che un modo particolare di percepire da parte del nostro occhio le

diverse lunghezze d’onda della luce.

Il colore di un corpo raramente è dato da vibrazioni luminose di una sola frequenza (luce

monocromatica); di solito i colori risultano dalla sovrapposizione di più luci

monocromatiche comprese in un campo di determinate frequenze (luce policromatica).

Vediamo di capire il significato di colore di un corpo:

Se un corpo è luminoso e possiede una temperatura piuttosto elevata, questo emette una

luce propria (un corpo allo stato solido o liquido a temperature superiori a 500° C) ed in tal

caso il colore gli viene dato dalla risultante delle radiazioni emesse dal corpo. Se un corpo

è opaco, cioè si trova illuminato o per diffusione (un foglio di carta) o per trasparenza (un

vetro colorato), riceve una luce da una sorgente esterna ed allora il colore gli viene dato

dalle radiazioni luminose che il corpo non assorbe, ma rinvia al nostro occhio. In questo

ultimo caso il colore risulta dalla riflettenza del corpo che è la frazione di luce incidente

che viene riflessa.

Come condizione esterna si ottiene la sensazione di bianco se il colore risulterà dalla

sovrapposizione di tutte le diverse radiazioni comprese nella gamma delle frequenze

d’onda luminose; si ottiene invece la sensazione di nero se ci sarà una completa

mancanza di radiazioni luminose.

La colorimetria è quella parte dell’ottica che si occupa della valutazione dei colori; questa

stabilisce una classificazione dei colori basata sulle seguenti proprietà:

Tinta, ossia la proprietà che è legata particolarmente alla lunghezza d’onda determinante

della luce. Questa consente di giudicare se un corpo possiede, ad esempio, un colore

rosso, verde, azzurro;

Saturazione, ossia la proprietà che è legata particolarmente alla purezza della luce.

Questa consente di individuare le varie sfumature della tinta posseduta da un corpo, ad

esempio, per un corpo verde l’eventuale sfumatura verde – oliva, verde – acqua marina,

verde – bandiera, ecc.;

Brillanza, ossia la proprietà che è legata particolarmente al flusso luminoso della

sorgente. Questa consente di stabilire se un dato colore è, per confronto, equivalente ad

un altro già catalogato in una gamma di grigi neutri che vanno dal bianco (massima

brillanza) al nero (minima brillanza).

TERMODINAMICA

Termometria

La termometria è la parte di della fisica che si occupa della temperatura.

La temperatura è la misura della concentrazione di calore in un corpo; è legata alle

caratteristiche chimiche e fisiche del corpo.

Un oggetto riscaldato o raffreddato subisce il fenomeno della dilatazione termica. Il

termoscopio è uno strumento che si basa su questo principio e permette la misurazione

delle variazioni di temperatura, ma non la quantità di temperatura.

Scale termometriche.

Come tutte le grazie fisiche, anche per la temperatura esistono diverse unità di misura

che, in tal caso, danno luogo alle cosiddette scale termometriche.

Le scale principali sono di tre tipi:

Celsius o Centigrada (°C);

Fahrenheit (°F);

Kelvin (K).

Le scale Celsius e Fahrenheit sono basate su due punti fondamentali: la temperatura di

fusione del ghiaccio e quella di ebollizione dell’acqua.

In una scala termometrica è possibile suddividere l’intervallo di tempo compreso tra due

punti fissi in parti uguali poiché la legge di variazione è di tipo lineare.

Nel caso della scala Celsius alla temperatura di fusione del ghiaccio corrisponde 0; a

quella di ebollizione 100. Tra le due temperature sono compresi 100°C.

Nel caso della scala Fahrenheit alla temperatura di fusione del ghiaccio corrisponde 32; a

quella di ebollizione 212. Tra le due temperature sono compresi 180° Fahrenheit.

Indicate con tc e tf rispettivamente le temperature in gradi Celsius e Fahrenheit, le

formule per passare da una temperatura all’altra e viceversa, sono le seguenti:

L’unità base della temperatura nel Sistema Internazionale è il kelvin (simbolo: K).

Un kelvin è definito come 1/273,16 della temperatura del punto triplo dell’acqua (il punto in

cui acqua, ghiaccio e vapore coesistono in equilibrio).

La temperatura 0 K è detta zero assoluto e corrisponde al punto in cui le molecole e gli

atomi hallo la minore energia termica possibile.

Non esiste un sistema macroscopico che abbia temperatura inferiore allo zero assoluto.

Nella applicazioni quotidiane è spesso conveniente usare la scala Celsius. In questa

scala una differenza di temperatura di 1 grado è pari ad 1 K; ne consegue che la scala

Celsius è essenzialmente la stessa della kelvin, ma con uno scostamento della

temperatura a cui l’acqua congela di 273,16 K.

Per la conversione dei gradi Celsius in kelvin e viceversa si adopera pertanto la seguente

tabella:

Tk = Tc + 273,16

Chiaramente per passare da gradi Fahrenheit a Kelvin, e viceversa, o si passa per i gradi

Celsius oppure si lascia al lettore l’onere di ricavare la relativa formula di trasformazione.

Altre scale di misurazione della temperatura sono la Rankine e la Reaumur.

Misurazione della temperatura

Esistono diversi metodi per la misurazione della temperatura. La maggior parte di essi si

basa sulla misurazione di una delle proprietà fisiche di un dato materiale, che varia con la

temperatura. Uno degli strumenti più comuni è il termometro a vetro. Esso consiste di un

tubicino di vetro riempito di mercurio o un altro liquido. L’incremento di temperatura

provoca l’espansione del liquido e la temperatura è determinata misurando il volume del

fluido. Questi termometri possono essere calibrati, in modo che sia possibile leggere le

temperature su una scala graduata, semplicemente osservando il livello del fluido nel

termometro.

Altri strumenti importanti per la misurazione della temperatura sono:

Termometri a gas

Termocoppie

Termistori

Pirometri

Altri termometri

Dilatazione termica.

La dilatazione termica è il fenomeno fisico secondo il quale un materiale subisce una

deformazione di allungamento o accorciamento per effetto della variazione di

temperatura.

Si possono avere tre tipi di deformazione:

Lineare: avviene solo in una direzione;

Superficiale: avviene in 2 direzioni;

Volumetrica: avviene in 3 direzioni.

La relazione che permette di calcolare la dilatazione lungo una direzione è la seguente:

L = l x (1 + λ x t)

Dove:

λ = coefficiente di dilatazione lineare del corpo (costante a seconda del materiale di cui è

costituito l’oggetto);

L = lunghezza al termine della dilatazione;

l = lunghezza iniziale a temperatura 0 °C;

t = temperatura.

L’unità di misura del coefficiente di dilatazione lineare λ è:

λ = [ 1/C°]

Calorimetria

La Calorimetria è la parte della fisica che si occupa del calore intenso come trasferimento

di energia tra due corpi che si trovano inizialmente a temperature diverse.

Il calore è energia, pertanto la sua unità di misura nel Sistema Internazionale è il Joule,

tuttavia un parametro importante adoperato in fisica è la caloria.

Si definisce caloria (cal), la quantità di calore, rimane all’interno di esso e va ad

aumentare la temperatura di un grammo di acqua distillata di un grado e precisamente da

14,5 °C a 15,5 °C.

Come unità di misura spesso si adopera un multiplo della caloria, la chilocaloria (Kcal) =

1000 cal.

L’energia che un corpo assorbe sotto forma di calore, rimane all’interno di esso e va ad

aumentare la sua energia interna.

La relazione tra caloria e joule è la seguente:

1 cal = 4,186 J

Ne consegue pertanto che per innalzare di 1 °C la temperatura di 1 Kg di acqua

occorrono 4186 joule.

Capacità termica e calore specifico

Si è visto che il passaggio di calore avviene quando vi è una variazione di temperatura. Si

consideri dunque un corpo di massa m soggetto ad una variazione di temperatura Δt. La

quantità di calore Q trasmessa, è direttamente proporzionale alla massa e alla variazione

di temperatura a meno di una costante che dipende dal tipo di sostanza e che prende il

nome di calore specifico della sostanza c.

La conseguenza di quanto appena affermato è la legge fondamentale della calorimetria:

Q = m . c . Δt

Per capire il significato del calore specifico si può partire dalla suddetta relazione

considerando un corpo di massa m = 1g che subisce una variazione di temperatura Δt =

1 °C, in tal caso la legge fondamentale della calorimetria diventa

Q = c

Da cui risulta che, il calore specifico è la quantità di calore necessaria per innalzare di 1

°C, 1g di quella determinata sostanza.

In termini più semplici si può affermare che il calore specifico è il numero di calorie

posseduto da un corpo.

L’unità di misura del calore specifico si ottiene ricavando c dalla legge fondamentale della

calorimetria:

Nel S.I. l’unità di misura del calore specifico è J/Kg . K

Nel sistema C.G.S., invece, l’unità di misura è cal/g . °C

Calorimetro

Il calorimetro è uno strumento utilizzato per la misurazione della qualità di calore

trasmessa oppure del calore specifico.

La forma più semplice e diffusa (calorimetro di Regnault) è costituita da un recipiente

termicamente isolato dall’esterno (da cui il termine adiabatico), contenente una quantità

nota di acqua e corredato di un agitatore (per rendere uniforme la temperatura dell’acqua)

e un termometro. All’interno è immerso un corpo il quale, cedendo calore all’acqua, si

riscalda fino al raggiungimento dell’equilibrio termico.

All’equilibrio il calore ceduto dal corpo è uguale a quello acquistato dall’acqua.

Conoscendo la massa del corpo, il calore specifico e misurando col termometro

l’innalzamento della temperatura dell’acqua, è facile di calore ceduta applicando la legge

fondamentale della calorimetria.

Se invece è nota la quantità di calore trasmessa, la massa del corpo e la temperatura

iniziale, è possibile calcolare il calore specifico del corpo.

U altro parametro importante utilizzato in calorimetria è la capacità termica C, che

permette di svincolare la legge fondamentale della calorimetria della massa del corpo.

Infatti:

Q = m . c. Δt

Ponendo:

C = m . c

Si ottiene:

Q = C . Δt

Pertanto, la capacità termica è la quantità di calore necessaria per innalzare di 1 °C la

massa della sostanza, pertanto essa è data dal prodotto del calore specifico per la

massa del corpo.

Nel S. I. l’unità di misura del calore specifico è J/K.

Nel sistema C.G.S. l’unità di misura è cal/°C.

Sorgenti calore.

Si definisce sorgente di calore un corpo in grado di acquista o cedere quantità di calore

senza che la sua temperatura subisca variazioni.

Ciò è possibile solo se il corpo possiede una massa enorme, pertanto le sorgenti di

calore più importante sono il Sole ed il mare.

Trasmissione del calore

I meccanismi secondo i quali avviene la trasmissione del calore, sono tre:

Conduzione;

Convenzione;

Irraggiamento.

Conduzione

La conduzione termica è la trasmissione di calore da un estremo all’altro di un corpo

solido senza che vi sia movimento oppure alterazioni macroscopiche del corpo stesso.

Un classico esempio è il riscaldamento con una fiamma di una sbarra di metallo ad

un’estremità tenendola ferma dall’altra. Si nota che dopo un po’ di tempo la sbarra inizia a

riscaldarsi fino a scottare.

Il fenomeno si può spiegare fisicamente considerando gli atomi del metallo a contatto con

il fuoco. Queste particelle per effetto del calore iniziano a vibrare sempre più rapidamente

ed urtano quelle adiacenti; si crea in tal modo un effetto domino verso gli atomi più lontani

la cui intensità è sempre maggiore. Il risultato è che, aumentando l’energia cinetica media

di tutte le molecole, si innalza la temperatura della sbarra.

Tutte le sostanze conducono il calore in modo più o meno efficiente. Buoni conduttori di

calore sono i metalli mentre cattivi conduttori (detti anche isolanti termici), che offrono una

notevole resistenza al passaggio del calore, sono il legno e il vetro.

La trasmissione del calore per conduzione segue la legge di Fourier:

Dove:

Q è la quantità di calore che passa attraverso il corpo;

t è il tempo impiegato a trasmettere Q;

S è la superficie del corpo;

ΔT è la variazione di temperatura;

Δx è lo spessore del corpo;

k è una costante caratteristica del tipo di materiale detta conducibilità termica.

Il coefficiente di conducibilità termica è una grandezza che caratterizza la capacità di una

sostanza di condurre calore. Nel S.I. si misura in watt/m °C.

Convenzione

La convenzione termica è la trasmissione di calore propria dei fluidi, infatti il trasferimento

di calore è accompagnato da uno spostamento di materia.

La convenzione può essere di due tipi:

convenzione naturale: il fluido messo a contatto con un corpo a temperatura differente

scambia calore con questi; la differenza di temperatura produce una variazione di densità

nel fluido che lo induce a muoversi per ristabilire l’equilibrio termico;

convenzione forzata: il movimento del fluido non è naturale ma viene imposto (ad

esempio attraverso la differenza di pressione).

La legge che segue il fenomeno della convenzione termica è la seguente:

q = . ΔT

α

dove:

q è la quantità di calore trasportata per unità di superficie;

ΔT è la variazione di temperatura;

è un coefficiente particolare detto coefficiente di convenzione.

α

Un classico esempio di convenzione si ha mettendo una pentola d’acqua su una fiamma:

si creano al suo interno dei moti convettivi, che trasportano verso l’alto le molecole

“calde” e verso il basso le molecole “fredde”.

Irraggiamento

L’irraggiamento è la trasmissione di calore nel vuoto.

La differenza sostanziale con la conduzione e la convenzione è che in tal caso non è

necessaria la presenza di materia.

L’energia del Sole che arriva sulla Terra viaggia attraverso lo spazio interplanetario, che è

quasi del tutto privo di materia, pertanto essa è l’esempio più classico di trasmissione del

calore per irraggiamento.

Nell’irraggiamento la trasmissione di energia avviene attraverso l’emissione e

l’assorbimento di radiazione elettromagnetica.

Le radiazioni sono emesse per effetto dell’agitazione molecolare derivante dal

riscaldamento dei corpi.

È importante in fisica l’irraggiamento del corpo nero.

Legge e comportamento dei gas preferiti

Legge di Boyle – Mariotte

Un gas differente da un liquido per la sua notevole compressibilità. Mantenendo la

temperatura costante, Boyle e Mariotte, indipendentemente l’uno dall’altro, enunciarono

nel 1676 una legge che stabilisce la relazione tra volume e pressione di un gas.

Le legge di Boyle – Mariotte: il volume occupato da una data massa di gas, tenuta a

temperatura costante, è inversamente proporzionale alla pressione .

Indicando con p la pressione del gas e con V il suo volume, la legge si esprime con la

formula:

p . V = costante

La legge di Boyle – Mariotte non è rigorosamente esatta ma può essere impiegata con

sufficiente buona approssimazione per pressioni non troppo elevate e per i gas

difficilmente liquefacibili (azoto, ossigeno, idrogeno), cioè per quei gas che si avvicinano il

più possibile alle caratteristiche di un gas perfetto.

Legge di Dalton

Dalton estese poi la legge di Boyle – Mariotte ai miscugli gassosi enunciando la seguente

legge.

Legge di Dalton: la pressione totale esercitata da un miscuglio di due o più gas è uguale

alla somma delle pressioni parziali che i singoli gas componenti il miscuglio

eserciterebbero nel caso in cui ogni gas occupasse da solo tutto il volume dell’intero

recipiente o, più sinteticamente, la pressione di una miscela di gas è uguale alla somma

delle pressioni parziali dei gas componenti.

Leggi di Gay – Lussac

La prima legge di Gay – Lussac, nota come legge di Charles, afferma che: in condizioni di

pressione costante, il volume di un gas aumenta linearmente con la temperatura .

Se si ha un gas di volume V, alla temperatura T, in base alla suddetta legge, in condizioni

di pressione costante, dovrà aversi:

La seconda legge di Gay – Lussac, afferma che: in condizione di volume costante, la

pressione di un gas aumenta linearmente con la temperatura.

Se si ha un gas con pressione P, alla temperatura T, in base alla suddetta legge, in

condizioni di volume costante, dovrà aversi:

Le leggi prendono il nome dal chimico – fisico francese Joseph Louis Gay – Lussac

(1778 – 1850), che le formulò nel 1802.

Equazione di stato dei gas perfetti

Un gas perfetto è un modello ideale di gas per il quale valgono le tre leggi fisiche appena

viste:

Legge di Boyle – Mariotte;

Prima legge di Gay – Lussac;

Seconda Legge di Gay – Lussac.

In particolare un gas perfetto o ideale possiede le seguenti proprietà:

ciascuna molecola ha volume trascurabile rispetto al volume occupato dal gas;

non esistono forze di interazione intermolecolare tra le molecole del gas;

gli urti tra le molecole sono molto rari (come se non ci fossero);

l’energia cinetica media delle molecole del gas è direttamente proporzionale alla

temperatura.

La relazione che esprime il comportamento dei gas perfetti si ottiene correlando le tre

leggi fondamentali, dalla quali si ottiene l’equazione di stato dei gas perfetti: PV = n RT

Dove

P è la pressione del gas;

V è il volume occupato;

N è il numero di moli di gas;

T è la temperatura del gas (in Kelvin);

R è una costante universale che dipende dal sistema di unità di misura adoperato.

Il valore di R nel sistema Internazionale è 8,3145 J(mole . K); nei calcoli si utilizza spesso

anche il valore di 0,0821 l . atm/(mole . K).

I gas reali vengono descritti dalla legge dei gas perfetti con buona approssimazione solo

in determinate condizioni sperimentali. In casi contrario si usa la Legge dei gas reali.

Gli stati di aggregazione della materia e i loro cambiamenti

Gli stati di aggregazione

La materia si presenta sotto tre stati fisici:

Solido

Liquido

Aeriforme (gas e vapori)


PAGINE

110

PESO

935.49 KB

AUTORE

luca d.

PUBBLICATO

+1 anno fa


DESCRIZIONE APPUNTO

Appunti di Fondamenti della Fisica sui seguenti argomenti: la misura, unità fondamentali e unità derivate, unità e campioni fondamentali, i limiti delle misure, unità derivate e misurazioni soggettive, la misura come l'indicazione quantitativa di una grandezza se interrelata ad un'unità di misura.


DETTAGLI
Corso di laurea: Corso di laurea in scienze della formazione primaria
SSD:
Università: Firenze - Unifi
A.A.: 2008-2009

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher luca d. di informazioni apprese con la frequenza delle lezioni di Fondamenti della Fisica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Firenze - Unifi o del prof Bonechi Lorenzo.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea in scienze della formazione primaria

Riassunto esame fisica sperimentale, prof. Straulino, libro consigliato Lezioni di astronomia. Per gli studenti di Scienze della formazione primaria, Straulino
Appunto
Riassunto esame fisica sperimentale, prof. Straulino, libro consigliato Vita di Galileo, Brecht
Appunto
Appunti di fisica sperimentale, prof. Samuele Straulino
Appunto