Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

Centro di gravità di un corpo, equilibrio e sue classificazioni

Il peso di un punto materiale è una forza applicata al punto e diretta verticalmente verso il

basso, ossia verso il centro della Terra. Un corpo esteso può essere visto come

l’insieme di un grandissimo numero di particelle talmente piccole da poter essere

assimilate a dei punti materiali, ognuna delle quali ha un peso. L’insieme di queste forze –

peso costituisce un insieme di forze parallele e accordi che equivalgono ad un’unica

risultante che è il peso del corpo. Questa risultante è una forza, diretta verticalmente

verso il basso, la cui intensità è pari alla somma delle intensità di tutte quelle componenti.

Il suo punto di applicazione è detto baricentro o centro di gravità del corpo. Se un corpo è

vincolato in un punto, il suo centro di gravità non può discendere solamente se il centro di

gravità ed il punto di vincolo si trovano sulla stessa verticale: solamente in questa

condizione il corpo sarà in equilibrio.

La condizione “punto fisso e centro di gravità sulla stessa verticale” si verifica in tre

diversi modi:

centro di gravità al di sotto del punto fisso;

centro di gravità al di spora del punto fisso;

centro di gravità coincidente con il punto fisso;

In ogni caso il corpo sarà in equilibrio ma si tratterà di un equilibrio diverso.

Nel primo caso, ossia col centro di gravità posto sotto il punto fisso, se si allontana il

corpo dalla sua posizione di equilibrio, l’azione del peso tende a riportarvelo. In questo

caso parleremo di equilibrio stabile.

Nel secondo caso, ossia col centro di gravità posto sopra il punto fisso, se si allontana il

corpo dalla sua posizione di equilibrio, l’azione del peso tende ad allontanarlo

maggiormente e a portare il centro di gravità al di sotto del punto fisso. In questo caso

parliamo di equilibrio instabile.

Nel terzo caso, ossia col centro di gravità coincidente col punto fisso, la forza peso è

applicata proprio al punto vincolato (punto fisso), il corpo è sempre in equilibrio,

qualunque sia la sua posizione. In questo caso parleremo di equilibrio indifferente.

Nell’equilibrio indifferente uno spostamento non alza ne abbassa il centro di gravità,

nell’equilibrio stabile lo innalza, nell’equilibrio instabile lo abbassa; dunque il centro di

gravità tende ad occupare la posizione più bassa possibile.

Per quanto riguarda l’equilibrio di un corpo pesante, consideriamo tre casi:

Corpo pesante poggiante su di un piano: la condizione caratteristica di equilibrio si ha

quando la verticale che passa per il baricentro è contenuta nella base di appoggio del

corpo, ossia si trova entro la linea chiusa che congiunge i punti esterni di appoggio sul

piano. Le condizioni di equilibrio che si possono avere sono sempre quelle di equilibrio

stabile, instabile ed indifferente.

Corpo pesante sospeso per un punto, chiamato centro di sospensione del corpo: la

condizione caratteristica si ha quando il centro di sospensione ed il baricentro del corpo

si trovano entrambi sulla stessa verticale. Anche qui valgono le condizioni di equilibrio

stabile, equilibrio indifferente, equilibrio instabile.

Corpo pesante girevole intorno ad un asse: la condizione di equilibrio si ha quando la

verticale e l’asse di rotazione giacciono su uno stesso piano. Si possono presentare due

casi:

La verticale e l’asse di rotazione sono paralleli per cui si ha equilibrio indifferente (es. la

porta che gira sui cardini);

La verticale e l’asse di rotazione sono sullo stesso piano ma si incontrano in un punto,

per cui si possono presentare i tre differenti tipi di equilibrio, ossia stabile se il baricentro è

sotto l’asse, instabile se è sopra l’asse ed indifferente se è sull’asse.

Macchine e leve

Si definisce Macchina un dispositivo che serve a vincere, con una data forza, una forza

resistente da essa per intensità e direzione.

Ad ogni macchina sono applicate due forze: la forza resistente, da vincere e la forza

motrice che serve a vincere la forza resistente, comunemente chiamata (seppur

impropriamente) potenza.

In fisica si studiano le cosiddette macchine semplici che costituiscono gli elementi base

con cui sarà possibile costruire macchine più complesse.

Si definisce vantaggio di una macchina, il rapporto tra resistenza e potenza.

Tutte le macchine si possono ricondurre a due tipi fondamentali, opportunamente

combinati: la leva e il piano inclinato.

LEVA. La leva è un corpo rigido, in genere di forma oblunga, capace di ruotare intorno ad

un asse fisso, detto fulcro. Si può dunque affermare che la leva è una macchina che

permette l’equilibrio di forze diverse grazie all’azione di un vincolo (il fulcro).

In due punti della leva agiscono la forza resistente da vincere, e la forza motrice che

serve a vincere quella resistenza solitamente diversa in modulo e direzione. La leva,

sotto l’azione di queste due forze, è in equilibrio soltanto se il momento della forza motrice

rispetto al fulcro è uguale ed opposto al momento della forza resistente.

Affinché una leva sia in equilibrio è necessario e sufficiente che la forza motrice e

la forza resistente siano inversamente proporzionali ai rispettivi bracci rispetto al

fulcro.

Pertanto per equilibrare una forza resistente si può applicare una forza motrice anche

molto piccola, purché il suo braccio sia sufficientemente grande.

A seconda della posizione relativa del fulcro e delle due forze applicate ad una leva, si

distinguono tre specie di leve:

Leva di primo genere – o interfissa - il fulcro si trova tra la forza resistente e la forza

motrice; questo tipo di leva può presentare vantaggio quando il braccio della forza

resistente è minore del braccio della forza motrice. Sono esempi di leva di primo genere il

palanchino, le forbici, la bilancia, ecc.

Leva di secondo genere - o interresistente – la forza motrice si trova tra il fulcro e la

forza resistente; questo tipo di leva presenta sempre vantaggio poiché il braccio dell

afroza resistente è sempre minore del braccio della forza motrice. Sono esempi di leva di

secondo genere la carrucola, lo schiaccianoci, il remo della barca, ecc.

Leva di terzo genere – o interpotente – la forza motrice si trova tra il fulcro e la forza

resistente; questo tipo di leva presenta svantaggio in quanto il braccio della forza

resistente è sempre maggiore del braccio della forza motrice. Sono esempi di leva di

terzo genere l’avambraccio dell’uomo (dove il fulcro è il gomito, la potenza è esercitata dai

muscoli del braccio e la resistenza è quella applicata dalla mano), le molle del braciere,

ecc.

Da queste considerazioni possiamo così osservare che:

la stadera è una leva di primo genere in cui il fulcro è il punto di rotazione del gancio di

sostegno, la forza resistente è il carico appeso al gancio e la forza motrice è il peso del

corpo che si può spostare lungo l’asta graduata fino ad ottenere l’equilibrio;

la carrucola, è costituita da una ruota scanalata girevole introno ad un asse sostenuta

da una staffa (cioè una lamina piegata ad U); nella scalmanatura trova alloggiamento una

fune di cui trascuriamo il peso. Vi sono due tipi di carrucola:

la carrucola fissa, considerata una leva a bracci uguali: la forza motrice e la forza

resistente hanno la stessa intensità: dunque possiamo equilibrare una data forza

resistente con una forza motrice di uguale intensità e con direzione qualsiasi;

la carrucola mobile, leva di secondo genere, può essere considerata come una leva

con il fulcro ad un estremo ed il punto di applicazione della forza motrice all’altro estremo:

il braccio della forza motrice è il doppio del braccio della forza resistente. Dunque

possiamo equilibrare una data forza resistente con una forza motrice di intensità pari alla

metà dell’intensità della forza resistente e direzione parallela ad essa;

il verricello è costituito da due cilindri rigidi, solidamente uniti, intorno ai quali possono

avvolgersi, in verso opposto, due corde: all’estremo della corda avvolta sul cilindro di

raggio minore (asse) è applicata la forza resistente, all’estremo della corda avvolta sul

cilindro più grande (ruota) si applica la forza motrice.

Piano inclinato

Il piano inclinato può essere considerato una macchina; infatti permette di equilibrare una

forza resistente per mezzo di una forza motrice di intensità minore.

Perché un corpo pesante stia in equilibrio su un piano inclinato sotto l’azione di una forma

motrice parallela al piano, l’intensità di questa forza deve stare al peso del corpo come

l’altezza del piano sta alla sua lunghezza.

Le due macchine semplici derivate dal principio del moto di un corpo su un piano inclinato,

sono il cuneo e la vite.

Il cuneo è costituito da un prisma rigido con sezione retta a triangolo isoscele; i lati del

cuneo sono chiamati fianchi, la base chiamata testa e lo spigolo al vertice opposto alla

base è chiamato coltello.

Sulla testa del cuneo è applicata la forza motrice che può decomposta nelle sue

componenti secondo le direzioni perpendicolari ai fianchi del cuneo stesso con il

verso nel senso di allontanare le parti del corpo che il cuneo tende a fendere.

L’equilibrio si ha quando l’intensità della forza motrice e quella della forza

resistente sono direttamente proporzionali alla lunghezza della testa ed a quella

del fianco. Il vantaggio del cuneo sarà tanto maggiore quanto più piccolo sarà il

rapporto tra le lunghezze della testa e del fianco. Il cuneo trova applicazione

pratica nella lama del coltello, nell’accetta usta dai boscaioli, nello scalpello, ecc.

La vite è costituita da un cilindro lungo il quale è avvolto un rilievo ad elica con

inclinazione e sezione costanti, detto filetto o verme; la distanza tra due spire consecutive

misurate lungo la medesima generatrice è chiamato passo della vite. Nella vite si ha

equilibrio quando l’intensità della forza resistente e della forza motrice sono direttamente

proporzionali alla circonferenza descritta dalla forza motrice ed al passo.

LA BILANCIA. La bilancia è una leva a bracci uguali costituita da un’asta rigida (giogo)

che può oscillare intorno al suo punto di mezzo: in A ed in B sono sospesi due piattelli

uguali. Quando i piattelli sono vuoti, il giogo è orizzontale. Quando su un piattello si pone il

corpo del quale si vuole conoscere il peso, il giogo si inclina; per stabilire l’equilibrio si

pongono sull’altro piattello pesi conosciuti; è questo il valore del peso del corpo. Per

evitare che il giogo nell’oscillazione incontri un grande attrito, nel suo punto di mezzo si

trova uno spigolo di acciaio, detto coltello, che appoggia su una lastrina di pietra dura.

Le caratteristiche di una bilancia sono:

portata, peso massimo che essa può misurare;

sensibilità, peso minimo che essa può risentire;

prontezza, tempo minimo necessario perché si porti in posizione di equilibrio.

Dinamica

Dinamica, ramo della meccanica che ha per oggetto lo studio del moto dei corpi, note le

cause che l’hanno prodotto. Lo sviluppo di questa disciplina, come dell’intera meccanica,

risale al XVII e XVIII secolo e si deve principalmente a Galileo Galilei e Isaac Newton. I tre

principi da essi formulati, detti appunto principi della dinamica, permettono di determinare il

moto di qualunque sistema meccanico, note le forze a esso applicate e la posizione

occupata dal sistema all’istante iniziale. Non sono validi, invece, per sistemi dotati di

velocità paragonabili alla velocità della luce, per i quali vanno apportate le correzioni

relativistiche, e per i sistemi microscopici, per i quali valgono le leggi della meccanica

quantistica.

Due grandezze fondamentali per lo studio della dinamica sono la forza e la massa. A

livello intuitivo, la forza può essere considerata una spinta o una tensione, che si

manifesta provocando deformazione o accelerazione. Altre grandezze importanti per

l’analisi dinamica di un sistema sono l’energia e il lavoro.

I tre principi della dinamica

La prima legge della dinamica, detta anche legge d’inerzia, stabilisce che, se la somma

vettoriale delle forze che agiscono su un corpo è nulla, questo conserva il proprio stato di

quiete o di moto rettilineo uniforme. Nella realtà i corpi in moto si fermano dopo poco

tempo e non proseguono indefinitamente su una traiettoria rettilinea, come prescritto dal

primo principio della dinamica; ciò è dovuto al fatto che su di essi agiscono sempre le

forze di attrito, che si oppongono al moto, causandone il rallentamento e, infine,

l’esaurimento.

La seconda legge del moto, o principio fondamentale della dinamica, stabilisce che una

forza applicata a un corpo indeformabile gli imprime un'accelerazione a essa

proporzionale, come espresso dalla relazione F = ma. La costante di proporzionalità di

questa legge – m – è la massa inerziale del corpo, una misura della resistenza che esso

oppone a qualunque variazione della propria velocità, ma anche dell'attrazione

gravitazionale che esso esercita su tutti gli altri corpi dotati di massa. C'è un significato

profondo nel fatto che le proprietà inerziali di un corpo e le proprietà gravitazionali siano

determinate dalla stessa grandezza fisica: su questa osservazione Einstein ha basato la

sua teoria generale della relatività.

La terza legge del moto, detta anche principio di azione e reazione, afferma che, quando

un corpo esercita una forza su un secondo corpo, quest'ultimo reagisce con una forza

uguale e contraria applicata al primo.

Unità di misura della forza

Newton Unità di misura della forza adottata dal Sistema Internazionale. Si indica con il

simbolo N ed è intitolata al fisico britannico Isaac Newton. La sua definizione discende

direttamente dal secondo principio della dinamica - formulato appunto da Newton -

secondo cui la forza F che agisce su un corpo di massa m è direttamente proporzionale

all’accelerazione che il corpo acquista per effetto della forza: in formule, F = m a. 1 N è

quindi definito come la forza che, agendo su una massa di 1 kg, produce su di essa

m/s2.

un’accelerazione di 1

Forza - peso ed accelerazione gravitazionale

In base alla seconda legge della dinamica, una forza applicata a un corpo produce su di

esso un’accelerazione direttamente proporzionale alla sua intensità. Anche la forza

gravitazionale, dunque, produce sui corpi un’accelerazione; in particolare, la forza

gravitazionale esercitata dalla Terra sui corpi che si trovano sulla sua superficie o nelle

sue immediate vicinanze produce un’accelerazione comunemente detta “accelerazione di

gravità”, indicata con la lettera g; con buona approssimazione, il suo valore si può

m/s2.

assumere costante e pari a circa 9,8

La forza gravitazionale a cui i corpi sulla superficie terrestre sono sottoposti prende il

nome di forza peso e risulta pari al prodotto tra la massa del corpo e l’accelerazione di

gravità. In termini scientifici, quindi, il peso di un corpo non è la sua massa (quest’ultima,

una proprietà intrinseca del corpo), ma la forza gravitazionale che agisce su di esso;

trattandosi di una forza, si misura in Newton, e non in grammi.

A un’analisi più dettagliata, risulta che il peso di un oggetto non è costante, ma varia a

seconda della sua posizione sulla superficie terrestre. Un primo fattore di cui va tenuto

conto è l’effetto della rotazione terrestre. Il peso di un corpo rappresenta infatti la

risultante della combinazione tra la forza di gravitazione vera e propria, che attrae

l'oggetto verso il centro della Terra, e la forza centrifuga – la forza apparente che si

manifesta sulla Terra per effetto del suo moto di rotazione. Quest’ultima è massima

all’equatore e nulla ai poli: di conseguenza, il peso di un corpo all'equatore sarà minore del

peso del medesimo corpo misurato ai poli.

Il secondo fattore di cui va tenuto conto se si vuole determinare con precisione il valore

dell’accelerazione di gravità è la forma non perfettamente sferica della Terra: la superficie

terrestre all’equatore dista dal centro del pianeta più che ai poli. I valori dell’accelerazione

m/s2

di gravità che si misurano a diverse latitudini variano da g = 9,7799 all’equatore

m/s2

(latitudine 0°) a g = 9,83217 ai poli (latitudine 90°). A livello internazionale si è

m/s2.

assegnato all’accelerazione di gravità g un valore convenzionale pari a 9,80665

Pressione

Pressione Grandezza fisica scalare definita come il rapporto tra la forza esercitata

perpendicolarmente a una superficie e l’area della superficie stessa.

Nel Sistema Internazionale (SI), l’unità di misura della pressione è il pascal, che equivale

alla pressione esercitata perpendicolarmente dalla forza di un newton su una superficie di

1 m². Comunemente usata è anche l’atmosfera (atm), definita come la pressione

esercitata da una colonna di mercurio liquido alta 760 mm. Un’atmosfera corrisponde a

101,325 kilopascal (kPa) ed è approssimativamente uguale al valore della pressione

atmosferica sul livello del mare.

Lo strumento utilizzato per la misura della pressione è il manometro. La maggior parte dei

manometri funziona registrando la differenza tra la pressione di un fluido noto e quella

atmosferica. Per piccole differenze si usa un tubo trasparente a forma di U, di cui

un’estremità è collegata con il contenitore di cui si vuole misurare la pressione interna e

l’altra è aperta. Il tubo viene riempito di un determinato liquido, come olio, acqua o

mercurio, e la differenza di livello raggiunto dal liquido nei due bracci del tubo fornisce la

differenza tra la pressione della colonna di liquido, pari a quella interna del contenitore, e

la pressione atmosferica locale.

Per differenze di pressione di maggiore entità si usa il manometro a molla tubolare, o

manometro di Bourdon, dal nome del suo inventore, il francese Eugène Bourdon.

Consiste di un tubo metallico cavo a sezione ellittica piegato a uncino: un’estremità del

tubo è chiusa, l’altra è aperta. Se si applica a quest’ultima una pressione (in aggiunta a

quella atmosferica), la sezione ellittica si deforma leggermente, avvicinandosi sempre più

alla forma circolare, e nello stesso tempo il tubo si allunga leggermente. All’estremità

chiusa si ottiene un movimento, proporzionale alla pressione applicata, che si può

misurare su una scala opportunamente calibrata. I manometri progettati per registrare

rapide fluttuazioni di pressione sfruttano generalmente sensori piezoelettrici o

elettrostatici, che riescono a seguire le variazioni con una risposta pressoché istantanea.

Per ottenere il reale valore assoluto di pressione da una misura effettuata con un

manometro – che indica la differenza tra la pressione del fluido e la pressione atmosferica

– bisogna sommare il valore della pressione atmosferica locale al valore indicato dallo

strumento. Un valore negativo corrisponde a un parziale vuoto.

10-6

Per misurare bassi valori della pressione di un gas (fino a mm di mercurio) si usa il

manometro di McLeod: si comprime un volume noto di gas – di cui si vuole determinare la

pressione – con una trasformazione isoterma, che ne riduca notevolmente il volume; se

ne misura la pressione con un comune manometro, e si risale alla pressione iniziale

incognita utilizzando la legge di Boyle. Per pressioni ancora minori, si usano manometri

che sfruttano fenomeni che coinvolgono radiazione, ionizzazione o effetti molecolari.

Peso specifico

Peso specifico Proprietà di una sostanza, espressa dal rapporto tra il peso di un corpo

omogeneo costituito da tale sostanza e il suo volume. Definito anche peso specifico

N/m3.

assoluto, si misura in Il peso specifico si può anche ottenere dal prodotto tra il

valore dell'accelerazione di gravità e la densità della sostanza in questione.

In alcuni casi è utile confrontare il peso di un corpo con quello dell'acqua; si ricorre allora

al peso specifico relativo, definito come il rapporto tra il peso di un corpo e quello di

Densità

Densità Grandezza fisica che esprime il rapporto tra la massa e il volume di un corpo,

talvolta detta densità assoluta; nel Sistema internazionale viene misurata in chilogrammi al

metro cubo.

Si definisce invece densità relativa il rapporto tra la densità assoluta del corpo e quella

dell'acqua distillata alla temperatura di 4 °C, e ciò equivale ad assumere quest'ultima

come unità di misura. Poiché 1 centimetro cubo di acqua a 4 °C pesa esattamente 1

grammo, la densità relativa di una sostanza è numericamente uguale alla densità

assoluta espressa in grammi al centimetro cubo.

La densità relativa può essere determinata in vari modi. I corpi solidi, che hanno densità

maggiore di quella dell'acqua, vengono pesati dapprima in aria e quindi in acqua, in

condizioni di completa immersione. La densità relativa si ottiene dividendo il peso in aria

per la diminuzione di peso del corpo immerso (vedi Principio di Archimede). Per

determinare la densità relativa dei fluidi si utilizzano invece strumenti appositi, detti

densimetri. Nel caso siano necessarie misure molto accurate, si procede determinando

la massa di un volume noto di liquido o di gas in condizioni controllate di temperatura.

Il termine densità viene applicato anche ad altre grandezze. Ad esempio, il rapporto tra il

numero di elettroni in un dato volume e il volume stesso è detto densità di elettroni; il

rapporto tra la carica totale distribuita in un volume e il volume medesimo viene

comunemente indicato come densità di carica; l'energia luminosa per unità di volume è

definita come densità di energia luminosa; e l'annerimento dell'immagine di un film o di una

lastra fotografica, è detto densità fotografica. In generale, quindi, la densità di una

grandezza è espressa mediante il rapporto tra la quantità della grandezza contenuta in

un volume assegnato e il valore di quest'ultimo.

Quantità di moto

Quantità di moto Grandezza vettoriale, detta anche momento, data dal prodotto della

massa di un corpo per la sua velocità lineare; essendo un vettore è definita solo se

istante per istante, sono assegnati verso, intensità e direzione. La quantità di moto totale

di un sistema costituito da un insieme di punti materiali è data dalla somma vettoriale delle

quantità di moto dei singoli costituenti. Per tutti i sistemi isolati, ossia non soggetti a forze

esterne, vale il principio di conservazione della quantità di moto totale, secondo cui

questa grandezza rimane costante nel corso dell'evoluzione del sistema.

Esempi classici del principio di conservazione della quantità di moto si hanno negli urti tra

palle da biliardo: la velocità e la direzione delle due palle dopo l'urto rispettano il principio di

conservazione e possono essere calcolate facilmente, se sono noti i valori di queste

grandezze prima dell'urto. Interessante è anche il caso di un uomo che, inizialmente

fermo, inizi a camminare su un carrello; al moto in avanti dell'uomo è associato un

movimento del carrello nella direzione opposta, in modo che il momento totale del sistema

rimanga nullo come nelle condizioni iniziali.

Il principio di conservazione del momento è una legge universale della fisica, in particolare

conserva la sua validità nell'ambito della teoria quantistica, che descrive fenomeni atomici

e nucleari, e della relatività, con cui si studiano i fenomeni che avvengono nei sistemi che

si muovono con velocità vicine a quella della luce.

La forza agente su un corpo in un fissato intervallo di tempo è uguale alla derivata rispetto

al tempo della sua quantità di moto.

Impulso Grandezza fisica vettoriale definita come il prodotto di una forza per l’intervallo di

tempo in cui essa agisce. La direzione e il verso dell’impulso sono gli stessi della forza; il

suo modulo, nel Sistema internazionale, si misura in newton per secondo (N · s).

Impulso di una forza

L’introduzione della grandezza fisica “impulso” permette di esprimere in modo sintetico

una proprietà di tutti i sistemi fisici dinamici: la variazione della quantità di moto totale di un

sistema è pari al prodotto della forza risultante che agisce sul sistema per l’intervallo di

tempo in cui tale forza è attiva. Tale proprietà viene espressa dal teorema dell’impulso,

che in forma matematica si scrive: F · Δt = ΔQ.

Dal teorema dell’impulso si può dedurre il principio di conservazione della quantità di moto

valido per i sistemi isolati (non soggetti all’azione di forze esterne). Infatti, se in un sistema

fisico la risultante delle forze esterne è nulla, l’impulso è pari a zero ed è quindi nulla la

variazione della quantità di moto totale del sistema; in altre parole, la quantità

Le forze e il moto

L’integrazione è l’operazione che permette, nota l’accelerazione di un corpo, di

ricostruirne il moto. Infatti, se x è la variabile temporale e y lo spazio percorso da un

2 2

corpo in movimento, dy/dx rappresenta la velocità v, e d y/dx = dv/dx fornisce il ritmo

con cui varia la velocità, ossia l'accelerazione. Utilizzando la seconda legge del moto di

Newton, F = ma, siamo in grado, attraverso una doppia integrazione, di risalire allo spazio

percorso dal corpo. Prendiamo l’esempio di un corpo di massa m che cade per effetto

della forza gravitazionale, soggetto alla legge F = mg (g è il valore dell'accelerazione di

gravità). Sarà a = g e quindi dv/dx = g. Integrando si ottiene v = gx + c, dove c è una

costante; ponendo x = 0 si comprende come c rappresenti il valore della velocità iniziale.

2

Un'integrazione successiva di dy/dx = v = gx + c fornisce il risultato y = 1/2gx + cx + b,

dove b è un'altra costante che viene fissata imponendo nuovamente x = 0, e dunque in

base alle condizioni iniziali del moto. Essa rappresenta lo spazio iniziale da cui il corpo è

partito per il suo moto.

Moto di un corpo pesante lanciato in una direzione qualsiasi (caso del proiettile)

Esaminando il moto di un corpo pesante che viene lanciato in una direzione qualsiasi,

diversa dalla verticale. Questo è il caso del proiettile sparato in una direzione non

verticale. Fu Galileo per primo che concepì il movimento dei proiettili come composto di

due moti: uno orizzontale (uniforme) e l’altro verticale (uniformemente accelerato),

deducendone che la traiettoria è una parabola.

Orizzontalmente invece non agisce alcuna forza sul corpo e quindi la sua accelerazione

orizzontale è nulla. La componente verticale “g” dell’accelerazione è costante (pari a

quella di un corpo in caduta libera) mentre la componente orizzontale è nulla. Poiché

“accelerazione costante” = “moto uniformemente accelerato” e “accelerazione nulla” =

“moto uniforme”, se ne conclude che il corpo si muove verticalmente di moto

uniformemente accelerato (con accelerazione “g”) ed orizzontalmente di moto uniforme.

Moto di un corpo pesante sotto l’azione di una forza elastica

Quando una molla è tirata o compressa l’esperienza mostra che, se la deformazione è di

tipo elastico (ossia tale che, una volta cessata la deformazione, la molla ritorna alla sua

lunghezza originaria), la forza che essa esercita è data dalle legge: F = k x s

L’accelerazione è in ogni istante proporzionale allo spostamento e di verso opposto allo

spostamento stesso.

Il pendolo

Il pendolo semplice è costituito da una pallina “P” fissata ad un’estremità di un filo

flessibile, in estensibile e di peso trascurabile. Questo filo è vincolato all’altra sua

estremità ad un punto fisso “O”, chiamato centro di sospensione.

Nel pendolo si definisce:

Lunghezza “r”, la lunghezza del filo del pendolo;

Oscillazione completa, il moto del pendolo da “P” a “P1” e ritorno;

Angolo di apertura dell’oscillazione “J”;

Ampiezza del pendolo, la lunghezza dell’arco PA = AP’;

Periodo T . la durata di una oscillazione completa del pendolo;

Frequenza “n”, il numero di oscillazioni complete compiute in un secondo dal pendolo.

Lo studio del moto del punto “P” si esegue ricorrendo sempre al secondo principio della

dinamica.

Il periodo del pendolo, non dipende dalla massa del corpo oscillante ed è proporzionale

alla radice quadrata della lunghezza “r”. Inoltre, poiché nella la formula del periodo “T” non

figura l’ampiezza PA delle oscillazioni, si deduce che le piccole oscillazioni sono sincrone

(della stessa durata).

Forza centripeta

Forza centripeta Forza che agisce su qualunque corpo in moto curvilineo. Detta m la

massa del corpo, v la sua velocità ed r il raggio della traiettoria, il modulo della forza

centripeta è: F =

INCLUDEPICT URE " about:blank T 043166A.gif" \* MERG EF O RMAT INET

INCLUDEPICTURE "../Impos taz ioni%20loc ali/Temporary %20Internet%20Files /

T043166A.bmp" \* MERGEFORMAT

La sua direzione è radiale e il verso è quello rivolto dal corpo al centro della traiettoria (da

cui il nome di forza “centripeta”). Se la forza centripeta ha modulo costante, il moto del

corpo è circolare.

La forza centripeta ha lo stesso modulo, la stessa direzione, e verso opposto, rispetto

alla forza centrifuga, la forza apparente che un corpo in moto curvilineo percepisce per il

solo fatto di trovarsi su un sistema di riferimento non inerziale.

La forze centripeta (quindi anche la forza centrifuga) è proporzionale alla massa del

corpo ed al raggio della circonferenza ed inversamente proporzionale al quadrato del

periodo.

Accelerazione centripeta

INCLUDEPICTURE "../Impos taz ioni%20loc ali/Temporary %20Internet%20Files /

t235711a.bmp" \* MERGEFORMAT

Forza centripeta

Una pallina che gira, legata a una corda con un estremo fisso, acquista nel moto

un’accelerazione diretta verso il centro della traiettoria (centripeta). Tale accelerazione è

dovuta alla tensione della corda a cui la pallina è legata.

Il secondo principio della dinamica afferma che ogni forza F produce su un corpo di

massa m un’accelerazione a di intensità pari a F/m. Così, la forza centripeta imprime al

2/r.

corpo su cui agisce un’accelerazione, detta appunto centripeta, di modulo pari a v

Questa accelerazione, e quindi la forza centripeta a cui è dovuta, non è responsabile di

una variazione del modulo della velocità del corpo, ma soltanto di una variazione della sua

traiettoria; in sostanza, la forza centripeta è la causa a cui si deve che il corpo rimanga

vincolato a percorrere la traiettoria curvilinea. Se il corpo non fosse soggetto all’azione

della forza centripeta, seguirebbe una traiettoria rettilinea, come prescritto dal primo

principio della dinamica.

Forza centrifuga

Forza centrifuga Forza apparente che si manifesta su qualunque corpo osservato da un

sistema di riferimento non inerziale, in moto curvilineo. Il suo modulo è uguale e contrario

a quello della forza centripeta, la forza reale che agisce sul corpo mantenendolo in

traiettoria.

La forza centrifuga appare in qualunque moto curvilineo; per semplicità, viene qui trattata

nel caso particolare di un moto circolare uniforme. Un corpo appartenente a un sistema in

moto circolare uniforme di raggio R è soggetto all’azione della forza centripeta, che lo

tiene vincolato a muoversi lungo la traiettoria curvilinea. Detta m la massa del corpo e v la

2/R.

velocità di rotazione, l’intensità della forza centripeta è mv A un osservatore che ruoti

insieme al corpo, questo appare evidentemente fermo; l’equilibrio dell’oggetto pare

prodotto da una forza di uguale intensità e verso opposto alla forza centripeta: la forza

centrifuga, appunto. Volendo scrivere la seconda legge della dinamica (F = ma) nel

sistema di riferimento solidale con il corpo, l’osservatore non inerziale dovrà dunque

2/R)

sommare entrambe le forze: quella centripeta reale (mv e quella centrifuga apparente

2/R),

(-mv appositamente introdotta. In un sistema di riferimento inerziale, invece, il moto

circolare uniforme del medesimo corpo viene correttamente descritto utilizzando solo la

forza reale centripeta, senza bisogno di introdurre alcuna altra forza.

La forza centrifuga viene definita apparente perché in realtà, sull'oggetto in moto, non

agisce alcuna forza effettiva a bilanciare la forza centripeta, né l'oggetto tende a 'sfuggire'

verso l'esterno della traiettoria: se si rimuovesse improvvisamente la forza centripeta,

infatti, anche la forza centrifuga scomparirebbe e l'oggetto non si muoverebbe più di moto

accelerato, ma di moto rettilineo uniforme lungo la direzione tangente alla traiettoria

curvilinea, come prescritto dal primo principio della dinamica.

MECCANICA

Lavoro

In fisica, grandezza scalare, definita dal prodotto scalare della forza applicata a un corpo

per lo spostamento che esso subisce a causa dell'azione della forza. Una forza compie

lavoro ogni volta che produce uno spostamento del corpo su cui agisce; ciò vale anche

per le forze di natura non meccanica, come le forze elettrostatiche, elettrodinamiche, o le

forze di tensione superficiale. Vedi Elettricità.

Il lavoro è positivo se lo spostamento ha la stessa direzione e lo stesso verso della forza

(lavoro motore), negativo se ha verso opposto (lavoro resistente) e nullo se la forza non

produce spostamento o se questo avviene nella direzione perpendicolare alla linea

d'azione della forza. Di conseguenza, per quanto sia poco intuitivo, la forza necessaria

per mantenere sospeso un oggetto (nel campo gravitazionale), o per trasportare una

valigia lungo una strada orizzontale, non comporta produzione di lavoro.

Compiere lavoro su un corpo consiste sostanzialmente nel trasferire a esso energia. Ad

esempio il lavoro necessario per sollevare da terra un corpo si trasforma in energia

potenziale gravitazionale del corpo stesso. Lavoro ed energia hanno la stessa unità di

misura; nel Sistema internazionale essa è il joule definito come il lavoro compiuto da una

forza di 1 Newton per produrre uno spostamento di 1 metro. La potenza è il lavoro

compiuto nell'unità di tempo e viene misurata in watt (1 watt è dato da 1 joule diviso per 1

secondo).

Energia

Grandezza fisica che esprime la capacità di un sistema fisico di compiere lavoro.

Nell’ambito puramente meccanico, si distinguono due forme diverse di energia: l’energia

cinetica, posseduta da tutti i corpi in movimento, pari al prodotto della massa del corpo

per il quadrato della sua velocità, e l’energia potenziale, che un corpo possiede se si

trova in presenza di un campo di forze conservative, come sono, ad esempio, il campo

gravitazionale e quello elettrico.

Da un punto di vista più generale, l’energia esiste in molte forme diverse, che si

trasformano in parte o totalmente una nell’altra: si può dunque parlare di energia termica

(vedi Termodinamica), energia chimica (vedi Reazione chimica), energia elettrica (vedi

Elettricità), energia atomica, per caratterizzare il principio che sottende a una determinata

manifestazione dell’energia, ma anche di energia nucleare, energia eolica, energia

geotermica, energia idraulica, energia solare e così via, specificando soprattutto l’aspetto

esteriore della forma di energia.

Conservazione dell’energia.

L’energia totale di un corpo soggetto a forze conservative resta costante durante il suo

moto, ovvero l’energia potenziale del corpo si trasforma in energia cinetica e viceversa,

ma il valore della loro somma non varia. Ne è un esempio il pendolo semplice, che

possiede energia potenziale massima nelle posizioni di massima elongazione, possiede in

parte energia potenziale e in parte energia cinetica nei punti intermedi, e raggiunge

energia potenziale nulla, ma il valore massimo dell’energia cinetica, quando passa per il

punto di sospensione. Questo fenomeno esprime un principio fondamentale della fisica

classica, che va sotto il nome di principio di conservazione dell’energia. Insieme

all’analogo principio di conservazione della massa, è una legge che vale solo per

fenomeni classici, ovvero nei quali le velocità dei corpi sono piccole rispetto alla velocità

della luce.

All’energia cinetica o potenziale si possono ricondurre tutte le forme di energia note: il

calore, in effetti, è dovuto al moto (e dunque all’energia cinetica) delle molecole che

costituiscono un corpo a livello microscopico; l’energia chimica liberata in una reazione è

invece una forma di energia potenziale, in quanto deriva dalle energie di legame fra atomi,

a loro volta energie potenziali di una forza conservativa.

Se le forze presenti non sono conservative, ma dissipative (come, ad esempio, l’attrito) il

principio di conservazione può ancora ritenersi valido, tenendo conto di tutte le possibli

forme in cui parte dell’energia posseduta dal corpo potrà essersi trasformata (ad

esempio, in calore, ovvero energia termica, per il caso dell’attrito), generalmente però non

più però recuperabili come energia meccanica.

Nell’ambito della meccanica relativistica, ovvero per corpi che si muovono a velocità

paragonabili a quelle della luce, energia e materia possono convertirsi l’una nell’altra,

come si verifica nelle reazioni nucleari: nella fisica moderna dunque i due principi di

conservazione dell’energia e della massa sono unificati.

La potenza

Watt Unità di misura della potenza del Sistema Internazionale. È definita come la quantità

di energia necessaria per compiere un lavoro di 1 joule nell’intervallo di tempo di 1 s.

Indicata con il simbolo W, prende il nome dall’ingegnere britannico James Watt, a cui si

devono importanti contributi nella messa a punto della macchina a vapore.

Energia cinetica

Energia cinetica Forma di energia posseduta da un corpo in movimento, che viene

derivata dalle grandezze che caratterizzano il moto del corpo attraverso l’espressione E

2 2

= ψmv in cui m indica la massa del corpo e v è il quadrato della sua velocità. In

particolare, se il corpo si muove di moto uniformemente accelerato, ovvero con

accelerazione costante, poiché a ogni istante vale v =at e d = vt, l’energia cinetica si può

anche scrivere E = (ma) d dove a è l’accelerazione della massa m e d è lo spazio

percorso all’istante considerato.

Perché un corpo senta un’accelerazione, su di esso deve agire una forza: le due

grandezze sono in relazione attraverso la formula F = ma. La forza che agisce sul corpo

compie lavoro, che si può facilmente valutare, se la forza è costante, come il prodotto

dell’intensità della forza per la distanza percorsa dal corpo, L = Fd. Attraverso le relazioni

fin qui mostrate, e ricordando che l’accelerazione è una variazione di velocità, si può

mettere in relazione il lavoro compiuto da una forza costante con la variazione

dell’energia cinetica del corpo a cui questa viene applicata, scrivendo: L = Fd = mad = E –

E0 , dove E è l’energia cinetica posseduta dal corpo dopo il tempo t, durante il quale si è

applicata la forza F, ed E0 è l’energia cinetica del corpo all’istante iniziale del moto, t = 0.

Questa espressione mostra che il lavoro compiuto da una forza su un corpo è pari alla

variazione dell’energia cinetica di quest’ultimo.

La relazione, nota come teorema dell’energia cinetica, è un utile strumento per

determinare la velocità di un corpo, qualora si conosca il lavoro compiuto della forza che

su di esso ha agito. Il teorema è inoltre il punto di partenza per dedurre il principio di

conservazione dell’energia. Se infatti la forza che agisce sul corpo è conservativa

(ovvero se il lavoro da essa compiuto per spostare un corpo lungo un percorso chiuso è

nullo) è possibile definire un’altra forma di energia, associata alla posizione del corpo nel

campo della forza, chiamata energia potenziale. In questo caso, il lavoro compiuto dalla

forza per spostare il corpo fra due punti interni al suo campo potrà esprimersi come

differenza dei due valori di energia potenziale posseduta dal corpo, e si potrà mostrare

che, durante il moto, la somma di energia cinetica ed energia potenziale del corpo si

mantiene costante.

La relazione che sussiste tra energia cinetica, energia potenziale e i concetti di forza,

distanza, accelerazione è comprensibile anche intuitivamente, non solo attraverso le

formule matematiche, se si pensa a come si comportano queste grandezze fisiche in

situazioni comuni, ad esempio il lancio di un oggetto o la caduta di un grave. Per sollevare

un oggetto da una superficie d’appoggio, è necessario applicare una forza verticale,

diretta verso l’alto, in modo da vincere la forza di gravità. Questa forza compie lavoro,

che viene immagazzinato dal corpo sotto forma di energia, nel caso particolare sotto

forma di energia potenziale gravitazionale. Se si lascia cadere l’oggetto, l’energia

potenziale da esso posseduta viene gradualmente convertita in energia cinetica. Nel

punto di massima altezza il corpo possiede solo energia potenziale, mentre nell’istante in

cui tocca il terreno, dopo la caduta, tutta l’energia è di tipo cinetico.

Energia potenziale

Energia potenziale Energia posseduta da un sistema quando si trova in un campo di

forze conservative. Ad esempio, una palla sollevata da terra possiede energia potenziale

di tipo gravitazionale perché è sottoposta all'effetto del campo gravitazionale terrestre; il

valore dell'energia potenziale dipende in questo caso dall'altezza della palla rispetto al

suolo. Un corpo attaccato a una molla tesa possiede energia potenziale elastica,

proporzionale allo spostamento della molla rispetto alla posizione di equilibrio, e una

carica elettrica in presenza di un campo elettrico possiede energia potenziale

elettrostatica, che dipende dall’intensità del campo nella posizione della carica.

È possibile definire una funzione energia potenziale solo se la forza in questione è

conservativa, ovvero se il lavoro da essa compiuto per spostare un corpo lungo un

percorso chiuso è nullo.

Per dotare un corpo di energia potenziale bisogna dunque compiere lavoro, ossia

spostare il corpo nel campo della forza: infatti è lavoro lo sforzo necessario a sollevare la

palla da terra, a tendere la molla, ad avvicinare due cariche dello stesso segno, ciascuna

delle quali si dovrà muovere nel campo di forza prodotto dall’altra. L'energia potenziale

acquistata dal corpo è esattamente uguale al lavoro speso per portare il corpo in una

determinata configurazione, e viene totalmente restituita dal corpo se questo ritorna alla

situazione iniziale. Per queste forze vale il principio di conservazione dell'energia: ovvero,

durante il moto di un corpo sottoposto all'azione di una forza conservativa, la somma di

energia potenziale e di energia cinetica del corpo resta costante.

L’esempio della palla che viene lanciata verso l'alto è chiarificatore: all'inizio del moto, la

palla ha solo energia cinetica, dovuta alla velocità impressale col lancio; la palla si fermerà

a una determinata altezza h dal suolo, dove la sua energia sarà solo potenziale, essendo

nulla la velocità; riprendendo la caduta (caduta libera) verso il suolo, l'energia potenziale

posseduta si trasformerà progressivamente in energia cinetica, finché, quando la palla

toccherà il suolo, l'energia

Attrito

Attrito In meccanica, l'effetto delle forze dissipative sul moto di un corpo che si muove su

una superficie o all’interno di un mezzo viscoso. A seconda della natura dei corpi coinvolti

e del tipo di moto da essi compiuto, si distinguono tre forme di attrito: quello radente,

quello volvente e quello interno o viscoso. Trattandosi di una forza, l’attrito, nel Sistema

internazionale, si misura in newton (N).

Attrito radente

L'attrito radente si oppone al moto tra due superfici che scivolano l’una sull’altra. È l’effetto

che si sperimenta, ad esempio, quando si trascina una cassa sul pavimento. Si deve al

fatto che le superfici dei corpi, per quanto apparentemente lisce, presentano sempre

microscopiche irregolarità; tali irregolarità, dell’ordine del micrometro (un milionesimo di

metro), favoriscono l’interazione elettrica tra gli atomi delle due superfici, e quindi il

rallentamento del moto relativo. In generale, per un corpo in moto su una superficie, la

forza di attrito radente è espressa dalla formula

F = - µ N

a

dove µ è il coefficiente di attrito caratteristico del materiale considerato ed N è la forza

che tiene il corpo a contatto con la superficie, vale a dire, la componente della forza peso

perpendicolare alla superficie stessa. Trattandosi di una grandezza vettoriale, la forza di

attrito va definita, oltre che per intensità, per direzione e verso: la direzione è quella lungo

cui avviene il moto, mentre il verso, specificato dal segno meno, è quello opposto al moto.

Come si osserva, questa forza è indipendente dall'area di contatto e dalla velocità di

scorrimento, che nella formula non compaiono in alcun modo.

Il coefficiente di attrito µ è diverso a seconda che si consideri l’istante in cui il moto

radente ha inizio o una qualunque altra fase del moto. In generale, infatti, per mettere in

moto un corpo inizialmente fermo, è necessario applicare una forza maggiore di quella

richiesta per mantenere semplicemente il moto. Di conseguenza, il coefficiente di attrito

statico è maggiore del coefficiente di attrito dinamico; entrambi si trovano tabulati e sono

caratteristici per ogni materiale.

Attrito volvente

L'attrito volvente si manifesta quando un corpo solido rotola senza strisciare su una

superficie, ad esempio quando una biglia rotola sul piano di un tavolo. In generale, la forza

di attrito volvente è espressa dalla formula:

F = -(µ/r) N

a

dove µ rappresenta il coefficiente di attrito volvente, caratteristico per ogni materiale, N la

forza perpendicolare alla superficie che tiene il corpo aderente a essa, ed r il raggio del

corpo che rotola; poiché r compare al denominatore, più il corpo è grande (r è grande),

più piccola è la forza di attrito sperimentata. Con poche eccezioni, la quantità di energia

dissipata per effetto dell'attrito volvente è minore rispetto a quella dissipata, in condizioni

analoghe, per attrito radente; questa caratteristica spiega la funzione di dispositivi come i

cuscinetti a sfera, o di guide a rulli per il trasporto di carichi pesanti: entrambi trasformano

l’attrito radente in attrito volvente, in modo da rendere il moto più efficiente.

Attrito interno

L'attrito interno è un effetto che si produce a livello molecolare, all’interno di un corpo

sottoposto a una sollecitazione: ad esempio, è la causa che determina l'arresto delle

oscillazioni di un corpo solido dotato di proprietà elastiche, come una corda di pianoforte o

un diapason.

Nei corpi fluidi – liquidi o gassosi – l’attrito interno prende più propriamente il nome di

viscosità; si manifesta nel moto del fluido stesso, o di un corpo al suo interno. Nel caso in

cui il fluido sia in moto a velocità relativamente piccola, tale cioè da non favorire la

formazione di vortici, si può pensare la sua massa come costituita da tanti strati paralleli

sovrapposti: quelli più vicini alle pareti del condotto risentono di un attrito maggiore, che

viene trasmesso agli strati via via adiacenti. In generale, una porzione di liquido di

superficie S, posto a distanza d dalla parete del condotto, è soggetta alla forza di attrito

viscoso

Fv = - σ S v /d

dove σ (sigma) rappresenta un parametro specifico del fluido, detto coefficiente di

viscosità. Nel caso di un corpo in moto all’interno di un fluido, come un sommergibile in

immersione, di un aereo nell’aria o anche solo di una bicicletta in moto, la resistenza

opposta dal fluido al moto del corpo dipende dalla velocità del corpo, dalla natura del fluido

e dalla forma del corpo, e si scrive:

F = - k σ r v

v

In questa formula, k è un parametro che contiene informazioni sulla forma del corpo, σ è il

coefficiente di viscosità del fluido, r una dimensione significativa del corpo e v la sua

velocità. Poiché l’effetto della forza di attrito viscoso è quello di ridurre la velocità, per un

corpo in caduta libera in un fluido (ad esempio nell’aria) esiste un valore della velocità v in

corrispondenza del quale la forza peso del corpo (m g) è uguale in modulo alla forza di

attrito viscoso (k σ r v). Tale valore, che rimane costante per tutto il resto del moto,

prende il nome di velocità limite, o velocità di regime. Per questo un paracadutista, dopo

una fase transitoria in cui cade con moto uniformemente accelerato, per il resto del volo

si muove di moto rettilineo uniforme (a meno degli effetti di venti e correnti).

Principio di conservazione dell’energia totale

Principio di conservazione dell'energia Principio fondamentale della fisica, secondo il

quale l'energia non può essere creata né distrutta, ma può solo essere trasformata da

una all'altra delle diverse forme in cui si presenta. L'energia esiste infatti in molteplici

versioni, tra cui quella di energia meccanica (cinetica e potenziale), di energia termica o

calore, di energia chimica, energia nucleare, energia luminosa ed energia acustica.

I dispositivi che convertono l'energia, come i motori, le lampadine e i generatori elettrici,

spesso non risultano totalmente efficienti: ciò significa che non riescono a convertire tutta

l'energia in entrata nella forma finale richiesta, perché in parte viene dispersa nel

processo di trasformazione. Il motore di un'automobile, ad esempio, è progettato per

trasformare l'energia chimica prodotta dal processo di combustione della benzina in

energia meccanica della vettura, tuttavia solo il 25% circa dell'energia chimica

immagazzinata nel carburante viene effettivamente sfruttato. Il resto dell'energia viene

perso per lo scopo a cui sarebbe destinato: ciò non significa che viene distrutto, ma che

assume una forma ancora diversa.

Dopo il 1905, anno in cui Albert Einstein pubblicò la teoria della relatività speciale,

dimostrando l'equivalenza tra massa ed energia, fu necessario includere anche la massa

tra le forme di energia contenute nel principio di conservazione; da allora tale principio è

detto principio di conservazione della massa-energia. La quantità di energia prodotta nella

trasformazione della massa in energia è enorme; tale processo si realizza nelle reazioni

nucleari: per questo motivo l'energia nucleare potrebbe costituire una risorsa energetica

inesauribile.

Moto perpetuo

Moto perpetuo Concetto ideale che corrisponde al moto di un sistema capace di fornire

indefinitamente lavoro utile. La realizzazione di un simile sistema, per lungo tempo ritenuta

possibile, non è in accordo con le leggi fondamentali della fisica.

Prende il nome di moto perpetuo di prima specie il moto di una macchina ideale capace di

produrre lavoro senza consumare energia; la sua impossibilità discende dal primo

principio della termodinamica, che altro non è se non un adattamento ai sistemi

termodinamici del più generale principio di conservazione dell’energia. Prende invece il

nome di moto perpetuo di seconda specie quello di una macchina ideale capace di

produrre lavoro attingendo calore da una sola sorgente termica; l’impossibilità di

realizzare una simile macchina è garantita questa volta dal secondo principio della

termodinamica, secondo cui un sistema può compiere lavoro soltanto trasferendo

energia da una sorgente a temperatura maggiore a una seconda sorgente a temperatura

minore.

Moto perpetuo di prima specie: meccanismo che può fornire una quantità di lavoro

maggiore di quella assorbita.

Moto perpetuo di seconda specie: meccanismo che può fornire tanto lavoro utile quanto

ne viene assorbito.

Moto perpetuo di terza specie: meccanismo il quale resta in movimento senza mai

arrestarsi e senza ricevere energia dall’esterno.

Legge di Newton della gravitazione universale

Gravitazione Interazione fondamentale della natura responsabile dell’attrazione reciproca

che si manifesta fra tutti i corpi dotati di massa. La gravitazione, insieme alla forza

nucleare forte, alla forza subnucleare debole e alla forza elettromagnetica, costituisce

una delle quattro forze fondamentali esistenti in natura. Il termine gravità, spesso usato

come sinonimo, si riferisce propriamente solo alla forza, comunemente detta forza peso,

sperimentata da un corpo posto sulla superficie della Terra (o di qualunque altro pianeta)

o nelle sue vicinanze.

Legge di gravitazione universale

La legge di gravitazione universale, formulata da Isaac Newton nel 1666 e pubblicata nel

1684, afferma che l'attrazione gravitazionale tra due corpi è direttamente proporzionale al

prodotto delle loro masse e inversamente proporzionale al quadrato della loro distanza.

L'espressione algebrica della legge è

INCLUDEPICTURE "../Impostazioni%20locali/Temporary%20Internet%20Files/

T051867A.bmp" \* MERGEFORMAT

dove F rappresenta la forza gravitazionale, m e m le masse dei due corpi, d la loro

1 2

mutua distanza, e G la costante di gravitazione universale. Il valore di questa costante fu

misurato per la prima volta dal fisico inglese Henry Cavendish nel 1798 per mezzo di uno

strumento chiamato bilancia di torsione. Il valore attualmente riconosciuto è di 6,67 ×

10-11 m2kg-2,

N valore che rappresenta l'intensità della forza di interazione tra due corpi

sferici, ciascuno di massa pari a 1 kg e posti a distanza di 1 m l'uno dall'altro.

La legge di Newton vale per tutti i corpi dotati di massa, dai corpi di dimensioni

macroscopiche alle particelle subatomiche; spiega quindi anche il moto orbitale dei pianeti

e le dinamiche di tutti i corpi celesti. Quando fu pubblicata, alla fine del XVII secolo, fornì

una spiegazione teorica definitiva alle leggi di Keplero sul moto dei pianeti, che erano state

formulate soltanto sulla base di dati sperimentali.

Campo gravitazionale

Ogni corpo dotato di massa è in grado di attirare a sé i corpi che lo circondano attraverso

la forza gravitazionale. Per descrivere meglio il fenomeno, è utile ricorrere al concetto di

campo di forze: ogni corpo dotato di massa si dice allora sorgente di un campo

gravitazionale; in altre parole, modifica lo spazio intorno a sé conferendogli la proprietà di

alterare lo stato di qualunque corpo dotato di massa. Il campo gravitazionale è una

grandezza fisica che dipende unicamente dalla massa del corpo sorgente, e rappresenta

la forza gravitazionale sperimentata da un corpo di massa unitaria. Le sue linee di forza

sono semirette che partono dalla massa sorgente e si estendono all’infinito in direzione

radiale; il verso è quello rivolto dall’esterno verso la sorgente.

Accelerazione di gravità e forza peso

In base alla seconda legge della dinamica, una forza applicata a un corpo produce su di

esso un’accelerazione direttamente proporzionale alla sua intensità. Anche la forza

gravitazionale, dunque, produce sui corpi un’accelerazione; in particolare, la forza

gravitazionale esercitata dalla Terra sui corpi che si trovano sulla sua superficie o nelle

sue immediate vicinanze produce un’accelerazione comunemente detta “accelerazione di

gravità”, indicata con la lettera g; con buona approssimazione, il suo valore si può

m/s2.

assumere costante e pari a circa 9,8

La forza gravitazionale a cui i corpi sulla superficie terrestre sono sottoposti prende il

nome di forza peso e risulta pari al prodotto tra la massa del corpo e l’accelerazione di

gravità. In termini scientifici, quindi, il peso di un corpo non è la sua massa (quest’ultima,

una proprietà intrinseca del corpo), ma la forza gravitazionale che agisce su di esso;

trattandosi di una forza, si misura in Newton, e non in grammi.

Variazione dell’accelerazione di gravità

A un’analisi più dettagliata, risulta che il peso di un oggetto non è costante, ma varia a

seconda della sua posizione sulla superficie terrestre. Un primo fattore di cui va tenuto

conto è l’effetto della rotazione terrestre. Il peso di un corpo rappresenta infatti la

risultante della combinazione tra la forza di gravitazione vera e propria, che attrae

l'oggetto verso il centro della Terra, e la forza centrifuga – la forza apparente che si

manifesta sulla Terra per effetto del suo moto di rotazione. Quest’ultima è massima

all’equatore e nulla ai poli: di conseguenza, il peso di un corpo all'equatore sarà minore del

peso del medesimo corpo misurato ai poli.

Il secondo fattore di cui va tenuto conto se si vuole determinare con precisione il valore

dell’accelerazione di gravità è la forma non perfettamente sferica della Terra: la superficie

terrestre all’equatore dista dal centro del pianeta più che ai poli. I valori dell’accelerazione

m/s2

di gravità che si misurano a diverse latitudini variano da g = 9,7799 all’equatore

m/s2

(latitudine 0°) a g = 9,83217 ai poli (latitudine 90°). A livello internazionale si è

m/s2.

assegnato all’accelerazione di gravità g un valore convenzionale pari a 9,80665

Gravitazione e le altre interazioni fondamentali

Secondo gli scienziati, dovrebbe essere possibile inquadrare tutte le forze fondamentali

della natura in un’unica teoria di campo, ma i modelli finora proposti non si sono rivelati

soddisfacenti. D’altro canto, per assimilare la gravitazione alle altre tre forze fondamentali,

sarebbe necessario individuare le onde gravitazionali che secondo la teoria della relatività

generale si associano alla propagazione del campo gravitazionale, e che dovrebbero

manifestarsi ogniqualvolta nell'universo viene perturbato il campo gravitazionale di

qualche oggetto molto massivo: i numerosi esperimenti intrapresi alla ricerca di

un’evidenza sperimentale, però, non hanno ancora fornito risultati definitivi.

Prima legge di Keplero

La prima legge di Keplero riguarda la forma dell’orbita dei pianeti. Essa afferma che ogni

pianeta si muove su un’orbita ellittica, di cui il Sole occupa uno dei due fuochi. Così, la

distanza di un pianeta dal Sole non è costante, ma varia nel corso del periodo di

rivoluzione; il punto più vicino al Sole prende il nome di perielio, quello più lontano, di afelio.

Seconda legge di Keplero

La seconda legge riguarda la velocità di percorrenza dell’orbita, ed è nota come legge

delle aree. Stabilisce che il segmento che congiunge il pianeta con il Sole (il raggio

vettore) spazza aree uguali in tempi uguali o, in altre parole, che il pianeta viaggia con

velocità areolare costante. Ciò significa che la velocità lineare di percorrenza dell’orbita

non è costante, ma varia al variare della distanza dal Sole; in particolare, ogni pianeta

percorre più rapidamente i tratti di orbita che si trovano più vicini al Sole e più lentamente

quelli che si trovano più lontani. La velocità è quindi massima al perielio e minima all’afelio.

Terza legge di Keplero

La terza legge di Keplero afferma che il rapporto tra il cubo della distanza media d di un

pianeta dal Sole e il quadrato del suo periodo di rivoluzione è costante; in formule,

2=kd

3,

T dove k è una costante di proporzionalità uguale per tutti i pianeti. La legge implica

che il tempo necessario a percorrere un’orbita completa è maggiore per i pianeti più

lontani che per quelli più vicini.

Meccanica dei fluidi

Meccanica dei fluidi Settore della fisica che studia il comportamento dei fluidi, ossia delle

sostanze liquide e gassose, dal punto di vista statico e dinamico. La meccanica dei fluidi

è fondamentale per diversi settori delle scienze applicate: ingegneria chimica, civile e

meccanica, aeronautica, meteorologia, architettura e ingegneria navale, oceanografia.

Si possono distinguere due rami diversi della meccanica dei fluidi: la fluidostatica, a sua

volta distinta in statica dei gas e idrostatica, che studia le condizioni di equilibrio dei fluidi in

quiete, e la fluidodinamica, divisa in aerodinamica e idrodinamica, che si occupa in

generale dei fluidi in moto. Il termine idrodinamica si applica più propriamente al flusso di

liquidi o al flusso a bassa velocità di gas che possono essere considerati incomprimibili.

L'aerodinamica, o dinamica dei gas, indaga invece il comportamento dei gas quando le

variazioni di pressione sono sufficientemente alte da non permettere di trascurare gli

effetti della comprimibilità.

Tra le numerose applicazioni della meccanica dei fluidi, sono da menzionare la

propulsione a getto, le turbine, i compressori e le pompe. Lo sfruttamento della pressione

dell'acqua e dell'olio in ingegneria è invece un argomento di competenza dell'idraulica.

Fluidostatica

Una delle caratteristiche fondamentali di un fluido a riposo è che la forza esercitata su

ciascuna delle particelle che lo costituiscono ha uguale intensità in tutte le direzioni. Il fatto

si comprende facilmente perché, se le cosiddette forze interne fossero diverse, ciascuna

particella si muoverebbe nella direzione della loro risultante, e il fluido non sarebbe in

quiete. Come conseguenza, la forza per unità di area, o pressione, esercitata dal fluido

contro le pareti di un qualsiasi recipiente che lo contiene è in ogni punto perpendicolare

alle pareti stesse. Se così non fosse, le componenti tangenziali delle forze

provocherebbero uno scorrimento del fluido.

Legge di Pascal

Questa proprietà venne espressa per la prima volta in forma leggermente più estesa dal

matematico e filosofo francese Blaise Pascal, nel 1647. La legge di Pascal afferma che la

pressione applicata a un fluido contenuto in un recipiente si trasmette in ugual misura a

tutte le direzioni e a tutte le parti del contenitore, posto che possano essere trascurate le

differenze di pressione dovute al peso del fluido: questa legge ha importantissime

applicazioni in idraulica.

La superficie libera di un liquido a riposo in un recipiente aperto è sempre perpendicolare

alla direzione della risultante delle forze che agiscono su di esso. Così, se l'unica forza

applicata è quella di gravità, la superficie è orizzontale, mentre se agiscono forze di

natura diversa essa può assumere varie forme. Ad esempio, le forze che agiscono

sull'acqua di un bicchiere in rapida rotazione intorno all'asse verticale sono la gravità e la

spinta centrifuga, reazione alla forza centripeta che le pareti del bicchiere esercitano sul

liquido per trattenendolo al loro interno: la superficie libera dell'acqua dunque si inarca,

assumendo un profilo parabolico, perpendicolare alla direzione della risultante delle due

forze.

Legge di Stevino

In un liquido sottoposto alla sola forza di gravità e contenuto in un recipiente aperto, la

pressione in ogni punto interno al liquido è direttamente proporzionale al peso della

colonna di liquido soprastante, e quindi all'altezza di questa e alla densità del liquido, ma è

totalmente indipendente dalle dimensioni o dalla forma del contenitore. Questo risultato,

noto come legge di Stevino, permette di concludere che la pressione esercitata sul fondo

di un tubo verticale pieno d'acqua, lungo 15 m e di diametro pari a 2,5 cm, è uguale a

quella esistente sul fondale di un lago profondo 15 m. Analogamente, se si riempie

d'acqua un tubo verticale lungo 30 m in modo che la superficie libera del liquido si trovi

solo a 15 m dal fondo, l'acqua esercita sul fondo del condotto esattamente la stessa

pressione dell'esempio precedente. Il peso di una colonna di acqua alta 30 cm e con

sezione di 6,5 centimetri quadrati è 195 g: questo valore rappresenta la forza applicata al

fondo di tale colonna d'acqua. Una colonna dello stesso liquido e della stessa altezza, ma

di diametro 12 volte maggiore, occupa un volume 144 volte maggiore e ha un peso 144

volte maggiore, tuttavia la pressione, che viene definita come la forza per unità di

superficie, non cambia. La pressione esercitata sul fondo di una colonna di mercurio della

stessa altezza è invece 13,6 volte maggiore, dal momento che la densità del mercurio

supera di tale quantità quella dell'acqua.

Principio di Archimede

Il secondo principio della fluidostatica fu scoperto dal greco Archimede e afferma che un

corpo immerso in un fluido riceve una spinta idrostatica, diretta dal basso verso l'alto, di

intensità pari al peso del volume di fluido spostato. Si può allora comprendere il motivo per

cui alcuni corpi possono galleggiare. Il peso totale di una nave a pieno carico, ad

esempio, eguaglia quello della quantità d'acqua spostata e il fatto che la risultante delle

due forze sia nulla è sufficiente a garantire l'equilibrio.

Si può pensare che la spinta idrostatica sia applicata a un punto, detto centro di

galleggiamento, che coincide con il centro di gravità della massa di liquido spostato. Il

centro di galleggiamento di un corpo galleggiante si trova esattamente sopra il suo

baricentro: maggiore è la distanza tra i due punti, maggiore è la stabilità del corpo.

Una delle possibili applicazioni del principio di Archimede consiste nel determinare la

densità di un oggetto di forma irregolare, del quale non sia possibile calcolare il volume

per via geometrica. Se si pesa il corpo prima in aria e poi in acqua, la differenza tra le due

misure fornisce il peso del volume di acqua spostato, che è uguale al volume dell'oggetto.

La densità si ottiene allora semplicemente dividendo la massa del corpo per il volume

così determinato. Nelle misure di peso ad altissima precisione si deve tenere conto

anche della spinta di Archimede dell'aria, che, data la molto minore densità dell'aria

rispetto all'acqua, risulta nella maggior parte dei casi trascurabile.

Fluidodinamica

Le leggi che regolano il comportamento dei fluidi in moto sono piuttosto complesse per

cui, nonostante la loro considerevole importanza pratica, ci limiteremo qui all'esposizione

dei più importanti concetti di base.

L'interesse per la fluidodinamica risale alle primissime applicazioni ingegneristiche delle

proprietà dei fluidi al fine di realizzare macchine capaci di svolgere differenti funzioni.

Archimede fornì probabilmente il primo contributo in questo campo, con l'invenzione della

pompa a vite. Altre macchine idrauliche vennero costruite in seguito dai romani, che non

solo adottarono la vite di Archimede per l'irrigazione e per l'estrazione dell'acqua dai

pozzi, ma costruirono nuovi sistemi idraulici, alcuni dei quali tuttora in uso. Nel corso del I

secolo a.C. l'architetto e ingegnere romano Vitruvio introdusse la ruota idraulica, una

macchina che rivoluzionò il sistema di macinazione del granturco.

Gli ulteriori sviluppi in questo campo furono ritardati dal fatto che, nonostante le numerose

precoci applicazioni della fluidodinamica, poco o nulla si sapeva allora dei suoi principi

teorici fondamentali. Dopo il contributo di Archimede, dovettero passare più di 1800 anni

prima che venisse compiuto un significativo progresso: ciò avvenne per merito del

matematico e fisico italiano Evangelista Torricelli che, nel 1643, inventò il barometro e

formulò un'importante legge, tuttora nota con il suo nome. La legge di Torricelli stabilisce

la relazione che esiste fra la velocità di efflusso di un liquido, da un foro praticato nel

recipiente che lo contiene, e l'altezza della colonna di liquido al di sopra del foro stesso. I

successivi progressi della meccanica dei fluidi si ebbero per opera del matematico

svizzero Leonhard Euler (Eulero) che, applicando allo studio dei fluidi i tre principi della

dinamica enunciati da Isaac Newton, scrisse le equazioni fondamentali per il moto di fluidi

ideali, ovvero non viscosi.

Eulero fu il primo a riconoscere che l'unica possibilità di enunciare leggi relativamente

semplici della dinamica dei fluidi fosse quella di limitare lo studio ai fluidi incomprimibili e

ideali, ossia di trascurare gli effetti delle forze di attrito interne. Naturalmente i fluidi ideali

sono solo approssimazioni dei fluidi reali: i risultati dell'analisi di Eulero dunque possono

fornire solo una stima approssimata del comportamento di fluidi reali, caratterizzati da

bassi valori di viscosità.

Flusso dei liquidi incomprimibili e non viscosi

I fluidi incomprimibili e non viscosi, ossia privi di forze di attrito interne, si comportano

secondo il principio di Bernoulli. Enunciato dal matematico svizzero Daniel Bernoulli,

questo principio afferma che l'energia meccanica totale associata al flusso di un liquido

ideale e incomprimibile è costante lungo le linee di flusso. Queste ultime sono linee ideali

parallele in ogni punto alla direzione di flusso del liquido che, nel caso particolare in cui il

moto sia stazionario, coincidono con le traiettorie seguite dalle singole particelle del fluido.

Il principio di Bernoulli mette in relazione gli effetti della pressione con quelli della velocità e

della gravità, ed evidenzia il fenomeno secondo cui la velocità di un fluido aumenta al

diminuire della pressione. Esso si rivela estremamente importante nella progettazione

degli effusori, nelle misure di flusso, e per gli studi di aerodinamica.

Principio dei vasi comunicanti

Si chiamano vasi comunicanti due o più recipienti collegati da un tubo di comunicazione.

Principio dei vasi comunicanti: in due vasi comunicanti, due liquidi raggiungono l’equilibrio

quando le altezze delle loro colonne sono inversamente proporzionali ai loro pesi specifici

ossia, le altezze delle colonne dei due liquidi al di sopra della superficie di contatto, sono

inversamente proporzionali alle rispettive densità.

Fenomeni capillari

Un liquido in quiete, contenuto in un recipiente, dispone per effetto della forza di gravità la

propria superficie libera in un piano orizzontale. Questo non accade in prossimità delle

pareti poiché lì si verifica un fenomeno di curvatura, detto menisco, dovuto al fatto che

una molecola è soggetta all’azione delle forze attrattive esercitate dalle alte molecole del

liquido a lei vicine (forza di coesione) ed alle forze attrattive esercitate dalle molecole della

parete di contenimento (forza di adesione). Queste due forze attrattive sono coesistenti,

ed a seconda che prevale l’una sull’altra, si avrà menisco concavo o convesso:

Il menisco concavo è caratteristico dei liquidi che bagnano la parete (come ad esempio

l’acqua);

Il menisco convesso è caratteristico dei liquidi che non bagnano la parete (come ad

esempio il mercurio).

Lo stesso fenomeno si verifica nei tubi a sezione molto piccola, detti tubi capillari, e

prende il nome di capillarità. La legge che lo regola è detta regola legge di Jurin –

Borelli, secondo la quale le differenze di livello che si hanno tra il menisco nel tubo

capillare e la superficie del liquido sono inversamente proporzionali al raggio dei

capillari.

Fenomeni dovuti alla capillarità sono: il sollevamento del petrolio, dell’alcol nello

stoppino di una lucerna, l’effetto di inibizione delle carte assorbenti e di quelle da filtro,

ecc.

Altri effetti superficiali, di tipo inverso sono quelli che danno luogo alle lamine liquide,

dovute al fatto che sulla superficie di un liquido si forma sempre una specie di

membrana sottilissima e contrattile. Esempi sono le bolle di sapone e la goccia che

assume la forma sferica (perché si comporta come una membrana elastica riempita

di liquido).

Moto di fluidi viscosi: moto laminare e turbolento

Equazioni di Navier-Stokes

I primi esperimenti sul moto a bassa velocità di fluidi viscosi furono probabilmente

condotti nel 1839 dal fisiologo Jean-Louis-Marie Poiseuille, interessato a determinare le

proprietà della circolazione del sangue, e nel 1840 dall'ingegnere idraulico tedesco Gotthilf

Heinrich Ludwig Hagen. I primi tentativi di includere gli effetti della viscosità nelle equazioni

matematiche del moto dei fluidi si devono invece all'ingegnere francese Claude-Louis-

Marie Navier e al matematico britannico George Gabriel Stokes il quale, nel 1845, formulò

le equazioni fondamentali per i fluidi viscosi incomprimibili. Note come equazioni di Navier-

Stokes, esse risultano talmente complesse da poter essere applicate soltanto a flussi

semplici, qual è, ad esempio, quello relativo al moto di un fluido reale in un condotto

rettilineo. In questo caso, il principio di Bernoulli non è applicabile, perché l'energia

meccanica totale viene dissipata per effetto dell'attrito viscoso: si verifica perciò una

caduta di pressione lungo tutto il condotto. Dalle equazioni si può dedurre che il calo di

pressione, per un determinato sistema di condotto e per un fissato fluido, sarà

proporzionale alla velocità di flusso.

Numero di Reynolds

Gli esperimenti realizzati verso la metà del XIX secolo mostrarono che ciò è vero solo nei

limiti di basse velocità, e che a velocità maggiori il calo di pressione dipende invece dal

quadrato della velocità. Il problema non trovò soluzione fino al 1883, quando l'ingegnere

britannico Osborne Reynolds distinse due tipi diversi di moto di un fluido viscoso

all'interno di un condotto. Egli osservò che a basse velocità le particelle seguono le linee

di flusso (regime laminare), secondo le previsioni delle equazioni analitiche, mentre a più

alte velocità il flusso si rompe in una serie di gorghi (regime turbolento) non perfettamente

prevedibili neppure con le moderne teorie. Reynolds stabilì inoltre che la transizione dal

regime laminare a quello turbolento dipende da un solo parametro, detto in suo onore

numero di Reynolds, che può essere calcolato moltiplicando il prodotto della velocità e

della densità del fluido per il diametro del condotto e dividendo il risultato ottenuto per la

viscosità. Se per un certo sistema fluidodinamico il numero di Reynolds risulta minore di

2100, il flusso all'interno del condotto è di tipo laminare; per valori più alti di tale parametro

si instaura invece un regime di moto turbolento.

Lo studio dei moti turbolenti non può essere unicamente teorico, ma dipende da una

sintesi tra dati sperimentali e modelli teorici, tutt'ora in fase di perfezionamento. Il

fenomeno della transizione da regime laminare a regime turbolento e la complessità di

quest'ultimo possono essere osservati nella diffusione del fumo di una sigaretta in aria

ferma. Dapprima esso sale verso l'alto dando luogo a un flusso di tipo laminare, ma dopo

una certa distanza diventa instabile e si rompe in una serie di gorghi e circonvoluzioni.

La teoria dello strato-limite

Prima del 1860, l'interesse ingegneristico nei confronti della meccanica dei fluidi si limitava

quasi esclusivamente allo studio del moto dell'acqua. Lo sviluppo dell'industria chimica,

che si verificò nella seconda metà del XIX secolo, spostò l'attenzione anche sul

comportamento di altri liquidi e dei gas. Gli studi di aerodinamica vennero inaugurati

dall'ingegnere aeronautico Otto Lilienthal, e conobbero i maggiori successi dopo il primo

volo a motore compiuto nel 1903 dai fratelli Wilbur e Orville Wright.

La complessità del comportamento dei fluidi viscosi, in modo particolare in regime di moto

turbolento, rappresentò un serio ostacolo agli ulteriori progressi della fluidodinamica. Nel

1904 l'ingegnere tedesco Ludwig Prandtl riconobbe che, in un gran numero di casi, è

possibile e conveniente suddividere un fluido in moto in due regioni distinte. Una regione

prossima alla superficie del condotto, che consiste di un sottile strato limite in cui sono

concentrati gli effetti della viscosità, e nella quale il modello matematico può essere

semplificato significativamente in virtù del suo sottile spessore, e una regione al di fuori di

questo strato, dove gli effetti della viscosità si possono trascurare e dove dunque è

possibile adottare le semplici equazioni matematiche dei fluidi privi di attrito interno. È alla

teoria dello strato-limite che si deve lo sviluppo delle più moderne applicazioni

ingegneristiche nel campo della fluidodinamica, quali le ali dei velivoli, le turbine a gas e i

compressori. Essa infatti non solo rese possibile una riformulazione semplificata delle

equazioni di Navier-Stokes, nella regione prossima alla superficie di un corpo immerso in

un fluido in moto, ma portò anche a ulteriori sviluppi della teoria dei fluidi ideali, nelle

applicazioni riguardanti la regione esterna allo strato limite. Gran parte delle conquiste

della meccanica dei fluidi che seguirono l'introduzione del concetto di strato-limite si

devono all'ingegnere aeronautico di origine ungherese Theodore von Kármán, al

matematico tedesco Richard von Mises e al fisico e meteorologo britannico Geoffrey

Ingram Taylor.

Moto di fluidi comprimibili

L'interesse per la dinamica dei fluidi comprimibili scaturì dallo sviluppo delle turbine a

vapore, dovuto all'inventore britannico Charles Algernon Parsons e all'ingegnere svedese

Carl Gustaf Patrik de Laval, intorno al 1880. Un effettivo sviluppo dello studio del moto di

vapore ad alta velocità all'interno di passaggi di flusso si ebbe però solo negli anni Trenta,

motivato dai successi della turbina a gas e della propulsione a getto. Le prime ricerche

sui flussi superficiali ad alta velocità vennero condotti nell'ambito degli studi di balistica, e

in particolare del moto dei proiettili in aria. Gli sviluppi più rimarchevoli si ebbero verso la

fine del XIX secolo e nel corso della seconda guerra mondiale, con la realizzazione di

velivoli ad alta velocità e dei razzi.

Uno dei principi fondamentali del comportamento dei fluidi comprimibili prevede che la

densità di un gas vari quando esso è sottoposto a notevoli variazioni di pressione e di

velocità. Contemporaneamente, inoltre, si manifestano anche variazioni di temperatura,

complicando l'analisi del sistema. Il comportamento di un fluido comprimibile in moto

dipende dalla velocità di flusso, e varia in modo sostanziale a seconda che questa sia

maggiore o minore della velocità del suono.

Onde d'urto

Il suono consiste sostanzialmente nella propagazione di una piccola perturbazione, o

onda di pressione, all'interno di un fluido, e si propaga con velocità proporzionale alla

radice quadrata della temperatura assoluta. Ad esempio, nell'aria alla temperatura di

20 °C, pari a 293 gradi kelvin nella scala assoluta, il suono si propaga alla velocità di circa

344 m al secondo. Se un aereo vola a velocità minore di quella del suono (subsonica), le

onde di pressione che si trasmettono attraverso il fluido si aggiustano in modo da

scivolare uniformemente sulla superficie del velivolo. Se viceversa l'aereo si muove con

velocità maggiore rispetto a quella del suono (volo supersonico), tali onde non riescono a

circondare le superfici in movimento per riaggiustare il flusso del fluido. L'aria non riesce a

impedire il disturbo improvviso provocato dall'aereo, e si dirige istantaneamente e con

forza verso le ali, nelle estreme vicinanze delle quali si ha la formazione di un'intensa

compressione, o onda d'urto, che viene percepita da un osservatore a terra sotto forma

di bang sonico. Il rumore associato al passaggio di questa onda d'urto è caratteristico

degli aerei che volano a velocità supersonica.

Il moto all'interno di fluidi comprimibili si identifica solitamente con un parametro detto

numero di Mach, pari al rapporto tra la velocità di flusso e la velocità del suono. I flussi

supersonici sono quindi caratterizzati da un numero di Mach maggiore di 1.

Statica dei Gas

Gas In fisica, uno dei tre diversi stati di aggregazione – solido, liquido, gassoso – in cui

può presentarsi la materia, ciascuno caratterizzato da proprietà microscopiche e

macroscopiche distinte. A differenza dei solidi, che hanno un volume e una forma propria,

e dei liquidi, che hanno volume proprio ma assumono la forma del recipiente che li

contiene, i gas non hanno né forma né volume propri.

La teoria atomica della materia permette di spiegare le caratteristiche dei tre stati di

aggregazione analizzandole in termini microscopici. Così, le molecole di un solido

occupano posizioni fisse all’interno di un reticolo regolare e la loro libertà di movimento è

limitata a piccole vibrazioni attorno ai siti reticolari; le molecole di un liquido sono legate da

forze meno intense di quelle dei solidi, e sono quindi dotate di una maggiore libertà di

movimento; nei gas, invece, non vi è alcun ordine spaziale microscopico: le molecole si

muovono incessantemente e casualmente, trattenute solo dalle pareti del recipiente che

le contiene.

Per descrivere il comportamento di un gas si ricorre a un modello ideale, quello di “gas

perfetto”, e alle tre variabili macroscopiche: pressione (P), volume (V) e temperatura (T).

Un gas si può dire “perfetto” se le sue molecole sono talmente piccole da poter essere

considerate puntiformi e se è talmente rarefatto da far sì che si possano trascurare le

interazioni tra le molecole.

Le leggi che correlano le tre variabili macroscopiche di un gas sono state ricavate per via

empirica. La legge di Boyle (che deve il nome allo scienziato irlandese Robert Boyle)

stabilisce che in un gas, in condizioni di temperatura costante, il volume è inversamente

proporzionale alla pressione. La legge di Gay-Lussac (dal chimico e fisico francese J.-L.

Gay-Lussac) afferma che, a volume costante, la pressione è direttamente proporzionale

alla temperatura assoluta.

Combinando queste due leggi, si ottiene la legge generale, nota anche come equazione di

stato dei gas perfetti, PV/T= R, dove n è il numero di moli. R è una costante universale –

K-1

di valore è pari a 8,314 J – la cui scoperta rappresentò una pietra miliare della

scienza moderna.

Lo strumento utilizzato per la misura della pressione è il manometro. La maggior parte dei

manometri funziona registrando la differenza tra la pressione di un fluido noto e quella

atmosferica. Per piccole differenze si usa un tubo trasparente a forma di U, di cui

un’estremità è collegata con il contenitore di cui si vuole misurare la pressione interna e

l’altra è aperta. Il tubo viene riempito di un determinato liquido, come olio, acqua o

mercurio, e la differenza di livello raggiunto dal liquido nei due bracci del tubo fornisce la

differenza tra la pressione della colonna di liquido, pari a quella interna del contenitore, e

la pressione atmosferica locale.

Per differenze di pressione di maggiore entità si usa il manometro a molla tubolare, o

manometro di Bourdon, dal nome del suo inventore, il francese Eugène Bourdon.

Consiste di un tubo metallico cavo a sezione ellittica piegato a uncino: un’estremità del

tubo è chiusa, l’altra è aperta. Se si applica a quest’ultima una pressione (in aggiunta a

quella atmosferica), la sezione ellittica si deforma leggermente, avvicinandosi sempre più

alla forma circolare, e nello stesso tempo il tubo si allunga leggermente. All’estremità

chiusa si ottiene un movimento, proporzionale alla pressione applicata, che si può

misurare su una scala opportunamente calibrata. I manometri progettati per registrare

rapide fluttuazioni di pressione sfruttano generalmente sensori piezoelettrici o

elettrostatici, che riescono a seguire le variazioni con una risposta pressoché istantanea.

Per ottenere il reale valore assoluto di pressione da una misura effettuata con un

manometro – che indica la differenza tra la pressione del fluido e la pressione atmosferica

– bisogna sommare il valore della pressione atmosferica locale al valore indicato dallo

strumento. Un valore negativo corrisponde a un parziale vuoto.

10-6

Per misurare bassi valori della pressione di un gas (fino a mm di mercurio) si usa il

manometro di McLeod: si comprime un volume noto di gas – di cui si vuole determinare la

pressione – con una trasformazione isoterma, che ne riduca notevolmente il volume; se

ne misura la pressione con un comune manometro, e si risale alla pressione iniziale

incognita utilizzando la legge di Boyle. Per pressioni ancora minori, si usano manometri

che sfruttano fenomeni che coinvolgono radiazione, ionizzazione o effetti molecolari.

Legge di Dalton

Non essendo rigorosamente esatta la legge di Boyle – Mariotte, Dalton estese la legge ai

miscugli gassosi enunciando la seguente legge: La pressione totale esercitata da un

miscuglio di due o più gas è uguale alla somma delle pressioni parziali che i singoli gas

componenti il miscuglio eserciterebbero nel caso in cui ogni gas occupasse da solo tutto

il volume dell’intero recipiente; la pressione di una miscela di gas è uguale alla somma

delle pressioni parziali dei gas componenti.

CHIMICA

La Materia, i suoi stati e le sue trasformazioni

La chimica è la scienza che si occupa dello studio della proprietà della materia, cioè la

composizione, la struttura e le trasformazioni che essa subisce.

Con il termine materia s’intende tutto ciò che occupa uno spazio e che ha una massa.

Con il termine sostanza si indica invece quella parte della materia che possiede le stesse

proprietà.

La materia, qualunque sia il suo stato fisico, possiede un peso dovuto alla forza di gravità

che in taluni casi viene confuso con la massa, pertanto è fondamentale la distinzione tra

massa e peso:

Massa: misura della quantità di materia;

Peso: misura dell’attrazione della massa da parte della terra.

Un parametro importante per caratterizzare la materia è la densità, definita come la

massa dell’unità di volume.

L’universo è formato da elementi fondamentali che possono combinarsi tra loro e formare

i composti. Gli elementi a loro volta sono formati da entità più piccole, dette atomi.

La materia è rappresentata dunque da composti ottenuti dalla combinazione di elementi

base.

Stati fisici della materia.

La materia di presenta sotto tre stati fisici:

Solido

Liquido

Aeriforme (gas e vapori)

La caratteristica di un solido è quella di avere forma e volume propri. Lo stato solido ha

dunque una conformazione di atomi ben precisa, all’interno della quale essi non possono

muoversi, un esempio classico sono i cristalli. La forma può essere cambiata solo con

l’applicazione di forze di notevole intensità come quelle necessarie a piegare una sbarra

di ferro.

Nello stato liquido e nello stato gassoso, gli atomi sono liberi di muoversi e la sostanza

non ha una forma ben precisa, ma assume la forma del contenitore in cui essa si trova

(come l’acqua in bottiglia).

Un liquido è caratterizzato da un volume proprio ma non da una forma definita; esso

assume la forma del recipiente che lo contiene. Le sue molecole sono ad una distanza

reciproca dello stesso ordine di grandezza di quelle di un solido, ma non hanno una

posizione fissa nello spazio. Questo fa presumere che esse siano libere di muoversi una

rispetto all’altra, ma non di aumentare la loro reciproca distanza. Ne consegue che un

liquido conserva il suo volume, indipendentemente dalla forma assunta.

Un gas, non ha ne forma ne volume propri e si espande fino ad occupare tutto il volume

del recipiente nel quale viene rinchiuso, aumentando così la sia rarefazione. In un gas

molto rarefatto le molecole costituenti sono molto lontane le une dalle altre, tanto che le

loro interazioni avvengono solo quando esse si urtano. Si può dire che le molecole dei

gas rarefatti, fra un urto e l’altro, si muovono rettilineamente e nel loro complesso e le loro

traiettorie sono delle spezzate che si intersecano tra loro.

In condizioni non comuni rispetto a quelle terrestri si può parlare di un quarto stato della

materia: il plasma, presente nei tubi al neon, nella ionosfera terrestre, nelle stelle, e a

temperature che arrivano fino ai bilioni di gradi.

Passaggi di stato.

I passaggi o cambiamenti di stato sono delle trasformazioni della materia da uno stato

fisico all’altro, in particolari condizioni di temperatura e pressione.

Tali passaggi sono: fusione, solidificazione, evaporazione, condensazione, liquefazione,

sublimazione, condensazione di gas o brinamento.

Fusione: passaggio dallo stato solido allo stato liquido per azione del calore. Si verifica ad

una temperatura detta di fusione, che varia da sostanza a sostanza, ma che è uguale,

per una stessa sostanza, alla sua temperatura di solidificazione. Tale temperatura le

l’acqua è 0° C. Esempio: il ghiaccio che si scioglie e diventa acqua.

Solidificazione: è il processo inverso della fusione e quindi permette il passaggio dallo

stato liquido allo stato solido. Si ottiene ad una temperatura detta di solidificazione

(mediante raffreddamento). Esempio: l’acqua che diventa ghiaccio.

Evaporazione: passaggio dallo stato liquido allo stato di vapore, si verifica ad una

temperatura detta di evaporazione che varia da sostanza a sostanza , ma che è uguale,

per una stessa sostanza, alla temperatura di condensazione. Tale temperatura per

l’acqua è 100° C. Esempio: l’acqua che bolle.

Condensazione: è il processo inverso dell’evaporazione; passaggio dallo stato aeriforme

allo stato liquido mediante raffreddamento, ossia togliendo calore. Si ottiene ad una

temperatura detta di condensazione. Esempio: la pioggia.

Liquefazione: è il passaggio, sotto adeguate condizioni di pressione e di temperatura, di

un gas allo stato liquido, in sostanza coincide con la condensazione, anche se in

generale la condensazione di riferisce all’acqua.

Sublimazione: è il passaggio diretto dallo stato solido allo stato aeriforme e viceversa,

saltando la fase liquida. Esempio: deodoranti solidi utilizzati in auto o negli armadi.

Tavola periodica degli elementi chimici. Numero di Avogadro.

La grandissima verità di sostanze che esistono in natura e tutte quelle che sono state e

che saranno prodotte in laboratorio, sono combinazioni di un numero prestabilito di

sostanze fondamentali, dette elementi chimici.

Il concetto di elemento chimico fu enunciato da Boyle: un elemento si riconosce dal fatto

che è decomponibile in altre sostanze.

Gli elementi chimici sono formati da atomi, che rappresentano la struttura più semplice

della materia., che non è possibile suddividere ulteriormente con mezzi chimici.

La struttura immediatamente successiva a quella degli elementi è rappresentata dalle

molecole, che si possono ottenere dall’unione di più elementi simili oppure diversi.

Si può quindi dire che la materia alla sua base è costituita da atomi che si combinano tra

loro per formare elementi, e che tali elementi si combinano per formare le molecole.

Si chiama peso atomico la massa relativa agli atomi, che si ottiene assumendo come

unità di misura la dodicesima parte della massa dell’isotopo 12 del carbonio. Ogni

elemento chimico avrà dunque un proprio peso atomico e le molecole avranno un peso

molecolare ottenuto dalla somma dei pesi atomici degli elementi componenti, moltiplicato

per il numero di volte con cui gli elementi compaiono. Per qualunque sostanza si definisce

mole o grammomolecola un numero di grammi di essa pari al suo peso molecolare.

Numero di Avogadro

Numero delle molecole contenute in una mole di qualunque sostanza o, in altre parole,

numero degli atomi contenuti in 12 g di carbonio 12. Secondo il Comitato sui Dati per la

1023,

Scienza e la Tecnologia (CODATA), il numero di Avogadro equivale a 6,022045 ×

valore calcolato come media approssimata dei dati ottenuti mediante metodi sperimentali

chimici e fisici indipendenti. Indicato con il simbolo NA o N deve il suo nome al chimico

0,

italiano Amedeo Avogadro, che nel 1811 postulò la legge secondo cui volumi uguali di gas

diversi, nelle stesse condizioni di temperatura e pressione, contengono lo stesso numero

di molecole.

Recentemente, nell’ambito di studi compiuti a livello internazionale per ridefinire il

chilogrammo in base a costanti o grandezze universali, è stata fornita una nuova stima

1023,

del numero di Avogadro; il valore aggiornato, pari a 6,0221353 × si basa su un

metodo ultrapreciso di conta degli atomi contenuti in un campione di materiale: mediante

raggi X sono state valutate la struttura, la densità e la massa molare di un cristallo di

silicio ultrapuro e quindi diviso il volume molare per il volume atomico.

Elementi chimici

Gli elementi chimici a noi noti oggi sono 109, di cui 90 presenti in natura e 19 sintetizzati in

laboratorio attraverso reazioni nucleari. Questi ultimi elementi sono definiti artificiali o

transuranici.

Elementi chimici Sostanze costituite da atomi dello stesso tipo, tutti contenenti un ugual

numero di elettroni e di protoni. Si conoscono più di 100 elementi diversi, alcuni dei quali, i

cosiddetti elementi transuranici, sono estremamente radioattivi; essi pertanto non si

trovano in natura, ma vengono prodotti per via artificiale bombardando nuclei atomici di

altri elementi con particelle cariche.

Una prima classificazione divide gli elementi chimici in metalli e non-metalli; i primi sono

elettropositivi, tendono a cedere un elettrone e si combinano velocemente con gli atomi

dei non-metalli; questi ultimi sono al contrario elettronegativi e facilmente acquistano un

elettrone. In qualche caso si individua anche una terza classe, dei cosiddetti semimetalli,

con proprietà intermedie. Se vengono ordinati in base al numero atomico, proporzionale

alla carica positiva netta del nucleo, si osserva una spiccata periodicità nelle

caratteristiche fisiche e chimiche degli elementi e ciò suggerisce una ulteriore

suddivisione in famiglie; sono così definite le famiglie dei metalli alcalino-terrosi, dei

lantanidi, degli attinidi, degli alogeni e dei gas nobili.

L'unità di peso atomico è pari a un dodicesimo del peso dell'isotopo 12 del carbonio,

arbitrariamente posto uguale a 12. Il numero atomico, il peso e il simbolo chimico di ogni

elemento noto vengono forniti dalla tavola periodica.

Tavola periodica degli elementi o Sistema periodico

Schema che comprende tutti gli elementi chimici, disposti in ordine di numero atomico

crescente e in modo da rispettare la periodicità delle loro caratteristiche. Gli elementi

sono suddivisi in sette righe orizzontali, chiamate periodi, e in diciotto colonne verticali,

dette gruppi. Il primo periodo, che contiene solo due elementi, idrogeno ed elio, e i due

periodi successivi, che contengono ciascuno otto elementi, sono definiti periodi corti. Gli

altri, chiamati periodi lunghi, possono contenere da 18 (come i periodi 4 e 5) a 32 elementi

(come il 6). Il periodo 7 comprende la serie degli attinidi, ottenuta sintetizzando

artificialmente nuclei radioattivi di numero atomico superiore a 92 (che corrisponde

all'uranio).

Le colonne verticali, o gruppi, sono numerate da sinistra a destra utilizzando numeri

romani seguiti dalle lettere A e B, dove B si riferisce agli elementi di transizione.

Viceversa, secondo il metodo introdotto dall'Unione internazionale di chimica pura e

applicata (IUPAC), che si sta ampiamente diffondendo, i gruppi si numerano

semplicemente dall'uno al diciotto, procedendo da sinistra a destra.

Tutti gli elementi che appartengono a un determinato gruppo hanno proprietà chimiche

molto simili e, al contempo, molto differenti da quelle degli elementi di altri gruppi. Ad

esempio, gli elementi del gruppo 1 (o IA) sono metalli, con l'eccezione dell'idrogeno, e

hanno valenza +1; invece, quelli del gruppo 17 (o VIIA), con l'eccezione dell'astato, sono

non metalli, che generalmente formano composti in cui hanno valenza (o grado di

ossidazione) -1.

Tabella elementi:

Massa atomica degli elementi

NUMERO ELEMENTO ELEMENTO MA S S A A TO MI CA

ATOMICO (NOME) (SIMBOLO) (uma)*

1IdrogenoH1,00792ElioHe4,00263LitioLi6,9414BerillioBe9,01225BoroB10,816CarbonioC12,0117AzotoN

14,00678OssigenoO15,99949FluoroF18,998410NeonNe20,179811SodioNa22,989812MagnesioMg24,30

5113AlluminioAl26,981514SilicioSi28,085515FosforoP30,973816ZolfoS32,06717CloroCl35,452818Argo

nAr39,94819PotassioK39,098320CalcioCa40,07821ScandioSc44,955922TitanioTi47,86723VanadioV50

,

941524CromoCr51,996225ManganeseMn54,93826FerroFe55,84527CobaltoCo58,933228NichelNi58,693

429RameCu63,54630ZincoZn65,40931GallioGa69,72332GermanioGe72,6133ArsenicoAs74,921634Sel

enioSe78,9635BromoBr79,90436CriptoKr83,79837RubidioRb85,467838StronzioSr87,6239IttrioY88,906

40ZirconioZr91,22441NiobioNb92,906442MolibdenoMo95,9443TecnezioTc9844RutenioRu101,0745Rodi

oRh102,905546PalladioPd106,4247ArgentoAg107,868248CadmioCd112,41249IndioIn114,81850Stagno

Sn118,71151AntimonioSb121,76052TellurioTe127,6053IodioI126,904554XenoXe131,2955CesioCs132,

905456BarioBa137,32857LantanioLa138,905558CerioCe140,11559PraseodimioPr140,90860NeodimioN

d144,2461PromezioPm14562SamarioSm150,3663EuropioEu151,9664GadolinioGd157,2565TerbioTb158

,

925366DisprosioDy162,50067OlmioHo164,930368ErbioEr167,2669TulioTm168,934270ItterbioYb173,04

7 1 L u t e z i o L u 1 7 4 , 9 6 7 7 2 A f n i o Hf 1 7 8 , 4 9 7 3 Ta n t a l i o Ta 1 8 0 , 9 4 8 7 4 Wo l f r a mi o

(Tungsteno)W183,8475RenioRe186,20776OsmioOs190,2377IridioIr192,21778PlatinoPt195,0879OroAu

196,966580MercurioHg200,5981TallioTl204,383382PiomboPb207,2083BismutoBi208,980484PolonioPo

20985AstatoAt21086RadonRn22287FrancioFr22388RadioRa22689AttinioAc22790TorioTh232,0391Prot

oattinioPa231,03692UranioU238,028993NettunioNp23794PlutonioPu24495AmericioAm24396CurioCm24

797BerkelioBk24798CalifornioCf25199EinsteinioEs252100FermioFm257101MendelevioMd258102Nobeli

oNo259103LaurenzioLr260104RutherfordioRf261105DubnioDb262106SeaborgioSg266107BohrioBh2621

08HassioHs263109MeitnerioMt268110DarmstadtioDs271111RoentgenioRg272112UnunbioUub277*

unità di massa atomica

La tavola periodica

La tavola periodica degli elementi, formulata da Dimitri Mendeleev nel 1869, raggruppa e

classifica tutti questi elementi in base alle loro masse atomiche; essa contiene otto

colonne verticali dette gruppi, e sette righe orizzontali dette periodi. I gruppi sono numerati

da I a VIII ei periodi da 1 a 7.

La massa atomica di un elemento è la massa dell’atomo espressa nell’unità unificata di

massa atomica (u. m. a.).

I metalli hanno le seguenti proprietà fisiche:

Buoni conduttori di elettricità e di calore,

Hanno una grande capacità riflettente,

Una grande malleabilità e duttilità,

A temperatura ambiente si presentano allo stato solido.

I non metalli hanno le seguenti proprietà:

Non sono buoni conduttori di elettricità e di calore,

Non hanno potere riflettente,

A temperatura ambiente essi possono essere solidi, liquidi o gassosi.

Nella tavola periodica, l’VIII gruppo è molto importante, poiché contiene i gas nobili, che si

presentano tutti in forma monoatomica, nel senso che in natura non si legano avendo una

configurazione atomica già stabilizzata. Essi sono: Elio, Neo, Argo, Cripto, Xeno, Rado.

Leggi fondamentali della chimica

Si è detto che la materia è costituita da elementi che, combinandosi tra loro, danno luogo

a tutto ciò che ci circonda.

Tali combinazioni avvengono per mezzo di reazioni chimiche, attraverso le quali gli

elementi formano i composti chimici definiti come molecole.

Le reazioni chimiche avvengono secondo delle leggi definite fondamentali della chimica.

Legge di conservazione delle masse

La somma delle masse delle sostanze che reagiscono tra loro è uguale alla somma delle

sostanze che si formano nella reazione.

Tale legge equivale a dire: nulla si crea e nulla si distrugge, ma tutto si trasforma.

Questa legge è stata formulata per la prima volta da Lavoisier nel 1774 ed è di validità

generale.

Tale legge perde di significato nel momento in cui si considerano reazioni nucleari, poiché

in tal caso c’è una perdita di massa apprezzabile; tuttavia Einstein ha dimostrato che la

materia non va perduta ma viene trasformata in energia.

Legge delle proporzioni definite

Ogni composto ha una composizione chimica definita e che le combinazioni avvengono

secondo rapporti fissi e costanti. Tale legge è nota come Legge di Proust.

Legge delle proporzioni multiple

Le quantità in peso di un elemento che si combinano con la stessa quantità di un altro

elemento per formare diversi composti stanno tra loro n rapporti espressi da numeri

interi. Tale legge è nota come Legge di Dalton.

SOLUZIONI

Soluzione In chimica, miscela omogenea di due o più sostanze; la sostanza presente in

quantità maggiore, che può essere solida, liquida o gassosa, è detta solvente, mentre

quella presente in quantità minore, in genere solida o liquida, è detta soluto. Raramente

miscele di gas, come l'atmosfera, sono dette soluzioni. Le soluzioni appaiono omogenee

e il soluto non può essere separato tramite filtrazione, a differenza di quanto avviene nei

colloidi o nelle sospensioni, in cui le particelle di soluto sono di dimensioni molecolari e

finemente disperse tra le molecole del solvente. Si dice soluzione solida una miscela di

metalli che ha subito un processo di solidificazione mantenendo le proporzioni fra i

costituenti.

Solubilità

Alcuni liquidi, ad esempio acqua e alcol, si sciolgono fra loro in qualsiasi proporzione; al

contrario se si scioglie zucchero in acqua, non si potrà superare un limite fissato, che

dipende dalle condizioni di pressione e temperatura, e la soluzione può quindi divenire

satura. La solubilità di un composto in un solvente è definita, per valori fissati di pressione

e temperatura, come la quantità massima di quel composto che può sciogliersi in

soluzione e, tranne poche eccezioni come gas o sali organici di calcio, cresce

all'aumentare della temperatura del solvente. In generale, le soluzioni di molecole

strutturalmente simili a quelle del solvente hanno solubilità elevate.

Proprietà fisiche

Quando si aggiunge del soluto a un solvente, molte delle proprietà di quest'ultimo variano;

in particolare all'aumentare della concentrazione di soluto, si alza il punto di ebollizione e

si abbassa il punto di solidificazione (o congelamento). Per questo motivo, si può inibire il

congelamento dell'acqua contenuta nel radiatore di un'automobile aggiungendovi una

sostanza antigelo, ad esempio 1,2-etandiolo (HOCH2CH2OH), sotto forma di soluto.

Inoltre, la pressione di vapore del solvente si abbassa all'aumentare della concentrazione

di soluto.

Un'altra importante proprietà delle soluzioni è la capacità di esercitare pressione

osmotica. Se due solventi vengono separati da una membrana semipermeabile (una

membrana che permette il passaggio delle molecole di solvente ma non di quelle di

soluto), le molecole del solvente si sposteranno dalla soluzione a concentrazione più

bassa a quella a concentrazione più alta, con l'effetto di diluire quest'ultima. Vedi Osmosi.

Acidi e Basi

Acidi e basi Classi di composti chimici che presentano proprietà opposte. Gli acidi hanno

sapore aspro, conferiscono una colorazione rossa alla tintura di tornasole e spesso

reagiscono con i metalli liberando idrogeno gassoso; le basi hanno sapore amaro,

conferiscono al tornasole una colorazione blu e sono viscide al tatto. Mescolando

soluzioni acquose di un acido e di una base, si sviluppa una reazione detta di

neutralizzazione, che ha la caratteristica di procedere rapidamente e di produrre un sale.

L'acido solforico e l'idrossido di sodio NaOH, ad esempio, producono acqua e solfato di

sodio secondo la reazione: H2SO4 + 2NaOH⇄2H2O + Na2SO4

Prime teorie

Il primo passo verso la comprensione della chimica di acidi e basi fu compiuto intorno al

1834 dal fisico inglese Michael Faraday, con la scoperta della loro proprietà di essere

elettroliti, sostanze che, sciolte in acqua, generano una soluzione contenente particelle

cariche (vedi Ioni), permettendo la conduzione di corrente elettrica. Nel 1887 il chimico

svedese Svante Arrhenius (e in seguito il chimico tedesco Wilhelm Ostwald) propose un

criterio di classificazione per acidi e basi: in base a tale metodo si definisce acido un

composto che, in soluzione acquosa, determina una concentrazione di ioni idrogeno

(protoni) maggiore di quella che si riscontra in acqua pura, e basico un composto che,

nelle medesime condizioni, determina un aumento di concentrazione di ioni idrossido

OH- .

La teoria di Arrhenius, per quanto di grande semplicità e chiarezza, limita tuttavia la

definizione a specie contenenti rispettivamente idrogeno e ossidrili, e può essere

applicata solo a soluzioni acquose.

TEORIA DI BRØNSTED-LOWRY

Nel 1923 il chimico danese Johannes Brønsted e, indipendentemente, il chimico

britannico Thomas Lowry proposero una nuova teoria che estendeva la classificazione di

Arrhenius a soluzioni non acquose; essi definirono acide le sostanze con tendenza a

H+)

cedere protoni (ioni idrogeno e basiche quelle con tendenza ad acquistarli.

Secondo la definizione di Brønsted-Lowry, un acido si trasforma nella corrispondente

base cedendo un protone; analogamente una base che acquista un protone si trasforma

nell'acido coniugato. Si definisce 'forte' un acido che dona velocemente tutti i protoni a una

base, cosicché un acido è tanto più forte quanto più è debole la sua base coniugata. Alla

luce di quanto detto, si consideri la reazione di equilibrio fra un generico acido (1) e una

generica base (2): Acido (1) + Base (2)⇄Acido (2) + Base (1) La reazione effettiva

procede prevalentemente nella direzione che porta alla formazione dell'acido e della base

+ Cl-

più deboli; ad esempio la reazione di HCl in ambiente acquoso HCl + H2O⇄H3O +

procede prevalentemente da sinistra a destra (equilibrio spostato verso destra), perché,

Cl- +(acido

mentre l'acido cloridrico è forte, gli ioni e H3O coniugato di H2O) costituiscono

rispettivamente una base e un acido deboli. + F-

Al contrario nella reazione HF + H2O⇄H3O + l'equilibrio è spostato verso sinistra

-

perché H2O è una base più debole rispetto a F , e HF è un acido più debole (in acqua) di

+.

H3O La teoria Brønsted-Lowry fornisce una spiegazione del comportamento anfotero

dell'acqua: essa è una base in presenza di un acido più forte (ad esempio HCl) che ha

quindi maggior tendenza a dissociarsi, e un acido nella reazione con una base più forte

+ Cl- H2O⇄NH4+

(ad esempio l'ammoniaca). Così si ha HCl + H2O⇄H3O + e NH3+ +

OH- .

Misura della forza di un acido e di una base

La forza di un acido o di una base può essere valutata attraverso la misura della

+ OH-

concentrazione degli ioni H3O e , che saranno stati prodotti in soluzioni acquose

rispettivamente acide o basiche per cessione o sottrazione di protoni. Sulla base di

questo criterio, sono state messe a punto due scale, note come pH e pOH, i cui valori

corrispondono rispettivamente al logaritmo, cambiato di segno, della concentrazione dello

+]

ione ossonio e dello ione idrossido in soluzione acquosa: pH = -log [H3O pOH = -log

[OH- ]

All'acqua pura corrisponde pH uguale a 7,0; l'aggiunta di un acido produce un aumento

+]

della concentrazione dello ione ossonio [H3O e una conseguente riduzione del valore

del pH che fornisce una misura della forza dell'acido in analisi.

La formulazione più recente della teoria di acidi e basi, dovuta a Gilbert Newton Lewis,

definisce gli acidi come sostanze capaci di 'accettare' e le basi come capaci di 'donare'

una coppia di elettroni per formare un legame covalente. Questo schema interpretativo

ha il vantaggio di mantenere validità anche in presenza di solventi diversi dall'acqua, e

non implica la formazione di sali o di coppie coniugate acido-base nelle reazioni di

neutralizzazione. Secondo l'esposizione di Lewis, l'ammoniaca è classificata come base

poiché può donare un doppietto elettronico al trifluoroborano (classificato perciò come

acido) per formare un addotto acido-base: H3N: + BF3

⇄H3N-BF3

pH

Grandezza che esprime la concentrazione di ioni idrogeno di una soluzione. Il termine,

che deriva dal francese pouvoir hydrogène, 'potere d'idrogeno', viene definito come il

H+

logaritmo della concentrazione di ioni (protoni) cambiato di segno: cioè pH = -log10[H

+], [H+] H+ H+

dove è la concentrazione di ioni espressa in moli per litro. Siccome gli ioni

+),

si legano alle molecole d'acqua per formare ioni idronio (H3O il pH è anche espresso in

funzione della concentrazione di questi ioni.

+ (OH-

Nell'acqua pura a 22 °C, gli ioni H3O e ossidrile ) esistono in uguali quantità; la

10-7

concentrazione di ogni specie è moli/litro, cosicché il pH dell'acqua pura è -log

(10-7), 107,

ossia il log cioè 7. Se si aggiunge un acido all'acqua, tuttavia, si forma un

+, 10-6 10-1

eccesso di ioni H3O la cui concentrazione può variare fra e moli/litro, a

seconda della forza e della quantità di acido. Per questo motivo, le soluzioni acide hanno

pH variabile fra 6 (per un acido debole) e 1 (per un acido forte). Al contrario, una

+ OH-

soluzione basica ha bassa concentrazione di ioni H3O e un eccesso di ioni , di

conseguenza il pH varia fra 8 (per basi deboli) e 14 (per basi forti).

Il pH di una soluzione può essere misurato tramite titolazione, che consiste nella

neutralizzazione di un acido (o di una base) con una quantità misurata di base (o di

acido) a concentrazione nota, in presenza di un indicatore (composto il cui colore

dipende dal pH). Il pH di una soluzione può anche essere determinato direttamente

misurando il potenziale elettrico che insorge su elettrodi particolari immersi in soluzione.

Il pH è un parametro che serve alla misurazione del grado di acidità di una soluzione.

Tale valore varia nell’intervallo che va da 0 a 14 e, man mano che aumenta, diminuisce il

grado di acidità in favore di quello di basicità. Viceversa man mano che diminuisce,

aumenta il grado di acidità diminuendo quello di basicità.

Soluzione Valore del pH

Succo gastrico 1 – 2

Succo di limone 2 – 3

Vino 3 – 4

Latte 6 – 7

Sangue 7 – 8

Soluzione di bicarbonato 8 – 9

Sapone da bagno 10 – 11

Ammoniaca domestica 12 - 13

I Sali

Sali Composti chimici ottenibili miscelando quantità equivalenti di un acido e di una base.

Si formano secondo la generica reazione: Acido + Base → Sale + Acqua Ad esempio, per

reazione di una molecola di acido cloridrico con una di idrossido di sodio si forma una

molecola di cloruro di sodio, e dalla reazione si libera anche una molecola di acqua: HCl +

NaOH → NaCl + H2OPer reazione di un acido con una base, presi in quantità tale che il

numero di idrogeni acidi dell'acido sia pari a quello di ioni idrossido della base, si ottiene un

sale neutro: Al(OH)3 + H3PO4 → AlPO4 + 3H2OSe l'acido è poliprotico, si forma un sale

acido chiamato anche idrogenosale: H2CO3 + NaOH → NaHCO3 + H2OSe invece la

base è polidrossilica si ottiene un sale basico: Fe(OH)3 + HCl → Fe(OH)2Cl + H2OLa

nomenclatura dei sali segue la nomenclatura degli acidi da cui derivano cambiando il

suffisso; ad esempio:

il suffisso 'idrico' dell'acido diviene 'uro' nei sali: acido cloridrico (HCl) → cloruro di sodio

(NaCl)

il suffisso 'oso' dell'acido diviene 'ito' nei sali: acido nitroso (HNO2) → nitrito di sodio

(NaNO2)

il suffisso 'ico' dell'acido diviene 'ato' nei sali: acido nitrico (HNO3) → nitrato di sodio

(NaNO3).

Tutti i sali sono elettroliti, ovvero in acqua si scindono in cationi e anioni, dando luogo a

una reazione che prende il nome di idrolisi salina. In generale i sali sono elettroliti forti,

ossia sono completamente dissociati in soluzione acquosa. Un sale sciolto in acqua può

dare luogo a soluzioni acide, basiche o neutre, a seconda della propria composizione.

Dal punto di vista dell'idrolisi salina, possono verificarsi le quattro seguenti situazioni:

1. un sale proveniente dalla reazione di una base debole con un acido forte in soluzione

acquosa si idrolizza e dà reazione acida;

2. un sale proveniente dalla reazione di una base forte con un acido debole in soluzione

acquosa si idrolizza e dà reazione basica;

3. un sale proveniente dalla reazione di una base debole con un acido debole in soluzione

acquosa si idrolizza e dà reazione acida, neutra o basica, secondo che l'acido sia meno

debole, ugualmente debole o più debole della base;

4. un sale proveniente dalla reazione di una base forte con un acido forte in soluzione

acquosa non si idrolizza e la sua soluzione è neutra.

Nome scientifico Nome comune Formula

Cloruro di sodio Sale da cucina NaCI

Carbonato di calcio Marmo CaCO3

Carbonato di sodio Soda Na2CO3

Solfuro di Mercurio Pirite FeS3

Struttura degli atomi

Il primo scienziato ad ipotizzare l’esistenza degli atomi fu J. Dalton, il quale formulò la sua

teoria atomica riprendendo le antiche idee di Democrito. Dalton, supponendo che gli atomi

fossero particelle indivisibili e approfondendone lo studio, dedusse le seguenti tesi:

L’atomo è il più piccolo costituente di un elemento;

Gli atomi di uno stesso elemento sono tutti uguali fra loro;

Atomi di diversi elementi si combinano tra loro per formare i composti;

Durante una reazione chimica gli atomi conservano le loro proprietà.

Dalton immaginava che l’atomo avesse forma sferica, che fosse solido ed indivisibile.

Durante un esperimento scoprì che facendo passare della corrente elettrica attraverso

un gas, questi emetteva delle particelle cariche sia positivamente sia negativamente.

Agli inizi del 1900 i fisici Rutherford e Bohr formularono un nuovo modello di atomo, nel

quale vie erano cariche negative, gli elettroni, disposti attorno ad una parte centrale, il

nucleo; le cariche positive, dette protoni, erano disposte nel nucleo assieme ad altri

elementi privi di carica, i neutroni.

L’ultima versione riconosciuta scientificamente risale al 1926 con il modello a nuvola

elettronica. Tutte le particelle presenti in un atomo sono definite molecole subatomiche ; il

numero di protoni presenti nel nucleo di un atomo è detto numero atomico ed è indicato

con la lettera Z. La somma del numero dei protoni e del numero dei neutroni è detta

numero di massa ed è espresso dalla lettera A.

Modello con nuvola elettronica

Tutte le particelle presenti in un atomo sono definite molecole subatomiche; il numero di

protoni presenti nel nucleo di un atomo è detto numero atomico ed è indicato con la lettera

Z. La somma del numero di protoni e del numero di neutroni è detta numero di massa ed

è espresso dalla lettera A.

Gli elettroni in un atomo sono distribuiti secondo livelli di energia e la loro disposizione

attorno al nucleo rappresenta una nuvola elettronica. Gli elettroni che hanno energia più

bassa sono i più vicini al nucleo, mentre quelli che hanno energia più alta sono più lontani.

Il primo modello energetico può contenere la massimo due elettroni; il secondo e il terzo

possono contenerne al massimo otto. Questo tipo di configurazione è quella che

conferisce una maggiore stabilità energetica all’intero sistema atomico. All’aumentare del

numero di elettroni, questi si distribuiscono su orbitali esterni sempre più complessi.

I corpi solidi, struttura e proprietà meccaniche

Un corpo solido propriamente detto è un corpo a struttura cristallina. In alcune sostanze,

quali il sale da cucina e lo zucchero, la struttura cristallina è bene evidente anche ad

occhio nudo. In altre, come i metalli, essa non è visibile ad occhio nudo; tuttavia se si

pulisce la superficie di un metallo con un opportuno agente chimico, l’osservazione al

microscopio mostra il metallo come una massa di piccolissimi cristalli le cui dimensioni

sono di qualche milionesimo di centimetro.

I cristalli sono corpi solidi limitati da superfici naturali piane. Lo studio ai raggi X ha

mostrato che i cristalli sono sistemi comprendenti un grandissimo numero di atomi

disposti nello spazio secondo un reticolo che può essere complicato ma che è comunque

sempre regolare. I cristalli sono corpi anisotropi; in essi le proprietà fisiche (dilatabilità,

conducibilità termica, conducibilità elettrica, ecc.) dipendono dalla direzione- Esistono poi

corpi i quali, per quanto presentano molte particolarità di comportamento simili a quelle dei

solidi, non hanno una struttura cristallina. Questi corpi detti amorfi, vanno spesso

considerati come fluidi dotati di elevata viscosità (esempio sono il vetro o la pece).

Nella meccanica si è introdotto il concetto di corpo rigido, ossia di un corpo

assolutamente indeformabile. In natura però non esistono corpi del genere poiché

qualunque materiale soggetto a sollecitazioni esterne (forze) si deforma sempre, per

quanto essa è talvolta così piccola da sfuggire all’osservazione grossolana. Se la

deformazione che il corpo subisce per effetto della forza non eccede un certo limite, il

corpo riprende la sua forma primitiva non appena la sollecitazione cessa. Le forze che un

corpo deformato esercita per riprendere la sua forma primitiva si chiamano forze

elastiche.

La legge di Hooke stabilisce che: tutte le deformazioni, entri i limiti di elasticità dei corpi

che le subiscono, sono proporzionali alle forze deformatrici come le conseguenti reazioni

elastiche.

I casi più frequenti di deformazioni elastiche sono i seguenti:

Elasticità di trazione e di compressione;

Elasticità di torsione;

Elasticità di flessione.

Come detto, le forze elastiche sono proporzionali alla deformazione del corpo, finché

questa si mantiene inferiore ad un certo valore. Se la deformazione supera questo limite

di elasticità, si ha una deformazione permanente mentre se aumentiamo ancora l’intensità

della sollecitazione arriviamo al limite di rottura: a questo punto il corpo si rompe.

I limiti di elasticità e di rottura sono elementi caratteristici di ogni materiale; essi servono

definire le proprietà meccaniche dei materiali stessi.

I materiali possono essere classificati come:

Elastici, se hanno elevato limite di elasticità (la gomma elastica);

Tenaci, se hanno elevato limite di rottura (alluminio, ottone);

Fragili, se il loro limite di elasticità coincide con quello di rottura (vetro, ghisa);

Duttili, se possono essere facilmente ridotti a fili sottili (rame, platino, alluminio);

Malleabili, se possono essere facilmente ridotti in fogli (oro);

Plastici, se in essi manca praticamente la fase elastica e quindi ogni loro deformazione è

permanente (piombo).

Vi sono infine materiali in cui alcune delle precedenti caratteristiche possono coesistere.

ACUSTICA

Facendo cadere un sassolino sulla superficie tranquilla dell’acqua di uno stagno si

osserva che, dal punto in cui il sasso è caduto, parte un’increspatura della superficie

dell’acqua, che ha la forma di un cerchio il quale, col passare del tempo si allarga fino a

giungere alla sponda dello stagno o alle pareti dei recipienti. Questa increspatura è

chiamata onda.

La propagazione dell’onda non dà luogo ad alcun trasporto di materia.

Si può generalizzare affermando che: si ha un’onda quando, in un mezzo continuo, si

provoca uan perturbazione in un punto.

Vi sono diversi tipi di onda:

Onde elastiche. L’esempio più semplice di onda elastica si ha nel caso di una corda tesa,

ad un estremo della quale venga impressa una rapida oscillazione: questa perturbazione

si propaga lungo la corda, proprio come la perturbazione del sassolino si propaga lungo

la superficie dello stagno. Si parla dunque di onde elastiche in quanto il meccanismo della

propagazione ha origine dalle proprietà elastiche. La perturbazione consiste in una

deformazione elastica provocata ad un estremo del corpo considerato.

Onde elastiche periodiche. Le perturbazioni che presentano il maggior interesse sono

quelle aventi carattere oscillatorio o periodico. Si ricordi che un punto materiale è animato

da un moto oscillatorio o periodico quando esso, dopo intervalli di tempo uguali, assume

sempre la stessa posizione e la stessa velocità; assume quindi lo stesso stato di modo. Il

periodo è definito come il più piccolo intervallo di tempo dopo il quale lo stesso stato di

moto si ripete.

Onde longitudinali e trasversali. Si è in presenza di un’onda longitudinale quando il

movimento delle particelle del corpo, trasmesso da un’onda elastica, avviene nella

direzione di propagazione dell’onda. Non è questo il caso delle onde che si propagano

lungo una corda tesa, della quale si scuote un estremo: la perturbazione si sposta lungo

la corda, ma le particelle della corda vibrano in direzione ad essa perpendicolare. In

generale, si ha un’onda trasversale quando il movimento trasmesso dall’onda alle

particelle del corpo è perpendicolare alla direzione di propagazione dell’onda. Le onde

elastiche che si propagano in un solido possono essere longitudinali, trasversali o

addirittura una sovrapposizione di entrambi i tipi di onde, a seconda che la perturbazione

che ha dato origine all’onda è trasversale, longitudinale o obliqua.

Il suono e la sua propagazione: velocità del suono

L’acustica è quella parte della fisica che studia i fenomeni legati ai suoni, ossia la

produzione e la propagazione del suono.

Con il termine suono si intende la causa delle sensazioni percepite dal nostro orecchio.

Soggettivamente “suono” è la sensazione percepita dall’organo dell’udito, oggettivamente

è il fenomeno vibratorio che la produce.

In generale, si chiama sorgente sonora qualsiasi corpo che emetta un suono.

L0origine di qualsiasi suono è sempre dovuta alle vibrazioni della sorgente sonora:

vibrazione di corde (corde vocali, pianoforte, violino), colonne dia aria (organo, clarino) o

di piastre e membrane (tamburi, altoparlanti). Tutti questi corpi, vibrando, vibrando

alternativamente comprimono e rarefanno l’aria che si trova nella loro immediata

vicinanza. Queste perturbazioni sono trasmesse dall’aria sotto forma di onde elastiche

(onde acustiche o sonore) che si allontanano dalla sorgente sonora e, penetrando nel

nostro orecchio, producono la sensazione sonora.

Tuttavia esistono corpi che pur vibrando non emettono suoni: un sasso che oscilla

sospeso ad un filo non emette alcun suono. Affinché il nostro orecchio percepisca un

suono, è necessario che la sorgente sonora vibri abbastanza rapidamente ma non

troppo; per la precisione, è necessario che la frequenza dell’onda sia compresa tra 16 e

12.000 Hertz circa.

Questi fenomeni vincolati al nostro organo uditivo, l’orecchio, sono comunemente chiamti

fenomeni sonori. Normalmente le sensazioni sonore vengono da noi percepite perché si

trasmettono attraverso l’aria. Questo può essere constatato mettendo un campanello

elettrico sotto una campana pneumatica.

Quando chiudiamo il circuito elettrico del campanello questo inizia a suonare ed il suono

sarà udito distintamente se la campana è piena d’aria; andrà invece sempre più

affievolendosi man mano che verrà estratta l’aria dalla campana, e cesserà del tutto

quando nella campana si sarà fatto il vuoto completo. Oltre all’aria vi sono anche i altri

mezzi nei quali il suono può trasmettersi: questi possono essere i solidi, liquidi o aeriformi;

l’unica condizione necessaria è che si tratti di corpi elastici, in quanto solo questi ultimi

sono capaci di trasmettere la perturbazione sonora. Dunque il suono può essere

trasmesso da tutti i corpi mentre non può propagarsi in regioni dello spazio prive di

materia.

Velocità del suono

Si analizza adesso il meccanismo della propagazione del suono nell’aria.

Quando l’estremo non vincolato di una lamina di acciaio fissata ad un estremo si muove

da A verso A’, esso sposta uno strato dia ria che è a suo immediato contatto,

comprimendolo; questo strato, a sua volta, comprime lo strato d’aria che è a suo

immediato contatto e così via: abbiamo quindi uno strato di compressione che si propaga

nell’aria, allontanandosi in tutte le direzioni. Negli istanti successivi, l’estremo della lamina

si muove da A’ verso A e poi da A verso A’, lo strato d’aria che è a suo immediato

contatto viene ora decompresso e quindi si rarefa; questa rarefazione si propaga allo

strato contiguo di aria e così via. Si ha così una decompressione o rarefazione, che si

propaga nell’aria e che segue la decompressione.

La lamina vibrando, genera un’onda elastica periodica costituita da una serie di strati in

cui l’aria è alternativamente compressa e rarefatta. Queste onde di compressione e di

rarefazione sono comunemente chiamate onde sonore. In un mezzo omogeneo ed

isotropo (che ha caratteri fisici identici in tutte le direzioni) il suono presenta la stessa

velocità in tutte le direzioni.

La distanza che intercorre tra due successivi strati compressi o de strati rarefatti si

chiama lunghezza d’onda del suono emesso dalla sorgente sonora; essa è la distanza

percorsa dalla perturbazione in un periodo, cioè nel tempo necessario a che una

particella d’aria compia una oscillazione completa. Poiché le particelle di aria vibrano nella

direzione in cui ha luogo la propagazione dell’onda sonora, un suono che si propaga

nell’aria (o più in generale in un fluidi) è costituito da onde elastiche longitudinali. Dunque

tutte le particelle di aria vibrano sotto l’azione delle onde sonore. Man mano che ci si

allontana dalla sorgente sonora, queste vibrazioni sono meno ampie in quanto l’energia

meccanica di oscillazione si distribuisce man mano su superfici sferiche sempre

maggiori. Il massimo spostamento di una particella dalla sua posizione di equilibrio si

chiama ampiezza della vibrazione; diremo dunque che l’ampiezza della vibrazione

diminuisce man mano che ci si allontana dalla sorgente sonora.

La propagazione del suono non è istantanea visto che occorre un certo tempo affinché le

onde elastiche, partite dalla sorgente sonora, giungano ad una certa distanza da essa. Si

trova sperimentalmente che il suono si propaga nell’aria (secca, alla pressione di una

atmosfera ed alla temperatura di 0 gradi) con una velocità di circa 331, 4 metri al

secondo.

Si osserva poi che non sempre un corpo in vibrazione emette un suono; il nostro

orecchio percepisce solamente vibrazioni la cui frequenza è compresa entro due limiti

chiamati limiti di udibilità. Precisamente danno luogo ad una sensazione sonora solamente

le onde elastiche la cui frequenza è compresa tra 16 e 12.000 Hertz (ossia tra 16 e

12.000 oscillazioni complete al secondo). Le onde elastiche con frequenza minore di 16

Hertz, o maggiore di 12.000 Hertz, giungono al nostro orecchio, ma non generano alcuna

sensazione uditiva e prendono il nome di infrasuoni. Le onde elastiche di frequenze

superiori a 16.000 Hertz prendono il nome di ultrasuoni.

Per quando concerne la lunghezza d’onda delle onde acustiche, possiamo osservare

quanto segue: Detto T l periodo di una certa onda acustica e λ la sua lunghezza d’onda,

la velocità v del suono è data da

I suoni sono vibrazioni elastiche longitudinali la cui lunghezza d’onda, nell’aria, varia 3 cm

e 29 m circa.

Infine, si precisa una importante differenza:

Suoni, le onde acustiche generate da qualsiasi vibrazione meccanica periodica;

Rumori, le perturbazioni acustiche alle quali manca un preciso carattere di periodicità.

I caratteri distintivi del suono ed il Teorema di Fourier

Le caratteristiche di un suono sono l’altezza, l’intensità ed il timbro.

L’altezza (o acutezza) è il carattere che ci consente di distinguere i suoni gravi da quelli

acuti. Due suoni di diversa altezza corrispondono ad onde di diversa frequenza; i suoni

acuti hanno frequenza molto elevata (migliaia di Hz), quelli gravi molto bassa (decine di

Hz).

L’intensità è il carattere che ci consente di distinguere i suoni forti da quelli deboli. Un

suono è tanto più intenso di un altro quanto più è la sensazione sonora che esso procura

al nostro orecchio; inoltre l’intensità i un suono si indebolisce man mano che ci

allontaniamo dalla sorgente sonora. L’intensità di un suono dipende dall’ampiezza delle

oscillazioni intorno alla posizione di equilibrio della particella del mezzo posta in

vibrazione, così che ad oscillazioni di maggior ampiezza corrispondono suoni più intensi.

Il timbro è il carattere che ci consente di distinguere i vari suoni in relazione alla forma

della loro onda ossia ci consente di distinguere i vari suoni, identici per altezza ed

intensità, che provengono da sorgenti diverse.

Il teorema di Fourier dà una giustificazione di questo fenomeno:

Qualsiasi oscillazione periodica può considerarsi composta da un certo numero di

oscillazioni armoniche semplici di ampiezza e frequenza diverse, tutte però multiple di una

stessa frequenza fondamentale. La frequenza base, che nel caso di una oscillazione

armonica semplice è detta frequenza fondamentale, è quella più bassa; le altre

oscillazioni componenti di frequenza più elevata sono dette armoniche superiori. Pertanto,

il timbro di un suono è determinato dal numero, dalla qualità e dalla intensità delle

armoniche che accompagnano il suono fondamentale.

Si può ritenere approssimativamente una oscillazione armonica semplice quella di un

diapason: questo è uno strumento costituito da una piccola verga a sezione rettangolare

foggiata ad U (i due rami sono detti rebbi) capace, una volta percorsa, di emettere un

suono ben determinato. Su tale suono, caratteristico e semplice, è possibile accordare gli

strumenti musicali.

Viene chiamato diapason normale quello che emette un suono di 345 vibrazioni al

secondo e corrisponde al “la” della terza scala.

Grazie all’uso del diapason si può porre in evidenza il fenomeno della risonanza acustica:

un corpo, capace di emettere un suono di una ben determinata frequenza, si mette a

vibrare quando è investito da un suono di quella stessa frequenza, ma non quando è

investito da suoni di frequenza diversa dalla propria.

Riflessione, rifrazione e diffrazione delle onde elastiche

Le onde elastiche, e quindi anche le onde sonore, quando durante la loro propagazione

incontrano un ostacolo o passano da un mezzo ad un altro di diversa natura, presentano

particolari fenomeni: riflessione, rifrazione e diffrazione:

Si ha una riflessione del suono quando un’onda sonora incontra sul suo cammino un

ostacolo sufficientemente ampio costituito da una superficie pressoché piana; l’onda si

riflette simmetricamente rispetto a detta superficie come se provenisse da un punto

simmetrico alla sorgente.

Le leggi della riflessione sono:

Il raggio incidente, il raggio riflesso e la retta normale alla superficie riflettente nel punto di

incidenza giacciono nel medesimo piano;

Il raggio incidente ed il raggio riflesso giacciono da parti opposte rispetto alla normale del

piano;

L’angolo di riflessione è uguale all’angolo di incidenza.

Si ha una rifrazione del suono quando un’onda passa da un mezzo ad un altro di

differente densità, variando così la sua velocità di propagazione. Infatti la velocità

diminuisce passando da un mezzo meno denso ad un mezzo più denso, mentre aumenta

quando accade l’inverso.

Le leggi della rifrazione sono:

Il raggio incidente, il raggio rifratto e la retta normale alla superficie di separazione tra i

due mezzi nel punto di incontro del raggio incidente giacciono nel medesimo piano;

Il raggio incidente ed il raggio rifratto giacciono da parti opposte rispetto alla normale al

piano;

La velocità di propagazione delle onde sonore nel primo mezzo v e quella nel secondo

1

mezzo v stanno tra loro nello stesso rapporto dei seni dell’angolo di incidenza α e

2

dell’angolo di rifrazione β.

Si ha una rifrazione del suono quando un’onda incontra sul suo cammino uno schermo

opaco con un foro; le vibrazioni si propagano al di là del foro continuando ad allargarsi ad

onde così che il foro risulta a sua volta sorgente di nuove vibrazioni. Questo fenomeno

fornice la spiegazione del perché le onde sonore superino gli ostacoli e siano percepibili

anche al di là di essi.

Interferenza dei suoni e principio di Huygens – Fresnel

Si considerino due sorgenti di vibrazione situate ad una certa distanza tra loro, le

superfici d’onda che esse generano si propagheranno nello spazio ad in alcune zone

verranno anche a sovrapporsi.

Si definisce interferenza il fenomeno che ha luogo quando due sistemi di onde della

stessa frequenza vengono a sovrapporsi propagandosi nello stesso mezzo.

In questo modo si può ottenere:

Un raffreddamento del suono, nel caso in cui le vibrazioni delle due sorgenti sonore si

sovrappongano trovandosi in concordanza di fase;

Un indebolimento del suono, nel caso in cui le vibrazioni delle due sorgenti sonore si

sovrappongano trovandosi sfasate l’una rispetto all’altra di una frazione di mezza

lunghezza d’onda;

Il silenzio, nel caso in cui le vibrazioni delle due sorgenti sonore si sovrappongano

trovandosi in opposizione di fase.

Il fenomeno dell’interferenza può essere verificato sperimentalmente con il tubo di

Quincke. I fenomeni che interessano le leggi della riflessione, rifrazione e diffrazione

trovano la loro giustificazione razionale nel principio di Huygens – Fresnel. Questo

principio è fondamentale per la spiegazione di numerosi fenomeni fisici di natura

ondulatoria.

Principio di Huygens – Fresnel: ogni punto di una superficie d’onda S diviene a sua volta

sorgente di altre onde, e tutte le onde che partono dai vari punti della superficie S sono tra

loro in concordanza di fase.

Corde vibranti, eco, risonanza e scale musicali

Il fenomeno, detto delle corde vibranti, trova una sua applicazione nel pianoforte e negli

strumenti musicali a corda (arpa, violino). Una corda può vibrare in modo da costituire un

unico fuso ed in questo caso emette un unico suono fondamentale; però può anche

vibrare in modo da costituire più fusi separati da nodi, ed in questo caso emette dei suoni

armonici di quello fondamentale.

Viene comunemente dato il nome di nodi ai punti fissi e di ventri ai punti di massi

vibrazione di una corda vibrante; così, ad esempio, nel caso di una corda che dà luogo

ad un unico fuso abbiamo un ventre al centro e due nodi alle estremità.

Effetti analoghi vengono ottenuti ricorrendo ai tubi sonori; essi consistono in particolari

tubi che emettono suoni dovuti alla vibrazione dell’aria in essi contenuta. Le applicazioni di

questo fenomeno si trovano nell’organo e negli strumenti musicali a fiato (flauto, tromba,

ecc.).

L’eco è la ripetizione distinta di un suono riflesso da un ostacolo. Questo fenomeno si

verifica quando la sorgente del suono e l’ostacolo si trovano ad una distanza tale da

consentire che, la percezione da parte del nostro orecchio del suono diretto, sia già

cessata quando arriva quella del suono riflesso dall’ostacolo. Si definisce rimbombo, il

fenomeno per cui non percepiamo la ripetizione distinta del suono, ma un suo

prolungamento e rafforzamento, in quanto le onde riflesse giungono al nostro orecchio

quando vi permane ancora l’effetto sonoro prodotto dalle onde dirette.

Il fenomeno della risonanza, ossia quel fenomeno acustico per cui un corpo, che emette

un suono, è capace di far entrare in vibrazione un corpo che abbia uno stesso periodo di

vibrazione.

Il diapason, entra in vibrazione per effetto dell’eccitazione di un altro diapason posto in

vibrazione ma solo quando i due diapason sono perfettamente uguali fra loro. Questo

perché il primo diapason, inizialmente fermo, comincia a vibrare sotto l’impulso

comunicatogli dalla prima onda che si diparte al secondo diapason posto in vibrazione, e

poiché i due diapason si trovano a possedere la stessa frequenza, il primo diapason sarà

nelle condizioni di sincronismo per ricevere i successivi impulsi fornitigli dalla seconda,

dalla terza onda, ecc., prodotte dalla vibrazione del secondo diapason. Nel caso in cui i

due diapason non siano perfettamente uguali, accade che le onde emesse dal secondo

diapason successivamente alla prima onda, giungano al primo diapason sfasate, e

pertanto tendono a fermare il moto.

Per determinare la frequenza delle vibrazioni emesse da una sorgente sonora vengono

comunemente impiegati i risuonatori di Helmholtz.

Le composizioni musicali sono costituite da una successione e sovrapposizione di suoni

di varie frequenze, chiamate note musicali.

Una successione ordinata di suoni usati per la composizione musicale viene chiamata

scala, mentre l’intervallo è il rapporto delle frequenze di due note successive in una

scala.

Le scale dei suoni che in musica hanno particolare rilievo sono 3:

La scala naturale, costituita, nota la frequenza N di una nota musicale, dalla serie di note

che prendono, rispettivamente, il nome di: do, re, mi, fa, sol, la, si e do . Questa ultima

2

nota ha la frequenza doppia del do. Ogni successione di sette notte basata

sull’inquadratura appena menzionata prende il nome di ottava. L’intervallo tra due ottave è

sempre 2. Una maggiore disponibilità di note viene ottenuta inserendo tra due note

successive i cosiddetti diesis e bemolli. I primi si ottengono elevando di un semitono una

nota, i secondi si ottengono abbassando la stessa nota di un semitono. Pertanto la scala

naturale risulta costituita da 17 suoni: 7 note, 5 diesis e 5 bemolli;

La scala temperata ottenuta dividendo l’ottava compresa fra due do successivi in 12

12

intervalli tutti uguali e apri ad un valore di 2= 1,05946;

La scala musicale, definita una volta stabilita la frequenza fondamentale di riferimento sul

la3 della scala, in corrispondenza della frequenza di 435 Hertz.

Il campione internazionale di frequenza è il diapason normale, depositato a Sevrès

nell’Ufficio Internazionale dei Pesi e delle Misure, che corrisponde ad un diapason che,

percosso, vibra con la frequenza di 435 Hertz.

La riproduzione dei suoni è legata alla possibilità di far vibrare un corpo elastico in modo

che le sue oscillazioni riproducano esattamente tutti i caratteri delle vibrazioni originate

dalla sorgente sonora.

Anche se oggi risultano molto perfezionati, i metodi di registrazione e riproduzione dei

suoni sono sempre riducibili al principio fondamentale applicato da Thomas Alva Edison

nella realizzazione del fonografo.

Applicazione dei suoni

La sonda acustica è un particolare dispositivo impiegato per determinare la profondità dei

fondi marini sfruttando il fenomeno della riflessione del suono emesso da una sorgente

sonora sistemata sotto la chiglia della nave e diretto verticalmente verso il fondo marino

stesso.

Nota la velocità di propagazione v del suono nel mezzo e determinato il tempo t che il

suono impiega a percorrere il cammino dalla chiglia della nave al fondo marino e ritorno, si

avrà la possibilità di determinare la profondità h nel luogo cercato, dalla seguente

relazione:

Gli ultrasuoni e gli infrasuoni. Si può ritenere ambedue questi fenomeni fisici, delle

vibrazioni elastiche di carattere acustico, sebbene non avvertibili da parte del nostro

orecchio.

Gli infrasuoni sono le vibrazioni elastiche di carattere acustico che posseggono una

frequenza inferiore ai 16 Hertz, cioè alla minima frequenza avvertibile da un orecchio

umano normale.

Sono esempi di infrasuoni le vibrazione causate, in una camera, dalla pressione di una

porta che si chiude o da una finestra che si apre; queste vibrazioni elastiche si

propagano nell’aria con la velocità e le caratteristiche proprie dell’onda sonora anche se

la loro frequenza le pone al di sotto del limite inferiore di udibilità.

Sono pure esempi di infrasuoni le onde sismiche la cui sorgente si trova normalmente in

un punto interno alla crosta terrestre, detto ipocentro. Le onde sismiche, in particolare, si

dividono in:

Onde causate da vibrazioni longitudinali, che si propagano con una velocità di circa 7 Km/

s all’interno della crosta terrestre;

Onde causate da vibrazioni trasversali, che si propagano con una velocità di circa 4 Km/

s all’interno della crosta terrestre;

Onde massimali, che si propagano con una velocità di circa 3,6 Km/s e risalgono

l’ipocentro ad un punto della superficie terrestre, chiamato epicentro, e da qui si irradiano.

Essendo di ampiezza superiore alle precedenti, queste onde risultano anche molto più

disastrose delle altre.

Gli apparecchi registratori di scosse sismiche vengono chiamati sismografi.

Gli ultrasuoni sono le vibrazioni elastiche di carattere acustico che posseggono una

frequenza superiore ai 12.000 Hertz e pertanto, avendo il limite massimo di udibilità, non

sono avvertibili dall’orecchio umano normale.

Si possono ottenere ultrasuoni nell’aria mediante il fischio di Galton o utilizzando la

proprietà di alcuni cristalli (quarzo, spato d’Islanda, ecc.) tramite un fenomeno chiamato

piezoelettricità.

Gli ultrasuoni hanno un diffuso impiego per gli scandagli subacquei, per la localizzazione

di navi e di branchi di pesci, ecc.

La tecnologia moderna impiega gli ultrasuoni nell’analisi dell’omogeneità di struttura dei

metalli, poiché risulta che un corpo a struttura omogenea può essere attraversato dagli

ultrasuoni alla stessa velocità in tutte le direzioni. Importanti applicazioni si trovano anche

in medicina.

La voce e l’orecchio

I due organi naturali dell’uomo che interesano l’acustica sono gli organi della voce e

dell’udito. L’organo di emissione della voce si comporta come una canna sonora chiusa

contenente dell’aria che viene posta in eccitazione dalla vibrazione delle corde vocali.

Questo è schematicamente costituito dalla laringe che è una cavità cartilaginea posta

nell’estremità superiore della trachea ad in cui si trovano due linguette chiamate corde

vocali. Quando si parla i polmoni emettono l’aria che, attraverso la trachea, giunge alle

corde vocali. Le corde vocali quindi cominciano ad entrare in vibrazione e, limitando più o

meno una fenditura, detta rima della glottide, comunicano il loro moto vibratorio all’aria

contenuta nelle cavità nasali e boccali. Queste, secondo la configurazione che vengono

ad assumere, si comportano da risuonatori atti a rinforzare l’uno o l’altro dei suoi prodotti.

In generale, nella voce l’altezza dei suoni è regolata dalla tensione e dalla lunghezza delle

corde vocali, l’intensità dell’energia con cui l’aria viene emessa dai polmoni ed il timbro

della configurazione che assumono in ciascuna persona le varie cavità che,

comportandosi da risuonatori, contribuiscono a dare alle voci delle singole persone

caratteristiche particolari.

I limiti entro cui può variare la frequenza della voce umana sono compresi tra 16 (voce di

basso) e 1035 Hertz (massimo acuto accessibile alla voce di un soprano).

L’organo dell’udito si comporta come un ricevitore capace di mettere in risalto le

differenze di frequenza, intensità e timbro che caratterizzano i vari suoni.

L’orecchio può essere suddiviso in:

Orecchio esterno, costituito da un padiglione che raccoglie le onde sonore che giungono

dall’ambiente esterno e le convoglia attraverso il condotto uditivo alla membrana del

timpano che, sotto gli impulsi ricevuti dall’esterno, si mette a vibrare;

Orecchio medio, costituito dalla cassa timpanica che comunica con il retrobocca

attraverso un canale chiamato tromba di Eustachio, il quale consente – quando si apre la

bocca – di equilibrare tra loro eventuali differenti pressioni che si potrebbero avere sulle

due facce della membrana del timpano ed evitare che tale membrana si rompa sotto

l’azione di suoni particolarmente intensi. Le vibrazioni prodotte dalla membrana del

timpano vengono trasmesse dalla catena degli ossicini alla finestra ovale (membrana che

separa l’orecchio medio da quello interno). Gli ossicini sono tre, martello, incudine staffa,

ed assolvono la funzione di attenuare l’ampiezza delle vibrazioni prodotte dalla membrana

del timpano e di rafforzare le variazioni di pressione da trasmettere all’orecchio interno;

Orecchio interno, costituito da una cavità scavata nell’osso temporale, detta labirinto;

nella parte della cavità detta vestibolo sono innestati i tre canali semicircolari disposti

secondo i tre piani ortogonali dello spazio in modo da esplicare la funzione di presiedere

l’equilibrio del corpo. Da questa cavità parte la chiocciola sulle cui pareti si innesta il nervo

acustico; essa è suddivisa in tre condotti: uno centrale, chiamato canale cocleare,

riempito di un liquido detto endolinfa, ed altri due lateriali, chiamati scala vestibolare e

scala timpanica, riempiti di un altro liquido detto perilinfa. Sulla membrana basilare, situata

entro il canale coclearie, si trovano gli organi del Corti costituiti da cellule oblunghe

(pilastri) affiancati da un notevole numero di cellule acustiche che trasformano le

vibrazioni sonore in sensazioni acustiche percepibili attraverso il nervo acustico.

Secondo l’ipotesi di Helmholtz, la capacità analizzatrice dei suoni da parte dell’orecchio si

spiega col fatto che le vibrazioni dell’endolinfa eccitano, per un fenomeno di risonanza,

solo quelle cellule acustiche che posseggono la stessa frequenza di vibrazione dei suoni

percepiti.

Il campo di udibilità dell’orecchio umano normale è compreso tra le frequenze da 16 a

12.000 Hertz; eccezionalmente, soprattutto individui giovani, possono percepire anche

suoni di frequenza fino a 20.000 Hertz.

L’intensità fisica del suono percepibile dall’orecchio è caratterizzata da due soglie,

precisamente:

La soglia di udibilità che rappresenta l’energia incidente sull’unità di superficie nell’unità di

erg/cm2

tempo (espressa in x sec);

La soglia del dolore che rappresenta il valore dell’intensità fisica, superato il quale, il

suono determina nell’orecchio una sensazione dolorosa.

Sia la soglia di udibilità che quella del dolore dipendono dalla frequenza del suono. La

10-10

prima, in particolare, è una quantità di energia molto piccola, dell’ordine di circa erg/

cm2 x sec. OTTICA

Nozioni generali e fotometria

L’ottica è quella parte della fisica che studia la luce ed i fenomeni ad essa legati.

Il fenomeno luminoso è la causa delle sensazioni percepite dall’occhio; questa causa è la

luce.

Un corpo investito dalla luce si riscalda, poiché il calore è energia, è evidente che la

trasformazione di luce in calore può avere spiegazione solo ammettendo che la luce è

una particolare forma di energia. Pertanto, ogni corpo capace di inviare della luce è una

sorgente di energia luminosa.

Tra i vari tipi di sorgenti di energia luminosa ricordiamo:

Le sorgenti primarie (o corpi luminosi), che emettono una luce propria per due motivi:

Per incandescenza: sono corpi il cui calore della luce emessa è legato alla temperatura

del corpo (a 600° si ha emissione di una luce di colore rosso scuro, a 1.200° arancione

vivo, a 6000° giallo – biancastro). Si è provato che la temperatura superficiale delle stelle

varia da 1650° fino a 23.000°; il Sole ha una temperatura superficiale di 6.000°;

Per luminescenza: sono corpi che emettono luce propria a temperatura relativamente

bassa (inferiore a 400°). Vi sono due tipi di fluorescenza: la fluorescenza (che si ha

quando un corpo si trova sotto l’azione della causa che lo eccita) e la fosforescenza (che

si ha quando il corpo continua ad emettere luce, per un certo periodo di tempo più o meno

lungo, anche dopo la cessazione dell’azione eccitatrice);

Le sorgenti secondarie (o corpi illuminanti) che possono solo rinviare la luce ricevuta

dalle sorgenti primarie (es. i pianeti e la Luna che ci inviano la luce che essi ricevono dal

Sole). Ogni corpo illuminato cessa di essere visibile quando viene a mancare la luce da

parte delle sorgenti primarie.

Le sorgenti secondarie sono si dividono in:

Corpi opachi, che non si lasciano attraversare dalla luce;

Corpi trasparenti, che si lasciano attraversare dalla luce. Questi si dividono ulteriormente

in corpi diafani (se, una volta attraversati dalla luce ed osservati dalla parte opposta della

sorgente, consentono di intravedere la forma della sorgente stessa; un esempio ne è il

vetro, l’acqua, il cellophane) e translucidi (se non è possibile intravedere tale sorgente; un

esempio ne è il vetro smerigliato, la carta oleata, la maiolica). Inoltre, la distinzione tra

corpi opachi e trasparenti non può essere data esclusivamente dalla natura delle

sostanze, ma anche dal loro spessore (ad esempio, l’oro ridotto in fogli sottilissimi di

spessore 0,1 diventa trasparente).

µ

La fotometria stabilisce le leggi ed i criteri di misura dell’energia luminosa.

I suoi scopi sono quelli di valutare di valutare l’energia luminosa emessa dalla sorgente

luminosa nell’unità di tempo (potenza luminosa) e misurare come si distribuisce l’energia

luminosa quando giunge ad illuminare le superfici poste sul suo cammino (schermi).

Si consideri una sorgente puntiforme S che emette uniformemente energia luminosa in un

mezzo trasparente (dunque che non assorbe energia). Si chiama flusso luminoso F della

sorgente S, la quantità totale di energia irradiata da questa sorgente nell’unità di tempo.

Ciò premesso si definisce intensità luminosa i della sorgente, il flusso luminoso

convogliato nel cono che il vertice nella sorgente S ed un’area uguale all’unità di

superficie.

La relazione che lega intensità luminosa e flusso luminoso è data da:

Dove 4π è l’area di questa superficie.

L’unità di misura dell’intensità luminosa i, nel Sistema Internazionale, è la candela

internazionale (cd): questa è una unità pratica corrispondente alla ventesima parte

cm2

dell’intensità luminosa emessa in direzione normale alla superficie da 1 di platino alla

temperatura di fusione (1752°).

L’unità di misura del flusso luminoso F invece, nel Sistema Internazionale, è il lumen, unità

di misura corrispondente al flusso luminoso prodotto da una sorgente puntiforme di

intensità pari ad una candela internazionale, convogliato entro un cono con vertice nella

sorgente S e che intercetta nella sfera di centro S e di raggio unitario una superficie di

area unitaria.

Se si considera la stessa sorgente puntiforme S, si avrà che una sfera con centro in S e

raggio r riceverà sull’unità di superficie una quantità di energia luminosa data dal rapporto

che, tenuto conto della relazione precedente, si può esprimere come

Questa grandezza prende il nome di intensità di illuminazione I.

Dunque l’intensità di illuminazione I su di una superficie sferica di raggio r è inversamente

proporzionale al quadrato del raggio della superficie stessa.

Teniamo conto che l’illuminazione di una superficie dipende anche dall’inclinazione che

questa presenta rispetto al fascio luminoso.

L’unità di misura dell’intensità di illuminazione I è il lux (o candela – metro), unità pratica


PAGINE

110

PESO

935.49 KB

AUTORE

luca d.

PUBBLICATO

+1 anno fa


DESCRIZIONE APPUNTO

Appunti di Fondamenti della Fisica sui seguenti argomenti: la misura, unità fondamentali e unità derivate, unità e campioni fondamentali, i limiti delle misure, unità derivate e misurazioni soggettive, la misura come l'indicazione quantitativa di una grandezza se interrelata ad un'unità di misura.


DETTAGLI
Corso di laurea: Corso di laurea in scienze della formazione primaria
SSD:
Università: Firenze - Unifi
A.A.: 2008-2009

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher luca d. di informazioni apprese con la frequenza delle lezioni di Fondamenti della Fisica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Firenze - Unifi o del prof Bonechi Lorenzo.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea in scienze della formazione primaria

Riassunto esame fisica sperimentale, prof. Straulino, libro consigliato Lezioni di astronomia. Per gli studenti di Scienze della formazione primaria, Straulino
Appunto
Appunti di fisica sperimentale, prof. Samuele Straulino
Appunto