vuoi
o PayPal
tutte le volte che vuoi
L'automatica si basa su concetti di teoria dei sistemi e teoria del controllo.
La teoria dei sistemi studia il comportamento di sistemi dinamici che
evolvono nel tempo, mentre la teoria del controllo si occupa della
progettazione di strategie per controllare tali sistemi. L'automatica ha avuto
un impatto significativo su molti settori, migliorando l'efficienza, la
precisione e la sicurezza delle operazioni.
2. Sistemi Dinamici e Modelli Matematici
Un sistema dinamico è un sistema il cui comportamento evolve nel tempo in
risposta a input esterni. Questi sistemi possono essere descritti
matematicamente utilizzando equazioni differenziali o differenze finite, a
seconda che il sistema sia continuo o discreto nel tempo.
2.1. Classificazione dei Sistemi Dinamici
I sistemi dinamici possono essere classificati in base a diversi criteri:
Sistemi continui: l'evoluzione del sistema è descritta in funzione del
tempo continuo (ad esempio, un motore elettrico).
Sistemi discreti: l'evoluzione del sistema avviene in istanti di tempo
discreti (ad esempio, un computer digitale).
Sistemi lineari: i modelli matematici che li descrivono sono lineari,
ovvero le variabili di stato e gli input sono legati da equazioni lineari.
Sistemi non lineari: i sistemi sono descritti da equazioni non lineari,
caratterizzati da fenomeni come la saturazione o il comportamento
caotico.
2.2. Modelli Input-Output
La relazione tra l’input (ingresso) e l’output (uscita) di un sistema dinamico
può essere descritta attraverso un modello matematico. Questo modello può
essere rappresentato tramite equazioni differenziali o, in forma compatta,
utilizzando la funzione di trasferimento.
Per un sistema dinamico lineare e tempo-invariante (LTI), la funzione di
trasferimento è la relazione tra la trasformata di Laplace dell’output e la
trasformata di Laplace dell’input:
H(s)=Y(s)U(s)H(s) = \frac{Y(s)}{U(s)}H(s)=U(s)Y(s)
Dove: H(s)H(s)H(s) è la funzione di trasferimento del sistema,
Y(s)Y(s)Y(s) è la trasformata di Laplace dell'uscita,
U(s)U(s)U(s) è la trasformata di Laplace dell’ingresso.
2.3. Sistemi di Stato
Un approccio alternativo per descrivere i sistemi dinamici è l'uso delle
equazioni di stato, in cui il sistema è descritto da variabili di stato che
rappresentano le grandezze interne che determinano il comportamento
futuro del sistema.
Le equazioni di stato per un sistema lineare sono:
x˙(t)=Ax(t)+Bu(t)\dot{x}(t) = A x(t) + B u(t)x˙(t)=Ax(t)+Bu(t) y(t)=Cx(t)
+Du(t)y(t) = C x(t) + D u(t)y(t)=Cx(t)+Du(t)
Dove: x(t)x(t)x(t) è il vettore di stato,
u(t)u(t)u(t) è l'input,
y(t)y(t)y(t) è l'output,
AAA, BBB, CCC e DDD sono matrici che descrivono la dinamica del
sistema.
2.4. Esempi di Sistemi Dinamici
Un esempio pratico di sistema dinamico è un circuito elettrico composto da
resistori, condensatori e induttori. Questi componenti reagiscono ai segnali
in ingresso creando una risposta nel tempo, la quale può essere analizzata e
controllata tramite modelli matematici.
Un altro esempio è un sistema di controllo della temperatura in un forno. In
questo caso, l'input è l'energia fornita al forno, mentre l'output è la
temperatura interna. Utilizzando un modello di stato, è possibile prevedere
come varia la temperatura in risposta a variazioni dell'input.
3. Stabilità dei Sistemi Dinamici
La stabilità è una proprietà fondamentale di un sistema di controllo. Un
sistema è stabile se, per un qualsiasi piccolo disturbo, il sistema ritorna al
suo stato di equilibrio senza divergere. La stabilità è essenziale per
garantire che un sistema automatico non generi comportamenti indesiderati
o pericolosi.
3.1. Criterio di Stabilità di Lyapunov
Il criterio di stabilità di Lyapunov è un metodo generale per determinare la
stabilità di un sistema dinamico. Un sistema lineare descritto dall'equazione
x˙(t)=Ax(t)\dot{x}(t) = A x(t)x˙(t)=Ax(t) è stabile se tutte le radici
dell'equazione caratteristica det (sI−A)=0\det(sI - A) = 0det(sI−A)=0 hanno
parti reali negative.
3.2. Stabilità Asintotica
Un sistema è asintoticamente stabile se, oltre a essere stabile, i suoi stati
tendono a zero nel tempo. In altre parole, il sistema non solo rimane vicino
allo stato di equilibrio dopo un disturbo, ma torna esattamente a tale stato
nel tempo.
3.3. Criterio di Routh-Hurwitz
Un altro metodo per determinare la stabilità dei sistemi lineari è il criterio di
Routh-Hurwitz, che fornisce una condizione necessaria e sufficiente per la
stabilità basata sull’analisi del segno dei coefficienti del polinomio
caratteristico. Se tutti i coefficienti principali del polinomio hanno lo stesso
segno, il sistema è stabile.
3.4. Stabilità nei Sistemi Non Lineari
La stabilità nei sistemi non lineari può essere più complessa. Si possono
utilizzare metodi come l'analisi della superficie di Lyapunov, che implica la
costruzione di una funzione di Lyapunov che mostra come l'energia del
sistema si comporta nel tempo, permettendo di determinare se il sistema
tende a uno stato di equilibrio.
4. Sistemi di Controllo
Un sistema di controllo è un insieme di dispositivi che gestisce, comanda e
regola il comportamento di un altro sistema. I sistemi di controllo si dividono
in due categorie principali: controllo a catena aperta e controllo a catena
chiusa.
4.1. Controllo a Catena Aperta
In un sistema a catena aperta, l'azione di controllo non dipende dall'output
del sistema. Questo significa che l'input è determinato senza considerare
eventuali errori o deviazioni dell'output desiderato. Sebbene questi sistemi
siano semplici da progettare, la loro mancanza di adattabilità alle variazioni
dei parametri li rende meno robusti.
Ad esempio, un asciugacapelli che funziona a una potenza fissa è un sistema
a catena aperta. Non regola la potenza in base alla temperatura dell'aria in
uscita.
4.2. Controllo a Catena Chiusa (Feedback)
Il controllo a catena chiusa, o controllo a retroazione, utilizza una misura
dell'output per correggere l'azione di controllo e ridurre l'errore rispetto al
riferimento desiderato. Questo tipo di sistema è più robusto e adattabile
rispetto ai sistemi a catena aperta.
L'equazione che descrive un sistema di controllo a retroazione negativa è:
e(t)=r(t)−y(t)e(t) = r(t) - y(t)e(t)=r(t)−y(t)
Dove: r(t)r(t)r(t) è il riferimento o valore desiderato,
y(t)y(t)y(t) è l'output effettivo,
e(t)e(t)e(t) è l'errore che viene utilizzato per aggiornare l'input.
In un sistema di controllo della temperatura, ad esempio, un sensore misura
la temperatura effettiva e regola l'energia fornita per mantenere la
temperatura desiderata.
4.3. Architettura del Controllo
I sistemi di controllo possono essere progettati in diverse architetture, come
i controlli distribuiti e centralizzati. Nei sistemi distribuiti, il controllo è
affidato a più unità autonome che comunicano tra loro, mentre nei sistemi
centralizzati, un'unica unità di controllo gestisce l'intero sistema. La scelta
dell'architettura dipende dalle specifiche del sistema e dai requisiti di
prestazione.
5. Regolatori e Controllori
I regolatori sono dispositivi o algoritmi che calcolano gli input necessari per
mantenere un sistema vicino al suo stato desiderato. Esistono diversi tipi di
regolatori, tra cui il controllore proporzionale-integrale-derivativo (PID), il
controllore più comune utilizzato nell'industria.
5.1. Controllore PID
Il controllore PID è costituito da tre componenti:
Proporzionale (P): la componente proporzionale reagisce in base
all'errore corrente e(t)e(t)e(t). Più grande è l'errore, maggiore sarà la
correzione. La legge di controllo è:
u(t)=Kpe(t)u(t) = K_p e(t)u(t)=Kpe(t)
Dove KpK_pKp è il guadagno proporzionale.
Integrale (I): la componente integrale somma gli errori passati,
correggendo errori che si accumulano nel tempo. La legge di controllo
è:
u(t)=Ki∫0te(τ)dτu(t) = K_i \int_0^t e(\tau) d\tauu(t)=Ki∫0te(τ)dτ
Dove KiK_iKi è il guadagno integrale.
Derivativo (D): la componente derivativa reagisce in base alla velocità
con cui l'errore cambia nel tempo, anticipando futuri errori. La legge di
controllo è:
u(t)=Kdde(t)dtu(t) = K_d \frac{de(t)}{dt}u(t)=Kddtde(t)
Dove KdK_dKd è il guadagno derivativo.
La legge di controllo complessiva per un controllore PID è: