Anteprima
Vedrai una selezione di 3 pagine su 6
Fondamenti di automatica Pag. 1 Fondamenti di automatica Pag. 2
Anteprima di 3 pagg. su 6.
Scarica il documento per vederlo tutto.
Fondamenti di automatica Pag. 6
1 su 6
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

L'automatica si basa su concetti di teoria dei sistemi e teoria del controllo.

La teoria dei sistemi studia il comportamento di sistemi dinamici che

evolvono nel tempo, mentre la teoria del controllo si occupa della

progettazione di strategie per controllare tali sistemi. L'automatica ha avuto

un impatto significativo su molti settori, migliorando l'efficienza, la

precisione e la sicurezza delle operazioni.

2. Sistemi Dinamici e Modelli Matematici

Un sistema dinamico è un sistema il cui comportamento evolve nel tempo in

risposta a input esterni. Questi sistemi possono essere descritti

matematicamente utilizzando equazioni differenziali o differenze finite, a

seconda che il sistema sia continuo o discreto nel tempo.

2.1. Classificazione dei Sistemi Dinamici

I sistemi dinamici possono essere classificati in base a diversi criteri:

Sistemi continui: l'evoluzione del sistema è descritta in funzione del

 tempo continuo (ad esempio, un motore elettrico).

Sistemi discreti: l'evoluzione del sistema avviene in istanti di tempo

 discreti (ad esempio, un computer digitale).

Sistemi lineari: i modelli matematici che li descrivono sono lineari,

 ovvero le variabili di stato e gli input sono legati da equazioni lineari.

Sistemi non lineari: i sistemi sono descritti da equazioni non lineari,

 caratterizzati da fenomeni come la saturazione o il comportamento

caotico.

2.2. Modelli Input-Output

La relazione tra l’input (ingresso) e l’output (uscita) di un sistema dinamico

può essere descritta attraverso un modello matematico. Questo modello può

essere rappresentato tramite equazioni differenziali o, in forma compatta,

utilizzando la funzione di trasferimento.

Per un sistema dinamico lineare e tempo-invariante (LTI), la funzione di

trasferimento è la relazione tra la trasformata di Laplace dell’output e la

trasformata di Laplace dell’input:

H(s)=Y(s)U(s)H(s) = \frac{Y(s)}{U(s)}H(s)=U(s)Y(s)

Dove: H(s)H(s)H(s) è la funzione di trasferimento del sistema,

 Y(s)Y(s)Y(s) è la trasformata di Laplace dell'uscita,

 U(s)U(s)U(s) è la trasformata di Laplace dell’ingresso.

2.3. Sistemi di Stato

Un approccio alternativo per descrivere i sistemi dinamici è l'uso delle

equazioni di stato, in cui il sistema è descritto da variabili di stato che

rappresentano le grandezze interne che determinano il comportamento

futuro del sistema.

Le equazioni di stato per un sistema lineare sono:

x˙(t)=Ax(t)+Bu(t)\dot{x}(t) = A x(t) + B u(t)x˙(t)=Ax(t)+Bu(t) y(t)=Cx(t)

+Du(t)y(t) = C x(t) + D u(t)y(t)=Cx(t)+Du(t)

Dove: x(t)x(t)x(t) è il vettore di stato,

 u(t)u(t)u(t) è l'input,

 y(t)y(t)y(t) è l'output,

 AAA, BBB, CCC e DDD sono matrici che descrivono la dinamica del

 sistema.

2.4. Esempi di Sistemi Dinamici

Un esempio pratico di sistema dinamico è un circuito elettrico composto da

resistori, condensatori e induttori. Questi componenti reagiscono ai segnali

in ingresso creando una risposta nel tempo, la quale può essere analizzata e

controllata tramite modelli matematici.

Un altro esempio è un sistema di controllo della temperatura in un forno. In

questo caso, l'input è l'energia fornita al forno, mentre l'output è la

temperatura interna. Utilizzando un modello di stato, è possibile prevedere

come varia la temperatura in risposta a variazioni dell'input.

3. Stabilità dei Sistemi Dinamici

La stabilità è una proprietà fondamentale di un sistema di controllo. Un

sistema è stabile se, per un qualsiasi piccolo disturbo, il sistema ritorna al

suo stato di equilibrio senza divergere. La stabilità è essenziale per

garantire che un sistema automatico non generi comportamenti indesiderati

o pericolosi.

3.1. Criterio di Stabilità di Lyapunov

Il criterio di stabilità di Lyapunov è un metodo generale per determinare la

stabilità di un sistema dinamico. Un sistema lineare descritto dall'equazione

x˙(t)=Ax(t)\dot{x}(t) = A x(t)x˙(t)=Ax(t) è stabile se tutte le radici

dell'equazione caratteristica det (sI−A)=0\det(sI - A) = 0det(sI−A)=0 hanno

parti reali negative.

3.2. Stabilità Asintotica

Un sistema è asintoticamente stabile se, oltre a essere stabile, i suoi stati

tendono a zero nel tempo. In altre parole, il sistema non solo rimane vicino

allo stato di equilibrio dopo un disturbo, ma torna esattamente a tale stato

nel tempo.

3.3. Criterio di Routh-Hurwitz

Un altro metodo per determinare la stabilità dei sistemi lineari è il criterio di

Routh-Hurwitz, che fornisce una condizione necessaria e sufficiente per la

stabilità basata sull’analisi del segno dei coefficienti del polinomio

caratteristico. Se tutti i coefficienti principali del polinomio hanno lo stesso

segno, il sistema è stabile.

3.4. Stabilità nei Sistemi Non Lineari

La stabilità nei sistemi non lineari può essere più complessa. Si possono

utilizzare metodi come l'analisi della superficie di Lyapunov, che implica la

costruzione di una funzione di Lyapunov che mostra come l'energia del

sistema si comporta nel tempo, permettendo di determinare se il sistema

tende a uno stato di equilibrio.

4. Sistemi di Controllo

Un sistema di controllo è un insieme di dispositivi che gestisce, comanda e

regola il comportamento di un altro sistema. I sistemi di controllo si dividono

in due categorie principali: controllo a catena aperta e controllo a catena

chiusa.

4.1. Controllo a Catena Aperta

In un sistema a catena aperta, l'azione di controllo non dipende dall'output

del sistema. Questo significa che l'input è determinato senza considerare

eventuali errori o deviazioni dell'output desiderato. Sebbene questi sistemi

siano semplici da progettare, la loro mancanza di adattabilità alle variazioni

dei parametri li rende meno robusti.

Ad esempio, un asciugacapelli che funziona a una potenza fissa è un sistema

a catena aperta. Non regola la potenza in base alla temperatura dell'aria in

uscita.

4.2. Controllo a Catena Chiusa (Feedback)

Il controllo a catena chiusa, o controllo a retroazione, utilizza una misura

dell'output per correggere l'azione di controllo e ridurre l'errore rispetto al

riferimento desiderato. Questo tipo di sistema è più robusto e adattabile

rispetto ai sistemi a catena aperta.

L'equazione che descrive un sistema di controllo a retroazione negativa è:

e(t)=r(t)−y(t)e(t) = r(t) - y(t)e(t)=r(t)−y(t)

Dove: r(t)r(t)r(t) è il riferimento o valore desiderato,

 y(t)y(t)y(t) è l'output effettivo,

 e(t)e(t)e(t) è l'errore che viene utilizzato per aggiornare l'input.

In un sistema di controllo della temperatura, ad esempio, un sensore misura

la temperatura effettiva e regola l'energia fornita per mantenere la

temperatura desiderata.

4.3. Architettura del Controllo

I sistemi di controllo possono essere progettati in diverse architetture, come

i controlli distribuiti e centralizzati. Nei sistemi distribuiti, il controllo è

affidato a più unità autonome che comunicano tra loro, mentre nei sistemi

centralizzati, un'unica unità di controllo gestisce l'intero sistema. La scelta

dell'architettura dipende dalle specifiche del sistema e dai requisiti di

prestazione.

5. Regolatori e Controllori

I regolatori sono dispositivi o algoritmi che calcolano gli input necessari per

mantenere un sistema vicino al suo stato desiderato. Esistono diversi tipi di

regolatori, tra cui il controllore proporzionale-integrale-derivativo (PID), il

controllore più comune utilizzato nell'industria.

5.1. Controllore PID

Il controllore PID è costituito da tre componenti:

Proporzionale (P): la componente proporzionale reagisce in base

 all'errore corrente e(t)e(t)e(t). Più grande è l'errore, maggiore sarà la

correzione. La legge di controllo è:

u(t)=Kpe(t)u(t) = K_p e(t)u(t)=Kpe(t)

Dove KpK_pKp è il guadagno proporzionale.

Integrale (I): la componente integrale somma gli errori passati,

 correggendo errori che si accumulano nel tempo. La legge di controllo

è:

u(t)=Ki∫0te(τ)dτu(t) = K_i \int_0^t e(\tau) d\tauu(t)=Ki∫0te(τ)dτ

Dove KiK_iKi è il guadagno integrale.

Derivativo (D): la componente derivativa reagisce in base alla velocità

 con cui l'errore cambia nel tempo, anticipando futuri errori. La legge di

controllo è:

u(t)=Kdde(t)dtu(t) = K_d \frac{de(t)}{dt}u(t)=Kddtde(t)

Dove KdK_dKd è il guadagno derivativo.

La legge di controllo complessiva per un controllore PID è:

Dettagli
Publisher
A.A. 2013-2014
6 pagine
SSD Ingegneria industriale e dell'informazione ING-INF/04 Automatica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher ale_dessi89 di informazioni apprese con la frequenza delle lezioni di fondamenti di controlli automatici e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Roma Tor Vergata o del prof Carnevale Daniele.