teoria dei controlli
TRANSCRIPT
-
7/21/2019 Teoria Dei Controlli
1/190
Andrea Bacciotti
TEORIA MATEMATICA DEI
CONTROLLI:
SISTEMI LINEARI
Dispense diTeoria matematica dei controlliinsegnamento tenuto presso il corso di Laurea in Matematica per lIngegneria
Politecnico di TorinoA.A. 2014-2015
-
7/21/2019 Teoria Dei Controlli
2/190
2
-
7/21/2019 Teoria Dei Controlli
3/190
Indice
Notazioni 7
1 Considerazioni generali sui sistemi 91.1 La nozione astratta di sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.1 Loperatore ingresso-uscita . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.2 Tempo discreto e tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . 101.1.3 Spazio degli ingressi e spazio delle uscite . . . . . . . . . . . . . . . . . . . . . 111.1.4 Spazio degli stati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.5 Sistemi finito-dimensionali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.1.6 Connessione di sistemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.1.7 Analisi dei sistemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.1.8 Controllo dei sistemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.1.9 Proprieta dei sistemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2 Sistemi a risposta impulsiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.3 Sistemi inizializzati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1 Sistemi deterministici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.2 Sistemi invarianti nel tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.3.3 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.3.4 Stabilita esterna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.5 Sistemi inizializzati a zero e sistemi non forzati . . . . . . . . . . . . . . . . . 201.4 Sistemi differenziali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.1 Ingressi ammissibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.4.2 Equazioni di stato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.4.3 Sistemi differenziali lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2 Sistemi di equazioni differenziali in generale 252.1 La mappa di flusso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Punti dequilibrio e stabilita nel senso di Liapunov . . . . . . . . . . . . . . . . . . . 27
3 Sistemi di equazioni differenziali lineari omogenei 293.1 Richiami . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2 La matrice esponenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313.3 Adiagonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.4 Anilpotente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.5 Adiagonale a blocchi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343.6 Equivalenza lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3
-
7/21/2019 Teoria Dei Controlli
4/190
4
3.7 Adiagonalizzabile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.8 Forma di Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.9 Stima asintotica delle soluzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.10 Equazioni scalari di ordinen >1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.11 Matrice compagna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4 Stabilita dei sistemi lineari non forzati 47
4.1 Posizioni dequilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2 Criteri di stabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.3 Lequazione di Liapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.4 Il criterio di Routh-Hurwitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5 Sistemi di equazioni differenziali lineari non omogenei 55
5.1 Sistemi non omogenei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.1.1 Metodo di variazione delle costanti . . . . . . . . . . . . . . . . . . . . . . . . 56
5.1.2 Metodo di somiglianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.2 Transitorio e soluzione di regime . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.3 Lequazione scalare di ordine n non omogenea . . . . . . . . . . . . . . . . . . . . . . 59
6 Sistemi definiti da equazioni differenziali lineari di ordine arbitrario 63
6.1 Funzione di trasferimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.2 Analisi della risposta in frequenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.3 Analisi della stabilita esterna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
7 Sistemi lineari con ingressi e uscite 71
7.1 Insiemi raggiungibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
7.1.1 Struttura degli insiemi raggiungibili . . . . . . . . . . . . . . . . . . . . . . . 73
7.1.2 Linearita delloperatore ingresso-uscita . . . . . . . . . . . . . . . . . . . . . . 74
7.1.3 Soluzione del problema della raggiungibilita . . . . . . . . . . . . . . . . . . . 74
7.1.4 Matrice di controllabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
7.1.5 Il criterio di Hautus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
7.2 Osservabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
7.2.1 Lo spazio di non osservabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
7.2.2 Matrice di osservabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
7.2.3 Ricostruzione dello stato iniziale . . . . . . . . . . . . . . . . . . . . . . . . . 837.2.4 Dualita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.3 Scomposizioni canoniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.3.1 Equivalenza lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.3.2 Invarianza controllata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.3.3 Parte controllabile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
7.3.4 Parte osservabile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
7.3.5 Scomposizione di Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
-
7/21/2019 Teoria Dei Controlli
5/190
5
8 Stabilita interna e stabilita esterna dei sistemi lineari 898.1 Stabilita esterna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 908.2 Stabilita interna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 938.3 Il casoC=I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 938.4 Il caso generale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
9 Stabilizzabilita 1019.1 Retroazioni statiche dello stato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
9.1.1 Controllabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
9.1.2 Stabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1039.1.3 Stabilizzabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1089.1.4 Controllabilita asintotica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
9.2 Retroazioni statiche delluscita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1109.2.1 Riduzione della dimensione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1119.2.2 Sistemi con dinamica zero stabile . . . . . . . . . . . . . . . . . . . . . . . . . 1129.2.3 Sistemi in dimensione 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
9.2.4 Assegnabilita dei poli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1149.3 Retroazioni dinamiche delluscita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
9.3.1 Costruzione di un osservatore asintotico . . . . . . . . . . . . . . . . . . . . . 1159.3.2 Costruzione di un compensatore dinamico . . . . . . . . . . . . . . . . . . . . 116
10 Analisi e sintesi nel dominio della frequenza 11910.1 La matrice di trasferimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11910.2 Proprieta della matrice di trasferimento . . . . . . . . . . . . . . . . . . . . . . . . . 121
10.3 Il problema della realizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12410.4 Sistemi SISO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
10.4.1 Il problema della realizzazione nel caso SISO . . . . . . . . . . . . . . . . . . 127
10.4.2 Diagramma di Nyquist . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12910.4.3 Stabilizzabilita BIBO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
11 Controllo ottimo 13511.1 Raggiungibilita in presenza di vincoli . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
11.2 Controllo ottimo sullorizzonte finito . . . . . . . . . . . . . . . . . . . . . . . . . . . 13811.3 Problema del tempo minimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13911.4 Controllo ottimo sullorizzonte infinito . . . . . . . . . . . . . . . . . . . . . . . . . . 14511.5 Regolatore quadratico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
Appendici 151
A. Richiami di algebra lineare 153A.1 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
A.2 Applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154A.3 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156A.4 Autovalori, autovettori, forma di Jordan . . . . . . . . . . . . . . . . . . . . . . . . . 156A.5 Procedure per la costruzione di una base propria . . . . . . . . . . . . . . . . . . . . 160A.6 Prodotto cartesiano di spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . 164A.7 Sottospazi e ortogonalita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
-
7/21/2019 Teoria Dei Controlli
6/190
6
B. Trasformata di Laplace 167B.1 Definizione e proprieta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167B.2 Trasformate notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
B.2.1 Funzioni elementari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172B.2.2 Funzioni discontinue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
B.2.3 Delta di Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175B.3 Teorema del valore finale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176B.4 Trasformata inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177B.5 Trasformata di funzioni vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
C. Raccolta di esercizi 179C.1 Esercizi sui sistemi di equazioni differenziali lineari . . . . . . . . . . . . . . . . . . . 179
C.1.1 Integrale generale e soluzioni particolari di sistemi omogenei di due equazioniin due incognite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
C.1.2 Integrale generale e soluzioni particolari di sistemi omogenei di tre equazioniin tre incognite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
C.1.3 Sistemi non omogenei ed equazioni lineari di ordine superiore . . . . . . . . . 181C.2 Esercizi sulla stabilita dei sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . 182
C.2.1 Stabilita dei sistemi piani e funzioni di Liapunov . . . . . . . . . . . . . . . . 182C.2.2 Stabilita dei sistemi piani ed equazione matriciale di Liapunov . . . . . . . . 183C.2.3 Stabilita dei sistemi in dimensione maggiore di 2 . . . . . . . . . . . . . . . . 184
C.3 Esercizi sulle proprieta strutturali dei sistemi con ingressi . . . . . . . . . . . . . . . 185C.3.1 Insieme raggiungibile, controllabilita, osservabilita . . . . . . . . . . . . . . . 185C.3.2 Forma di Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186C.3.3 Stabilia BIBS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186C.3.4 Stabilizzabilita, assegnabilita d e i p o l i . . . . . . . . . . . . . . . . . . . . . . . 1 8 7
C.4 Esercizi su trasformata di Laplace e applicazioni alle equazioni differenziali . . . . . 189
-
7/21/2019 Teoria Dei Controlli
7/190
Notazioni
SeA e un sottoinsieme di Rn, indicheremo con A, A, Arispettivamente, linsieme dei puntiinterni adA, la chiusura di A, la frontiera di A rispetto alla topologia di Rn.
Se v e un elemento di uno spazio vettoriale normato di dimensione finita, la norma di vsi indica genericamente con||v||. In particolare, se v e un vettore o una matrice, e se nondiversamente specificato,||v|| indica la norma euclidea.
SeA e B sono due insiemi qualunque,F(A, B) indica linsieme di tutte le funzioni daA a B .In particolare:
C(I, U), dove I e un intervallo (aperto o chiuso, limitato o illimitato) di numeri reali eU Rn, indica linsieme di tutte le funzioni continue definite in Ie a valori in U (n eun qualunque intero positivo);
PC([a, b], U), dovea e b sono numeri reali (a < b) e URn, indica linsieme di tutte lefunzioni continue a tratti1 e continue a destra, definite nellintervallo [a, b] e a valori inU;
PC([a, +), U), dove aR e U Rn, indica linsieme di tutte le funzioni continue atratti
2
e continue a destra, definite nellintervallo [a, +) e a valori in U (analogamentesi definiscono gli insiemiPC((, +), U) eC((, b], U));
B(I, Rn) indica linsieme di tutte le funzioni limitate definite nellintervallo Ie a valoriinRn;
useremo anche le notazioni CB([a, +), Rn) e PCB([a, +), Rn) per indicare gli insiemidi tutte le funzioni che appartengono rispettivamente a C([a, +), Rn) e PC([a, +), Rn)e che inoltre sono limitate.
Se f() e una funzione appartenente ad uno spazio vettoriale normatoV, la sua norma saraindicata con||f()||V. In particolare, e f() B(I, Rn), scriveremo||f()|| = suptI||f(t)||(norma della convergenza uniforme).
1Si ricorda che una funzione si dice continua a tratti sullintervallo compatto [a, b] se in tale intervallo la funzioneha al piu un numero finito di punti di discontinuita, e ciascuna eventuale discontinuita e di prima specie.
2Si ricorda che una funzione si dice continua a tratti su un intervallo illimitato I se e continua a tratti in ogniintervallo compatto [c, b] I.
7
-
7/21/2019 Teoria Dei Controlli
8/190
8
-
7/21/2019 Teoria Dei Controlli
9/190
Capitolo 1
Considerazioni generali sui sistemi
Qualunque sia la loro natura, i fenomeni osservabili nel mondo reale coinvolgono di regola diversegrandezze, e risultano dallinterazione di varie componenti: per questo si usa il termine genericosistema.
Le conoscenze acquisite sperimentalmente a proposito di un determinato sistema fisico vengonospesso sintetizzate attraverso la messa a punto di un modello matematico: in questo modo posso-no essere facilmente comunicate ed elaborate in termini qualitativi o numerici, ed eventualmenteutilizzate per controllare levoluzione del sistema stesso.
In queste lezioni il termine sistema sara quasi sempre riferito al modello matematico, piuttostoche al fenomeno reale che questo vuole rappresentare. Senza nessuna pretesa di imbarcarci in unadefinizione assiomatica, cercheremo di introdurre il concetto di sistema descrivendone gli aspettiprincipali e le modalita di utilizzo.
1.1 La nozione astratta di sistemaCaratteristica principale di ogni sistema fisico e quella di evolversi nel tempo, cioe di modificare ilproprio stato col trascorrere del tempo. Responsabili di tale evoluzione sono in generale le forze ei vincoli interni al sistema, e le sollecitazioni eventualmente imposte dallesterno.
1.1.1 Loperatore ingresso-uscita
Per descrivere matematicamente un sistema fisico, e necessario che lo stato del sistema, le eventualisollecitazioni esterne e le informazioni che il sistema ci fornisce sul proprio stato possano essere rap-presentate per mezzo di grandezze numeriche variabili (nel tempo). In definitiva, per rappresentare
un sistema e necessario assegnare:
1) un insiemeT di tempi
2) un insiemeU di ingressi
3) un insiemeXdi stati
4) un insiemeYdi uscite.
9
-
7/21/2019 Teoria Dei Controlli
10/190
10
Le sollecitazioni imposte dallesterno (dette anche ingressi o input) sono quindi descritte dafunzioni u() F(T,U). Le informazioni fornite dal sistema sul proprio stato (dette anche usciteo output) sono rappresentate da funzioni y() F(T, Y), mentre lo stato e rappresentato da unafunzione x() F(T, X).
Luscita dipende naturalmente dallingresso. Il sistema agisce quindi come un operatore (uni-
voco)R che trasforma ogni funzione di ingresso u() F(T,U) in una funzione di uscita y()F(T, Y). Scriveremo pertanto
y() =R(u()) , con R:F(T,U) F(T, Y) .LoperatoreR si chiama anche operatore ingresso-uscita. Nella teoria dei sistemi si fa talvolta
uso di diagrammi a blocchi; a tal fine, un operatore R si rappresenta graficamente mediante lafigura
Ru y
Un operatore ingresso-uscitaR non e necessariamente definito per ogni u() F(T,U). Peresempio, in talune applicazioni, le funzioni di ingresso devono sottostare a vincoli che la naturadel problema impone sia sui valori che esse possono assumere, sia sul loro carattere funzionale. Ilsottoinsieme di F(T,U) formato da tutte le funzioni che soddisfano le condizioni richieste costituisceil domino di
Re si chiama insieme degli ingressi ammissibili.
Osservazione 1.1 Nel rappresentare un sistema come un operatoreRunivoco, si suppone impli-citamente di avere una conoscenza completa del funzionamento del sistema stesso. Questo, nellarealta, non e quasi mai vero. Di regola, luscita di un sistema e infatti influenzata da fattori deiquali non si e tenuto conto nella modellizzazione, o da incertezze e imprecisioni nellidentificazionedei parametri, o da eventi di natura aleatoria. Situazioni di questo genere, tuttavia, non sarannotrattate in questo corso.
Seguono alcuni commenti sulla natura degli insiemiT,U,X,Y.
1.1.2 Tempo discreto e tempo continuo
Linsieme dei tempi T puo essere un qualunque insieme totalmente ordinato dotato di una strutturadi gruppo. In pratica vi sono due possibili scelte:T =Z oppureT =R. Nel primo caso si parla disistemi in tempo discreto, e le funzioni che descrivono lingresso, luscita e lo stato sono in realtadelle successioni. Nel secondo caso si parla di sistemi in tempo continuo. Molto spesso, uno stessosistema fisico puo essere rappresentato sia da un modello in tempo discreto che da uno in tempocontinuo (cio dipende dagli scopi e dai mezzi impiegati per la modellizzazione).
-
7/21/2019 Teoria Dei Controlli
11/190
11
1.1.3 Spazio degli ingressi e spazio delle uscite
Tra le variabili di ingresso, e opportuno fare delle distinzioni. Alcune di queste sono infatti iden-tificabili come segnali che sfuggono al controllo delloperatore (disturbi), altre come segnali di ri-
ferimento (cioe funzioni di uscita ideali alle quali luscita effettiva del sistema si deve adeguare),
altre infine come controlliveri e propri, cioe segnali mediante i quali loperatore puo influenzare ilcomportamento del sistema e quindi la funzione duscita.
In generale, e conveniente ordinare le variabili di ingresso in modo da poterle rappresentarecome componenti di un vettore. Analogamente, anche le variabili di uscita saranno ordinate erappresentate come un vettore. E quindi abbastanza naturale supporre che linsieme degli ingressi
Ue linsieme delle usciteYpossiedano una struttura di spazio vettoriale reale, di dimensione finita.
1.1.4 Spazio degli stati
Di regola, anche nelle applicazioni piu comuni, le variabili di stato sono molto piu numerose dellevariabili di ingresso e di uscita, e sono difficile da identificare in quanto la funzione x(
) che ne
rappresenta levoluzione non e direttamente disponibile allosservatore, il quale puo monitorare emisurare solo gli ingressi e le uscite. A volte conviene pensarle come unidealizzazione matematicainerente al modello.
E comunque naturale assumere che anche linsieme degli statiXabbia una struttura di spaziovettoriale. Per molte applicazioni e sufficiente limitarsi al caso in cui la dimensione diX e finita,ma talvolta e necessario far ricorso anche a spazi di dimensione infinita: cio accade tipicamentequando le variabili di stato dipendono, oltre che dal tempo, da altre variabili, per esempio variabilispaziali.
1.1.5 Sistemi finito-dimensionali
Si dice che un sistema efinito-dimensionalequando le variabili di ingresso, di uscita, e anche quelledi stato possono essere rappresentate come vettori con un numero finito di componenti reali, ovveroX = Rn,U = Rm,Y = Rp, essendo n, m, p numeri interi assegnati, maggiori o uguali ad 1. Inparticolare, il sistema si dice di tipo SISO (single-input-single-output) quando m= p = 1; altrimentisi dice di tipo MIMO (multi-input-multi-output).
Da questo momento in poi, col termine sistema intenderemo sempre un sistemafinito-dimensionale e a tempo continuo.
Conseguentemente, gli insiemi di funzioni che rappresentano lingresso, luscita e lo stato saranno
indicati, rispettivamente, comeF(R, Rm),F(R, Rp),F(R, Rn).
1.1.6 Connessione di sistemi
E importante saper operare con e sui sistemi, stabilendo delle connessioni oppure decomponendoliin sottosistemi. I tipi fondamentali di connessione sono tre.
1) Cascata(oserie): lingresso coincide con luscita di un altro sistema.
-
7/21/2019 Teoria Dei Controlli
12/190
12
R1u R2 y
Indicando conR1,R2,Rgli operatori che rappresentano, rispettivamente, il primo sistema,il secondo sistema e il sistema risultante dalla connessione, si haR=R2 R1, doveindicail prodotto di composizione.
2)Parallelo: due sistemi hanno lo stesso ingresso e contribuiscono entrambi a determinare luscita.
u y
R1
R2
Indicando come prima conR1,R2,R gli operatori che rappresentano, rispettivamente, ilprimo sistema, il secondo sistema e il sistema risultante dalla connessione, questa volta sipossono avere varie possibilita. Per esempioR potrebbe essere uguale alla sommaR1+ R2,oppure al prodotto cartesianoR1 R2.
3) Retroazione(o feedback): luscita del primo sistema viene letta dal secondo sistema, elaborata,addizionata ad eventuali altri input esterni e quindi re-immessa nel canale di ingresso delprimo sistema.
R2
R1u y
Adesso, loperatoreR che rappresenta la connessione diR1 eR2 e definito implicitamentedalla relazione y () =R1(R2(y()) + u()).
Combinando questi tipi di connessioni, si possono ottenere schemi molto generali.
-
7/21/2019 Teoria Dei Controlli
13/190
13
1.1.7 Analisi dei sistemi
Scopo dellanalisi dei sistemi e quello di studiare le proprieta delloperatore ingresso-uscita. Inparticolare ha interesse dare delle stime dellenergia trasportata dal segnale di uscita, in funzionedellenergia trasportata dal segnale in ingresso. Per poter fare ci o, bisogna che le funzioni che
descrivono gli ingressi e le funzioni che descrivono le uscite vengano prese in spazi dotati di normala cui scelta dipendera dalla natura dellapplicazione e che, per il momento, non occorre precisare.
Continuiamo a indicare rispettivamente, come prima, con i simboliF(R, Rm) eF(R, Rp) lospazio delle funzioni di ingresso e lo spazio delle funzioni di uscita, ma teniamo presente che daquesto momento in poi, essi devono essere definiti in modo da risultare spazi vettoriali normati. Leloro norme saranno indicate rispettivamente con i simboli|| ||F(R,Rm) e|| ||F(R,Rp).
Informalmente, si dice che un sistema e esternamente stabilequando ad ogni ingresso limitatocorrisponde unuscita limitata. Cerchiamo di rendere piu preciso questo concetto.
Definizione 1.1 Un sistema, o loperatoreRche lo rappresenta, si diceBIBO-stabilerispetto allenorme
|| ||F(R
,Rm
)e
|| ||F(R
,Rp
)se per ogni numero realeR >0 esiste un numero realeS >0 tale
che per ogni ingresso u() F(R, Rm) si ha
||u()||F(R,Rm)R = ||y()||F(R,Rm)S
dovey() e la risposta del sistema corrispondente allingressou().
Lacronimo BIBO deriva dallinglese bounded-input-bounded-output. Si noti che la Definizione1.1 consente la possibilita che luscita sia diversa da zero anche quando lingresso e costantementenullo.
La proposizione seguente, di cui tralasciamo la dimostrazione, propone un modo diverso di
definire lo stesso concetto.
Proposizione 1.1 Un sistema, o loperatoreR che lo rappresenta, e BIBO-stabile se e solo seesiste una funzione
(r) : [0, +)[0, +)
continua e non-decrescente tale che per ogni ingresso u() F(R, Rm) si ha:
||y(
)
||F(R,Rp)
(
||u(
)
||F(R,Rm)) . (1.1)
Il significato della (1.1) e che se lenergia trasportata dal segnale in ingresso e limitata, ilsistema risponde con un segnale in uscita la cui energia puo essere stimata in funzione della stimadellenergia del segnale in ingresso. Il valore(0) prende il nome di costante didistorsione, mentrela funzione (r) (0) si chiama funzione-guadagno.
Nellanalisi dei sistemi e di fondamentale importanza conoscere le condizioni sotto le qualiun sistema e BIBO-stabile e, nel caso affermativo, ricavare informazioni sulle caratteristiche dellafunzione .
-
7/21/2019 Teoria Dei Controlli
14/190
14
1.1.8 Controllo dei sistemi
Il progetto (design) del sistema (o sintesi) consiste nel determinare una strategia di controllo, daesercitare utilizzando il canale di ingresso, in modo che luscita del sistema sia il piu vicina possibilea quella desiderata.
Genericamente, esistono due possibili tipi di strategie di controllo.
1) Controllo a circuito aperto: il controllo viene implementato costruendolo direttamente comefunzione del tempo u() F(R, Rm).
2) Controllo a circuito chiuso: il controllo viene implementato costruendo un secondo sistema erealizzando una connessione in retroazione.
Il secondo tipo e in generale preferibile (si parla anche di controllo automatico) in quantomette il sistema in grado di autoregolarsi, in caso di perturbazioni impreviste, anche senza la
presenza costante di un operatore umano. Nel controllo a circuito chiuso infatti, luscita del sistemaprincipale, denominato impianto e rappresentato da un operatoreRI :F(R, Rm) F(R, Rp),viene confrontata col segnale di riferimento. Quando la differenza tra le due funzioni diventa tropposensibile, il secondo sistema, denominatocompensatoreocontrolloree rappresentato da un operatoreRC :F(R, Rp) F(R, Rm), comunica allimpianto le correzioni necessarie.
Talvolta e possibile accedere direttamente allo stato del sistema, e quindi realizzare il compen-satore come un operatoreRC :F(R, Rn) F(R, Rm). Per distinguere tra le due situazioni, siparla diretroazione delluscitanel primo caso e di retroazione dello stato nel secondo.
1.1.9 Proprieta dei sistemi
In questa sezione, facendo per il momento ancora riferimento al caso generale, ci proponiamo didiscutere le proprieta che e ragionevole aspettarsi, affinche un operatore R:F(R, Rm) F(R, Rp)sia effettivamente rappresentativo di un sistema fisico.
Sistemi causali
Di regola, i sistemi che si incontrano nelle applicazioni pratiche sono causali (o non-anticipativi).Cio significa che se per un qualunque tR e per una qualunque coppia di ingressi u1(), u2()F(R, Rm) si ha
u1() =u2() per ogni t ,allora
y1(t) =y2(t)
dovey1() =R(u1()) ey2() =R(u2()). In altre parole, il valore delluscita a un istante arbitrariot e determinato esclusivamente dai valori assunti dalla funzione di ingresso negli istanti precedentia t.
-
7/21/2019 Teoria Dei Controlli
15/190
15
Sistemi invarianti nel tempo
Diremo che un sistema, o loperatore che lo rappresenta, e invariante nel tempo (o stazionario, oancheautonomo) set, R e per ogni ingresso u() F(R, Rm), posto
v(t) =u(t ), y() =R(u()), z() =R(v())si ha
z(t) =y(t ).In altre parole, se si ritarda (o si anticipa) il segnale di ingresso di una certa quantit a di tempo,
anche il segnale in uscita viene ritardato (o anticipato) della stessa quantita di tempo, ma restaqualitativamente invariato.
Sistemi lineari
Un sistema si dice linearese tale e loperatore che lo rappresenta, ovvero se
a1R(u1()) + a2R(u2()) =R(a1u1() + a2u2())per ogni coppia di ingressi u1(), u2() F(R, Rm) e ogni coppia di scalari a1, a2. Si noti che questadefinizione ha senso in quanto lo spazio degli ingressi e lo spazio delle uscite sono spazi vettoriali.
1.2 Sistemi a risposta impulsiva
Un modo per rendere piu concreta la descrizione di un sistema finito-dimensionale in tempo con-tinuo e quello di ipotizzare lesistenza di una matrice h(t) con p righe e m colonne, i cui elementi
siano funzioni continue del tempo definite per ogni t R, tale che la risposta y() =R(u())corrispondente a un ingressou() F(R, Rm) ammetta la rappresentazione
y(t) =
+
h(t )u() d (1.2)
assumendo naturalmente che lintegrale improprio risulti assolutamente convergente1. Un sistemaper cui una tale matrice esiste si dira a risposta impulsiva, e la matrice h(t) si chiamera matricedella risposta impulsiva. La ragione di questa denominazione e la seguente. Sia e1, . . . , em una basediRm, e siau(t) =(t)ei(per un certo indicei = 1, . . . , m) dove(t) rappresenta limpulso unitarioconcentrato nellorigine (delta di Dirac). Si ha:
+
h(t )u() d= +
h(t )()ei d=h(t)ei .
La risposta del sistema allimpulso unitario impresso nella direzione del vettoreei coincide cioecon la colonnai-esima della matriceh(t). Si noti che se p = m = 1 (sistema SISO), h(t) si riduce auna funzione reale di variabile reale.
La dimostrazione della proposizione seguente e immediata.
1Lipotesi di convergenza assoluta dellintegrale (1.2) non e per altro scontata e richiede, in generale, restrizionisulla natura del sistema o sullinsieme degli ingressi ammissibili.
-
7/21/2019 Teoria Dei Controlli
16/190
16
Proposizione 1.2 Se un sistema e a risposta impulsiva, allora loperatore ingresso-uscitaR as-sociato e lineare.
Segue in particolare dalla Proposizione 1.2 che per un sistema a risposta impulsiva luscitacorrispondente a un ingresso costantemente uguale a zero e nulla.
Proposizione 1.3 Ogni sistema a risposta impulsiva e invariante nel tempo.
Dimostrazione Sia u(t) una funzione di ingresso, e sia y(t) la relativa risposta. Siano inoltreTR, v(t) =u(t T) e z (t) la risposta relativa allingresso v(t). Si ha:
z(t) =
+
h(t )v() d= +
h(t )u( T) d .
Effettuiamo la sostituzione T =. Si ha:
z(t) = +
h(t T )u() d= y(t T),come dovevasi dimostrare.
Osservazione 1.2 In realta, le due proposizioni precedenti caratterizzano completamente la classedei sistemi a risposta impulsiva. E infatti possibile dimostrare che ogni sistema lineare e invariantenel tempo e a risposta impulsiva. Intuitivamente, la matriceh(t) puo essere costruita a partire dallarisposta agli impulsi unitari concentrati nellorigine dei tempi, e dalle risposte agli impulsi traslati,concentrati in istanti arbitrari. Combinando linearmente queste risposte si puo approssimare larisposta ad un ingresso generico.
Un sistema a risposta impulsiva non e invece necessariamente causale.
Proposizione 1.4 Sia dato un sistema a risposta impulsiva h(t). Le seguenti proprieta sonoequivalenti.
(1) Il sistema e causale;
(2) h(t) = 0 per ognit
-
7/21/2019 Teoria Dei Controlli
17/190
17
Poiche u1() = u2() per < t la proprieta di causalita implica luguaglianza delle rispettiveuscite al tempo t: y1(t) =y2(t). Ma evidentemente y1(t) = 0, mentre
y2(t) =
+
h(t )u2() d= +
t|h(t )| d= 0
a meno che non sia h(t ) = 0 per ogni > t, ovvero h(r) = 0 per r t0,
y(t) =
tt0
h(t )u() d .
Per i sistemi causali a risposta impulsiva, vi e anche una semplice caratterizzazione della stabilitaesterna.
Proposizione 1.5 Sia dato un sistema causale a risposta impulsivah(t). Assumiamo come spazi
degli ingressi e delle usciteB(R, Rm
) eB(R, Rp
), dotati entrambi della norma della convergenzauniforme. Il sistema e BIBO-stabile se e solo se lintegrale +0
||h(r)|| dr
converge, ovvero se e solo se la funzionett0||h(r)|| dr e limitata nellinterval lo [0, +).DimostrazionePoiche il sistema e causale, per ogni tR si ha:
||y(t)|| = || t
h(t )u() d|| t
||h(t )u()|| d
t
||h(t )| | | |u()|| d
t
||h(t )|| d ||u()|| .
Ma, applicando la sostituzione t =r, t
||h(t )|| d= +0
||h(r)|| dr .
-
7/21/2019 Teoria Dei Controlli
18/190
18
Quindi, se+0
||h(r)|| dr = 0 taleche
|y(t)| ||y()||S (1.4)per ogni tR. La (1.3) e la (1.4) assieme implicano la convergenza dellintegrale +
0 |h(r)| dr.
A parte alcune complicazioni tecniche, la dimostrazione si estende al caso generale in cui m o p (o
entrambi) siano maggiori di 1.
1.3 Sistemi inizializzati
Lidea di interpretare un sistema come un operatore R:F(R, Rm) F(R, Rp) e attrattiva, ed ha ilvantaggio di permettere una presentazione semplificata di alcuni concetti fondamentali. Tuttavia, emeno naturale e soddisfacente di quello che sembri. Nelle piu comuni applicazioni infatti, gli ingressinon sono noti su tutto lasse dei tempi, ma solo a partire da un certo istante t0 R, fissato unavolta per tutte e chiamatoistante iniziale. In generale, ha interesse studiare il comportamento del
sistema nel futuro, cioe per t t0. A tal fine, oltre ad assumere la conoscenza degli ingressi pertt0, sara anche necessario compensare la perdita di informazione relativa agli ingressi per t < t0,con lassegnazione di un dato di altra natura.
Usualmente, si assume di conoscere lo statox0Rn a cui si trova il sistema allistante inizialet0, e a cui si da il nome di stato iniziale.
In questa ottica, conviene interpretare loperatore ingresso-uscita come un operatore inizializza-to R(t0, x0)(u()) che trasforma funzioni2 u() F([t0, +), Rm) in funzioni y() F([t0, +), Rp),e scrivere y () =R(t0, x0)(u()).
1.3.1 Sistemi deterministici
Possiamo immaginare che nelle condizioni iniziali, cioe nel dato della coppia (t0, x0)
R
Rn,venga riassunta tutta la storia passata del sistema, e che la conoscenza dello stato iniziale (inaggiunta ovviamente alla conoscenza degli ingressi che il sistema riceve dallistante iniziale in poi)siano sufficienti per determinare tutta levoluzione futura. Questa idea riposa su unipotesi che eanaloga a quella di causalita, ma piu appropriata al nuovo punto di vista, e comunque diversaperche fa intervenire esplicitamente lo stato del sistema.
2Alternativamente,si puo anche convenire che gli ingressi ammissibili si limitino alle funzioniu() F(R,Rm) chesono nulle per t < t0. A differenza di quanto accade per i sistemi a risposta impulsiva, cio non implica in generaleche luscita al tempo t0 sia uguale a zero.
-
7/21/2019 Teoria Dei Controlli
19/190
19
Definizione 1.2 Si dice che un sistema, o loperatore inizializzato che lo rappresenta, e determi-nistico set0R,
u1(t) =u2(t) tt0 e x1= x2 =y1(t) =y2(t)tt0
dovey1() =R(t0, x1)(u1()) ey2() =R(t0, x2)(u2()).In accordo con la Definizione 1.2, vanno considerati non deterministici i cosiddetti sistemi con
ritardo (nei quali il comportamento pertt0dipende non solo dallo stato in cui il sistema si trovaal tempo t0, ma anche da tutti quegli stati che il sistema ha attraversato al trascorrere del tempoda un certo istante t0 ( > 0) fino a t0) e piu in generale i sistemi con memoria (tipicamentequelli che presentano cicli di isteresi).
Vediamo adesso come vanno modificate le definizioni di sistema invariante nel tempo e di sistemalineare, nel caso in cui si sia scelto di rappresentare il sistema stesso per mezzo di un operatoreinizializzato.
Da questo momento in poi, in aggiunta a quanto stabilito in precedenza e salvo avvisocontrario, col termine sistemaintenderemo sempre sistema rappresentato da un operatoreinizializzato deterministico.
1.3.2 Sistemi invarianti nel tempo
Un sistema, rappresentato per mezzo di un operatore inizializzato, einvariante nel tempose t0, R,x0Rn, e per ogni ingresso u(), posto
v(t) =u(t ), y() =R(t0, x0)(u()), z() =R(t0+ , x0)(v())si ha
z(t) =y(t ).
Proposizione 1.6 SiaR un operatore inizializzato invariante nel tempo, e siay() =R(t0, x0)(u()).Allora,
y(t) =z(t t0)dovez() =R(0, x0)(v()), ev(t) =u(t + t0).
In altre parole, quando si ha a che fare con operatori invarianti nel tempo non e restrittivoassumere che listante iniziale coincida con lorigine dellinsieme dei tempi.
1.3.3 Sistemi lineari
Un sistema rappresentato per mezzo di un operatore inizializzatoR, si dice lineare se per ognit0 R,R e lineare come applicazione da Rn F([t0, +), Rm) inF([t0, +), Rp), e cioe set0R, x1, x2Rn,u1(), u2() F([t0, +), Rm),a1, a2R si ha
R(t0, a1x1+ a2x2)(a1u1() + a2u2()) =a1R(t0, x1)(u1()) + a2R(t0, x2)(u2()) .
-
7/21/2019 Teoria Dei Controlli
20/190
20
Proposizione 1.7 SiaR un operatore inizializzato invariante nel tempo e lineare. Per ognit0R,ognix0Rn e ogniu() F([t0, +), Rm) si ha:
y() =R(t0, x0)(0) + R(t0, 0)(u()) .
Dimostrazione Applicando la definizione di sistema inizializzato lineare con x1 = x0, x2 = 0, u1() = 0,u2() = u(), a1= a2= 1, si ha subito
y() =R(t0, x0)(u()) =R(t0, x0)(0) + R(t0, 0)(u()),come desiderato.
1.3.4 Stabilita esterna
Anche la Definizione 1.1, quando la si applica ai sistemi inizializzati, richiede un aggiornamento.
Definizione 1.3 Un sistema, rappresentato per mezzo di un operatore inizializzatoR, eBIBO-stabile(uniformemente rispetto allistante iniziale) se per ogni numero realeR >0 esiste un numerorealeS >0 tale che per ognit0R e ogni ingresso u() B([t0, +), Rm) si abbia
||x0|| R, ||u()||R = ||y()||Sdovey() =R(t0, x0)(u()).
1.3.5 Sistemi inizializzati a zero e sistemi non forzati
La Proposizione 1.7 puo essere interpretata dicendo che la risposta di un sistema lineare relativa a
un certo stato inizialex0 e ad un certo ingresso u() si puo sempre ottenere mediante unoperazionesemplice (somma) conoscendo:
la risposta relativa allo stato iniziale x0 con lingresso posto uguale a zero; la risposta relativa allingresso u() con lo stato iniziale posto uguale a zero.
In altre parole, nellanalisi del comportamento di un sistema lineare, e specificatamente nellostudio della stabilita esterna, linfluenza sulla risposta dei dati iniziali e linfluenza, sempre sullarisposta, degli ingressi possono essere analizzate separatamente. Conviene quindi procedere pertappe successive, supponendo in una prima fase che lingresso sia nullo, e in una seconda fase chesia nullo lo stato iniziale. Come vedremo, in questo modo sara anche piu facile ritrovare analogiecon i risultati della teoria dei sistemi a risposta impulsiva.
Un sistema rappresentato da un operatore inizializzato invariante nel tempo si dice inizializzatoa zerose lo stato iniziale x0 al tempot0= 0 e posto uguale a zero. Un sistema rappresentato da unoperatore inizializzato si dice non forzato quando lingresso e posto costantemente uguale a zeroper t0.
Un sistema non forzato puo comunque presentare unevoluzione nel tempo: infatti, per effettodellenergia accumulata nel sistema nelle fasi che precedono listante iniziale, lo stato iniziale noncorrispondera, in generale, ad uno stato di riposo.
-
7/21/2019 Teoria Dei Controlli
21/190
21
In tali circostanze, e naturale attendersi che il sistema si evolva dissipando lenergia iniziale,e in modo da portarsi asintoticamente verso una posizione di equilibrio. Se questo accade, si diragenericamente che il sistema e internamente stabile. Il concetto di stabilita interna sara ripreso eprecisato piu avanti.
Nellanalisi delle proprieta di un sistema, lo studio del comportamento in assenza di termini
forzanti costituisce, di regola, una delle fasi preliminari. Come vedremo infatti, esiste una strettacorrelazione tra le proprieta di stabilita interna e quelle di stabilita esterna.
1.4 Sistemi differenziali
In questa sezione circoscriveremo loggetto dei nostri studi ai sistemi modellizzati per mezzo diequazioni differenziali ordinarie; essi si chiamano anche sistemi differenziali. Si tratta di una classemolto particolare di sistemi, per i quali e disponibile una teoria molto sviluppata e completa, edella quale sono note numerose e importanti applicazioni. Lintroduzione di questo tipo di sistemirichiede alcune restrizioni.
1.4.1 Ingressi ammissibili
Trattandosi di sistemi differenziali, per funzione di ingresso ammissibile si intendera sempre unafunzione u() PC([t0, +), Rm), per un qualche t0 R. Tuttavia, per certe applicazioni, enecessario limitare ulteriormente gli ingressi ammissibili a funzioni u() PC([t0, +), U), doveU e un sottoinsieme limitato non vuoto di Rm dato una volta per tutte. Il ruolo di U e quello dirappresentare eventuali limitazioni sullenergia disponibile per esercitare il controllo. E appena ilcaso di osservare che in generalePC([t0, +), U) non e uno spazio vettoriale.
1.4.2 Equazioni di stato
Si suppongano date due funzioni
f(t,x,u) :R Rn Rm Rn
e
h(t, x) :R Rn Rp .Unsistema differenziale e definito dal sistema di equazioni (dette ancheequazioni di stato)
x= dx
dt =f(t,x,u) (1.5)
e dalla funzione dosservazione
y= h(t, x) . (1.6)
Per ogni funzione di ingresso ammissibile u(t), la (1.5) diventa un sistema di equazioni differen-ziali ordinarie del primo ordine in forma normale
x= f(t,x,u(t)) =g(t, x). (1.7)
A proposito delle funzioni f e h, assumeremo sempre che:
-
7/21/2019 Teoria Dei Controlli
22/190
22
(A1) fsia continua e dotata di derivate parziali prime continue rispetto ad x, continua rispettoa u, e continua a tratti rispetto a t;
(A2) h sia continua rispetto a x, e continua a tratti rispetto a t;
(A3) esistano funzioni continue e positive a(t), b(t) tali che
||f(t,x,u)|| a(t)||x|| + b(t)per ogni (t,x,u)R Rn Rm.
Sotto tali ipotesi, per ogni coppia di valori iniziali (t0, x0)R Rn e per ogni ogni funzionedi ingresso ammissibile esiste ununica soluzione del problema di Cauchy
x= g(t, x)x(t0) =x0
(1.8)
definita sullintero intervallo [t0, +
). Volendo esplicitare la dipendenza della soluzione del proble-
ma (1.8) dalle condizioni iniziali e dallingresso, useremo la notazione
x= x(t; t0, x0, u()) . (1.9)Loperatore ingresso-uscita inizializzato associato al sistema differenziale (1.5), (1.6)
y() =R(t0, x0)(u()) (1.10)e quello che definisce luscita come y(t) =h(t, x(t; t0, x0, u())) per ognitt0. In analogia con (1.9)useremo talvolta la notazione
y= y(t; t0, x0, u()) . (1.11)Possiamo riassumere quanto detto fino a questo momento nella proposizione seguente.
Proposizione 1.8 Nelle ipotesi (A1), (A2), (A3), il sistema differenziale (1.5), (1.6) definisceun operatore ingresso-uscita (1.10) deterministico sullinsieme degli ingressi ammissibili. Inoltre,luscitay(t) e una funzione continua.
La seguente Proposizione caratterizza invece i sistemi differenziali invarianti nel tempo.
Proposizione 1.9 Nelle ipotesi(A1), (A2), (A3), loperatore ingresso-uscita (1.10) definito dalsistema differenziale (1.5), (1.6) risulta invariante nel tempo se le funzionif e h non dipendonoesplicitamente dat, ossia sef(t,x,u) =f(x, u) eh(t, x) =h(x).
DimostrazioneSia t0R e siau(t) PC([t0, +), Rm). Dato uno stato iniziale x0, siax(t) la corrispon-dente soluzione dellequazione (1.5) e sia y(t) = h(x(t)). Sia infine un numero reale dato.
Posto v(t) = u(t ) e (t) = x(t ), si had
dt(t) =
d
dtx(t ) =f(x(t ), u(t )) = f((t), v(t)).
In altre parole, (t) coincide con la soluzione relativa allingresso traslato v(t) e alle condizioni iniziali(t0+ , x0). Posto infine z(t) = h((t)), e chiaro che z (t) =y(t ).
-
7/21/2019 Teoria Dei Controlli
23/190
23
In virtu delle Proposizioni 1.6 e 1.9, se le funzioni f e h non dipendono esplicitamente da tnon e restrittivo supporre t0= 0. In tal caso, le notazioni (1.9) e (1.11) possono essere semplificateevitando di indicare esplicitamente listante iniziale.
1.4.3 Sistemi differenziali lineari
Nella teoria matematica dei sistemi differenziali, un ruolo di rilievo spetta, sia dal punto di vistastorico che dal punto di vista delle applicazioni, ai sistemi definiti da equazioni lineari.
Definizione 1.4 Un sistema differenziale invariante nel tempo si dice lineare quando si presentanella forma
f(x, u) =Ax + Bu e h(x) =Cx
doveA,B, Csono matrici a elementi reali di dimensioni, rispettivamente, n n, n m, p n.
Proposizione 1.10 Dato un sistema differenzialex= Ax + Buy= Cx ,
(1.12)
lineare nel senso della Definizione 1.4, loperatore ingresso-uscita inizializzato associato (1.10) elineare.
La dimostrazione della Proposizione 1.10 sara data piu avanti.
A partire dal Capitolo 3 di queste lezioni, concentreremo principalmente la nostra attenzioneallo studio dei sistemi differenziali invarianti nel tempo e lineari.
-
7/21/2019 Teoria Dei Controlli
24/190
24
-
7/21/2019 Teoria Dei Controlli
25/190
Capitolo 2
Sistemi di equazioni differenziali in
generale
Scopo di questo Capitolo e lintroduzione di alcune proprieta rilevanti nella caratterizzazione delcomportamento qualitativo a lungo termine delle variabili di stato dei sistemi differenziali in-varianti nel tempo non forzati. Un sistema di questo tipo si riduce ad un sistema di equazionidifferenziali (in generale, non lineari)1
x= f(x) . (2.1)
A proposito della (2.1), supporremo che f sia definita, continua e dotata di derivate parziali primecontinue per ogni xRn, e che inoltre soddisfi una disuguaglianza del tipo
||f(x)|| a||x|| + bper certe costanti positivea, b. Sappiamo che sotto queste condizioni e garantita, per ogni condizioneiniziale (t0, x0), esistenza, unicita e prolungabilita allinfinito della soluzione al problema di Cauchy.
Inoltre, poiche il sistema (2.1) e definito da una funzione fche non dipende esplicitamente dat, per la Proposizione 1.9 esso e invariante nel tempo; non e quindi restrittivo supporre chet0= 0.
2.1 La mappa di flusso
Ogni soluzione della (2.1) puo essere interpretata come la parametrizzazione di una curva x = (t)di Rn. Per ogni tR, il vettore tangente a tale curva in x coincide con f(x). Per questa ragionela funzione f :Rn
Rn che definisce la (2.1) si chiama anche uncampo vettoriale.
Il sostegno di una soluzione x = (t) della (2.1) prende anche il nome di orbitao traiettoria.Bisogna fare attenzione a non confondere il grafico di una soluzione (t), che e un sottoinsieme diRRn, con lorbita di (t), che coincide con limmagine (R) e che e un sottoinsieme di Rn. Perchiarire ulteriormente, osserviamo che lorbita di non e altro che la proiezione del grafico di su
Rn, effettuata secondo linee parallele allasse dei tempi (si veda la Figura 2.1).
1Le nozioni che andiamo ad introdurre in questo capitolo saranno nel seguito applicate essenzialmente nel casodei sistemi lineari; tuttavia, esse si comprendono meglio in tutta la loro generalita enunciandole in riferimento a unsistema del tipo (2.1).
25
-
7/21/2019 Teoria Dei Controlli
26/190
26
0
5
10
15
20
10
5
0
5
10
10
5
0
5
10
t
x
y
Figura 2.1: Due soluzioni e loro proiezione
Come abbiamo gia osservato, nelle nostre ipotesi la (2.1) ha ununica soluzione per ogni condi-
zione iniziale assegnata. Possiamo formulare tale proprieta, tenendo conto della sua validita globale,scrivendo che date due soluzioni x = (t) e x = (t) della (2.1),
t: (t) =(t) = (t) =(t) tR . (2.2)Da un punto di vista geometrico, la (2.2) ci dice che se i grafici di due soluzioni hanno un punto
in comune, allora coincidono.
Sempre da un punto di vista geometrico, linvarianza nel tempo si interpreta dicendo che tra-slando nel tempo grafici di soluzioni si ottengono ancora grafici di soluzioni. Tutte le soluzioniottenute in questo modo sono ovviamente parametrizzazioni equivalenti della stessa curva: ad essecorrisponde dunque una stessa orbita (si veda ancora la Figura 2.1). Vale una sorta di viceversa.
Lemma 2.1 Siano (t) e(t)due soluzioni qualunque della (2.1) definite per ognitR. Allora,
t1, t2: (t1) =(t2) = (t) =(t + T) tR , (2.3)dove si e posto T =t1 t2.
DimostrazioneSi ponga T =t1 t2 e (t) =(t+T). Chiaramente, (t) e una soluzione. Essa soddisfaalla condizione iniziale
(t2) = (t2+ t1 t2) = (t1) .
Ma anche (t) e la soluzione e, per ipotesi, soddisfa alla stessa condizione. In conseguenza dellunicitadelle soluzioni, si ha allora
(t) = (t + T) = (t) tR .
Laffermazione del Lemma 2.1 puo essere interpretata dicendo che se due orbite hanno un puntoin comune, esse devono coincidere (a questo proposito, si faccia ben attenzione alla differenza trala (2.2) e la (2.3)). Dunque, per ogni punto di Rn passa una e una sola orbita. Le orbite di un
-
7/21/2019 Teoria Dei Controlli
27/190
27
sistema del tipo (2.1) si dispongono nel piano in modo da costituirne una partizione. Esse formanoun disegno che prende il nome di configurazione degli stati.
Per indicare la soluzione del problema di Cauchy
x= f(x)x(0) =x0 (2.4)si adotta spesso la notazione2
x= x(t, x0) (2.5)
che ha il vantaggio di evidenziare, oltre alla variabile temporale t, anche lo stato iniziale x0. La(2.5) definisce una funzione da R Rn Rn, a cui si da il nome di mappa di flusso generato dalcampo vettoriale f. Essa puo essere interpretata come una funzione di t per ogni dato x0, oppurecome una funzione da Rn in Rn parametrizzata dat.
Osservazione 2.1 Nella (2.5), la variabile t va pensata non tanto come lindicazione di un pre-ciso istante di tempo, ma piuttosto come lindicazione della durata del processo, cioe come lalunghezza dellintervallo di tempo necessario per operare il trasferimento di stato da x0 inx(t, x0).
Proposizione 2.1 La mappa di flusso del campo vettorialef soddisfa le proprieta
x(0, x0) =x0 (2.6)
e
x(t, x(, x0)) =x(t + , x0) (2.7)
qualunque siano t, R ex0Rn.
2.2 Punti dequilibrio e stabilita nel senso di Liapunov
In questa sezione cercheremo di rendere preciso il significato dellespressione stabilita interna.Con cio si intende che un sistema, in assenza di sollecitazioni esterne, o resta nelle vicinanze di unostato di riposo oppure si evolve in modo da approssimarsi ad uno stato di riposo.
Dato un sistema differenziale invariante nel tempo e non forzato (2.1), si dice che xRn e unpunto dequilibriose la funzione costante (t)
x e una soluzione. Tali punti si dicono anche punti
criticio punti singolari. Se x e un punto dequilibrio, allora lorbita passante per xsi riduce a{x}.
Proposizione 2.2 Un punto x e dequilibrio se e solo sef(x) = 0.
Un punto dequilibrio x si dice isolato se esiste un intornoO di x tale che f(x)= 0 per ognix O, x= x.
2La (2.5) non e altro che quello a cui si riduce la (1.9) nel caso della (2.1).
-
7/21/2019 Teoria Dei Controlli
28/190
28
Definizione 2.1 Si dice chexe un punto dequilibriostabile (nel senso di Liapunov)per il sistema(2.1) se per ogni > 0 esiste un >0 tale che
x0x< = x(t; x0) x< , t0
.
Definizione 2.2 Si dice chex e un punto dequilibrio attrattivo se esiste un0 > 0 tale che, perogni stato inizialex0 per cuix0x< 0, si ha
limt+
x(t; x0) = x . (2.8)
Definizione 2.3 Sex e allo stesso tempo un punto dequilibrio stabile e attrattivo, si dice che easintoticamente stabile. Se inoltre la (2.8) vale per ognixRn, x si diraglobalmente asintotica-mente stabile. Infine, se la convergenza delle soluzioni verso x ha carattere esponenziale, e cioe seesistono M >0, >0 tali che
x0 con x0x< 0 si ha x(t; x0) x M et , (2.9)si parla di stabilita esponenziale.
Lestremo superiore dei numeri per cui vale la (2.9) (con un Mopportuno) si chiama tassodi decadimento.
Nello studio del comportamento qualitativo delle soluzioni di un sistema non forzato (2.1) einfine utile la seguente nozione.
Definizione 2.4 Sia K un sottoinsieme chiuso diRn. Si dice che K e invariante per il sistema(2.1) se per ognix0
K si hax(t; x0)
Kper ognit
R.
-
7/21/2019 Teoria Dei Controlli
29/190
Capitolo 3
Sistemi di equazioni differenziali
lineari omogenei
Concentriamo la nostra attenzione sui sistemi differenziali lineari. Per avviarne lo studio in manierasistematica, in questo capitolo ci limiteremo ai sistemi lineari finito-dimensionali, invarianti neltempo, e non forzati. Questi sono definiti da un sistema di equazioni del tipo
x= Ax , xRn . (3.1)Nella tradizione matematica, (3.1) si chiama un sistema di equazioni differenziali lineari omo-
geneo a coefficienti costanti. In forma esplicita, (3.1) si scrive
x1= a11x1+ . . . + a1nxn. . . . . . . . .xn= an1x1+ . . . + annxn .
3.1 Richiami
Cominciamo col ricordare alcuni fatti importanti a proposito dei sistemi di equazioni del tipo (3.1).
Fatto 1. Per ogni stato inizialex0 assegnato esiste una e una sola soluzionex = (t) della (3.1)tale che(0) =x0; inoltre, (t) e definita per ognitR.
Fatto 2.SevRn (v= 0) e un autovettore diA relativo allautovaloreR, allora(t) =etve la soluzione corrispondente allo stato inizialev .
Fatto 3. Se 1(
), 2(
) sono soluzioni di (3.1) e 1, 2
R, allora anche 11(
) + 22(
) e
soluzione di (3.1).
Fatto 4. Date k soluzioni 1(), . . . , k() di (3.1), queste costituiscono un sottoinsieme linear-mente indipendente inC(, +, Rn) se e solo se i vettori 1(t), . . . , k(t) costituiscono,per ognitR, un sottoinsieme linearmente indipendente inRn.
Fatto 5. Linsieme di tutte le soluzioni di (3.1) forma un sottospazioS diC(, +, Rn): ladimensione diS e finita e, piu precisamente, uguale ad n. AdS si da il nome di integralegenerale del sistema (3.1).
29
-
7/21/2019 Teoria Dei Controlli
30/190
30
Il sistema di equazioni (3.1) ha senso anche se si ammette che x possa prendere valori nellospazio n-dimensionale complesso Cn, e che gli elementi di A siano complessi: a parte le ovviemodifiche, rimane vero tutto quanto abbiamo detto fino a questo momento1. Valgono le seguentiulteriori proprieta.
Fatto 6.Se gli elementi diA sono reali, e sez () e una soluzione non reale di (3.1), allora anchela sua coniugataz() e una soluzione di (3.1).
Fatto 7. Se gli elementi diA sono reali, e sez() e una soluzione non reale di (3.1), alloraz()ez() sono linearmente indipendenti; inoltre,
1() = z() + z()2
e 2() = z() z()2i
(3.2)
sono due soluzioni della (3.1) reali e linearmente indipendenti.
SeA e una matrice a elementi reali con un autovalore non reale = + i (
= 0) associato ad
un autovettore v =u + i w, a partire dalla soluzione complessa z(t) =etv si ottengono pertanto,con semplici calcoli, le due soluzioni reali
1(t) =et[(cos t)u (sin t)w] e 2(t) =et[(cos t)w+ (sin t)u] .
Osservazione 3.1 Ad autovalori non reali, corrispondono dunque soluzioni reali a carattere oscil-latorio. In particolare se = 0, gli autovalori sono immaginari, e si hanno soluzioni periodiche diperiodo minimo uguale a 2/.
A questo punto risulta chiaro che lintegrale generale della (3.1) puo essere scritto come combi-
nazione lineare
(t) =c11(t) + . . . + cnn(t) (3.3)
dove le c1, . . . , cn sono delle costanti arbitrarie, e 1, . . . , n sono n soluzioni qualunque, purchelinearmente indipendenti. SeAe reale, non e restrittivo assumere che1, . . . , nsiano a valori reali:pertanto, la formula (3.3) descrivera linsieme di tutte le soluzioni reali se le costanti si scelgonoin campo reale, oppure linsieme di tutte le soluzioni complesse se le costanti si scelgono in campocomplesso.
Un insieme costituito dan soluzioni linearmente indipendenti del sistema (3.1) si chiama ancheunsistema fondamentale di soluzioni. Ad ogni sistema fondamentale di soluzioni 1,...,n, si associa
una matrice fondamentale
(t) = (1(t), . . . , n(t))
le cui colonne sono costituite dalle componenti dei vettori 1(t),...,n(t). Osserviamo che se (t)e una matrice fondamentale e Q una matrice costante non singolare, allora anche (t)Q e una
1Lopportunita di estendere la ricerca delle soluzioni al campo complesso anche nel caso in cui gli elementi diAsiano reali, e suggerita dal Fatto 2: eventuali autovalori non reali di A danno infatti luogo a soluzioni che sarebbedifficile individuare rimanendo nel campo reale.
-
7/21/2019 Teoria Dei Controlli
31/190
31
matrice fondamentale. In particolare, vi e ununica matrice fondamentale tale che (0) = I. Essaviene detta anche matrice fondamentale principale.
Introduciamo il vettore costante c = (c1, . . . , cn)t. Se (t) e una qualunque matrice fondamen-
tale, la (3.3) si scrive anche
(t) = (t)c (3.4)
La soluzione particolare che soddisfa alle condizioni iniziali (t0) = x0 si ricava risolvendo ilsistema algebrico
(t0)c= x0
rispetto allincognita vettorialec. Se t0 = 0 e (t) e la matrice fondamentale principale, allora siha semplicemente c = x0.
3.2 La matrice esponenziale
SiaM(C) lo spazio vettoriale di dimensione finita formato da tutte le matrici quadrate di ordinen n a elementi complessi. Se M= (mi,j)i,j=1,...,n M(C), definiamo
||M||=
i,j
|mi,j|2 .
In questo modo,M(C) diventa uno spazio normato. Si puo dimostrare che la serie
k=0
Mk
k! ,
converge qualunque sia M M(C); la sua somma si indica col simbolo eM e si chiama matriceesponenziale.
Riportiamo una lista delle principali proprieta della matrice esponenziale:
se gli elementi di Msono reali, allora anche gli elementi di eM sono reali; e0 =I, ove 0 indica la matrice i cui elementi sono tutti nulli; eN+M =eMeN, a condizione che M N=N M; gli autovalori di eM sono tutti e solo i numeri complessi della formae, dovee un autovalore
di M;
eMM =M eM; det eM =etr M, ed e quindi diverso da zero (tr M indica la traccia di M); se P e una matrice non singolare, eP1MP =P1eMP.
Torniamo adesso al sistema (3.1). Per ogni t R, gli elementi della matrice esponenziale etAsono funzioni derivabili. Inoltre, vale la proposizione seguente.
-
7/21/2019 Teoria Dei Controlli
32/190
32
Proposizione 3.1 Qualunque siaA M(C) si ha, per ognitR,d
dtetA =AetA .
La matrice esponenziale fornisce dunque un formalismo utile a rappresentare le soluzioni del
sistema (3.1). Infatti, se x = (t) e la soluzione di (3.1) tale che (t0) = x0, allora, per lunicitadelle soluzioni e le proprieta dellesponenziale, si avra
(t) =e(tt0)Ax0
e, se t0 = 0, ancor piu semplicemente
(t) =etAx0 (3.5)
qualunque sia t R. In altre parole, determinare la matrice esponenziale equivale a determinareuna matrice fondamentale del sistema (anzi, la matrice fondamentale principale).
Vediamo adesso come si puo calcolare esplicitamente la matrice esponenziale2. Cominciamo da
alcuni casi particolari.
3.3 A diagonale
Sia
A=
1 0 . . . 00 2 . . . 00 . . . . . . 00 0 . . . n
= diag (1, . . . , n)
dove1
, . . . , n
sono numeri reali o complessi non necessariamente distinti.
Osservazione 3.2 Per una matrice siffatta, e un autovalore se e solo se = i per qualchei = 1, . . . , n, e la molteplicita algebrica di e uguale al numero di volte che compare ripetutonella n-pla 1, . . . , n. Gli autovettori corrispondenti a 1, . . . , n si possono prendere coincidenti,ordinatamente, con i vettori della base canonica
v1=
10
. . .0
, . . . , vn=
00
. . .1
. (3.6)
Un sistema fondamentale di soluzioni del sistema (3.1) potra essere quindi scritto della forma
1(t) =e1tv1, . . . , n(t) =e
ntvn .
Il sistema (3.1) definito da una tale A si dice disaccoppiato, in quanto levoluzione di ciascunacomponentexi del vettore x dipende daxi ma non dipende da nessuna xj conj=i. Un sistema di
2Alcuni concetti e risultati di algebra lineare, di cui faremo uso a questo scopo, sono riportati nellAppendice Bper comodita dello studente
-
7/21/2019 Teoria Dei Controlli
33/190
33
questo tipo puo anche essere risolto direttamente, integrando separatamente le singole equazioni. Ilsistema fondamentale di soluzioni a cui si perviene per questa via e ovviamente lo stesso di prima.Sempre al medesimo risultato si puo infine arrivare costruendo la matrice esponenziale. Infatti, eimmediato verificare che
Ak = diag (k1, . . . , kn)
per ogni k intero positivo, per cui
etA = diag (e1t, . . . , ent).
3.4 A nilpotente
Se A e nilpotente, vuol dire che esiste un interoqpositivo tale che Ak = 0 per ogni kq. Dunquela serie che definisce la matrice esponenziale si riduce ad un polinomio e pu o essere calcolataelementarmente. Una tipica matrice nilpotente (per cui q= n) e
A=
0 1 0 . . . 00 0 1 . . . 0
. . . . . . . . . . . . . . .0 0 0 . . . 10 0 0 . . . 0
. (3.7)
Il sistema corrispondente
x1= x2x2= x3. . .
xn= 0puo anche essere risolto procedendo in cascata (dal basso verso lalto). I due approcci portano,ovviamente, allo stesso risultato. Un sistema fondamentale di soluzioni puo essere scritto nella forma
1(t) =v1 , 2(t) =tv1+ v2 , . . . , n(t) = tn1
(n 1)! v1+ . . . + tvn1+ vn (3.8)
dove i vettori v1, . . . , vn sono, come in (3.6), quelli della base canonica. Daltra parte, il calcolodiretto della matrice esponenziale, supponendo sempre A nella forma (3.7), mostra che
etA =
1 t t2
2! . . . tn1
(n1)!
0 1 t . . . tn2
(n2)!
... ...
... ...
0 0 0 . . . t0 0 0 . . . 1
.
Osservazione 3.3 Si noti che zero e lunico autovalore della matrice (3.7); lo spazio proprio corri-spondente ha dimensione uno. Inoltre, Av1 = 0 (vale a dire chev1 e un autovettore di A),Av2= v1,Av3= v2 e via di seguito.
-
7/21/2019 Teoria Dei Controlli
34/190
34
La formula dellintegrale generale del sistema definito da una matrice del tipo (3.7) si puoscrivere come
(t) =c11(t) + . . . + cnn(t) =d1+ td2+ . . . + tn1
(n
1)!
dn
dove
d1=
c1c2...
cn1cn
, d2=
c2c3...
cn0
, . . . , dn=
cn0...00
.
Si osservi che Ad1= d2, Ad2= d3, . . . , A dn= 0.
Osservazione 3.4 Combinando i due casi particolari considerati fino a questo momento, siamoin grado di calcolare la matrice esponenziale per ogni matrice A della forma In+T dove eun qualunque numero reale, In e la matrice identica di dimensioni nn, e T e nilpotente. Inparticolare, se Tha la forma (3.7), allora
et(In+T) =et
1 t t2
2! . . . tn1
(n1)!
0 1 t . . . tn2
(n2)!...
... ...
...0 0 0 . . . t0 0 0 . . . 1
. (3.9)
3.5 A diagonale a blocchi
Se M e diagonale a blocchi, cioe
M =
M1 0 . . . 00 M2 . . . 0...
... ...
0 0 . . . M k
= diag (M1, . . . , M k) ,
allora anche la sua matrice esponenziale e diagonale a blocchi
eM = diag (eM1, . . . , eMk) .
3.6 Equivalenza lineare
Per procedere al calcolo della matrice esponenziale nel caso piu generale, conviene introdurre ilconcetto di equivalenza lineare.
-
7/21/2019 Teoria Dei Controlli
35/190
35
Immaginiamo il sistema (3.1) come il modello matematico di un processo che si svolge in uno spa-zio vettoriale realeV di dimensione n nel quale sia stata fissata una base. Ln-plax = (x1, . . . , xn)
t
di numeri reali rappresenta, in tale base, le componenti dello stato del sistema.Supponiamo adesso di prendere unaltra base di V, e di indicare con y = (y1, . . . , yn)
t lecomponenti dello stato in questa seconda base.
E noto che esiste una matrice non singolare Ptale che, per ogni elemento di V,
x= P y.
Vediamo come cambia lequazione (3.1), quando si rappresentano gli stati del sistema rispettoalla seconda base. Si ha
y = P1x= P1AP y= By . (3.10)
Si ottiene dunque ancora un sistema lineare, definito da una matrice simile alla data.Viceversa, due sistemi del tipo (3.1) definiti da matrici simili possono sempre essere pensati
come uno stesso sistema fisico rappresentato in diversi sistemi di coordinate.
Definizione 3.1 Due sistemi
x= Ax e y = By , xRn, yRn
si dicono linearmente equivalenti se A e B sono simili, cioe se B = P1AP per qualche P nonsingolare.
Quella definita e una relazione di equivalenza. E chiaro che ogni soluzionex(t) del primo sistemae della formax(t) =P y(t) dovey(t) e una soluzione del secondo e viceversa. Si vede facilmente delresto che
etB =P1etAP (o, equivalentemente, etA =P etBP1) . (3.11)
Dal punto di vista della rappresentazione delle soluzioni, possiamo quindi lavorare su un qua-lunque sistema linearmente equivalente al dato, tenendo poi conto della (3.11) per ricondursi allecoordinate originali.
La nozione di equivalenza lineare, cos come quella di similitudine tra matrici, si generalizzaimmediatamente al caso in cui xCn. Se Ae B sono matrici simili,Ae reale eB contiene elementicomplessi, allora la matrice Pche opera il cambiamento di base conterra necessariamente elementicomplessi.
3.7 A
diagonalizzabileE noto che una matrice A di dimensioni n n e diagonalizzabile (cioe simile a una matrice dia-gonale) se e solo se esistono n vettori v1, . . . , vn linearmente indipendenti ciascuno dei quali e unautovettore diA. Si dice che i vettori v1, . . . , vn costituiscono una base propriadi A. In particolare,A e diagonalizzabile se ci sono n autovalori distinti.
Indicata conPla matrice le cui colonne sono, ordinatamente, v1, . . . , vn, si ha
P1AP= diag (1, . . . , n) =D
-
7/21/2019 Teoria Dei Controlli
36/190
36
dove 1 e lautovalore di A relativo a v1, 2 e lautovalore di A relativo a v2 e cos via (non erichiesto che i numeri 1, . . . , n siano distinti).
Per calcolare etA possiamo prima diagonalizzare A mediante il cambiamento di coordinatedeterminato da P, quindi calcolare etD, e infine ritornare alle coordinate originali, facendo usodella (3.11).
Osservazione 3.5 Se A e reale ma possiede autovalori complessi, allora P e D avranno elementicomplessi cos come etD; tuttavia, si ricordi che, per costruzione, gli elementi di etA devono esserereali.
Si noti che (t) = P etD e una matrice fondamentale, per calcolare la quale non e richiestalinversione di P; tuttavia, in generale gli elementi di P etD non sono reali, neanche se A e reale.
In definitiva, per determinare esplicitamente gli elementi che formano la matrice etA e quindilintegrale generale della (3.1) nel caso diagonalizzabile e sufficiente conoscere gli autovalori di A ei relativi autovettori.
Esempio 3.1 Consideriamo il sistema x1=x2x2= x1
definito dalla matrice
A=
0 11 0
.
Gli autovalori di A sono +i , con autovettore
i1
, ei , con autovettore
i1
. Due soluzioni
(complesse) linearmente indipendenti sono
1(t) =ei t
i1
=
sin tcos t
+ i
cos tsin t
e 2(t) =e
i ti
1
=
sin tcos t
i
cos tsin t
.
Come si vede, esse sono coniugate. Prendendo parte reale e parte complessa si ottengono duesoluzioni reali linearmente indipendenti
1(t) =
sin tcos t
e 2(t) =
cos tsin t
.
Alternativamente, possiamo applicare il procedimento di diagonalizzazione sopra descritto. Atal fine, dobbiamo calcolare linversa della matrice
P = i i1 1
che e data da
P1 = 12i
1 i1 i
.
Si calcola facilmente
D= P1AP =
i 00 i
,
-
7/21/2019 Teoria Dei Controlli
37/190
37
e
etD =
ei t 00 ei t
.
Infine,
etA =P etDP1 =
cos t sin tsin t cos t
.
In questo caso, la matrice esponenziale si sarebbe potuta calcolare anche direttamente sullabase della definizione stessa: si verifica infatti senza difficolta che A4 =I2.
3.8 Forma di Jordan
In questa sezione, se A e una qualunque matrice n n, indicheremo con 1, . . . , k (1 k n)i suoi autovalori distinti. Per ogni autovalore i di A, con i e i indicheremo rispettivamente lamolteplicita algebrica e quella geometrica di i (1ii). Scriveremo inoltre i= i+ i i.
Se A possiede autovalori con molteplicita algebrica maggiore di uno e con molteplicita geome-trica diversa dalla molteplicita algebrica, alloraA non e diagonalizzabile. In altre parole, il numerodi autovettori linearmente indipendenti e insufficiente a formare una base dello spazio. Per aggirarelostacolo, bisogna ricorrere agli autovettori generalizzati. Vale il seguente teorema.
Teorema 3.1 Ogni matrice A di dimensioni nn e simile ad una matrice diagonale a blocchidella forma
J= C1,1 0 . . . 0
0 C1,2 . . . 0
... ... ...0 0 . . . C k,k
dove i blocchiCi,j sono a loro volta matrici quadrate della forma
Ci,j =
i 1 0 . . . 00 i 1 . . . 0...
... ...
......
... ... . . . 1
0 0 0 . . . i
.
In ogni blocco compare solo un autovalore, ma lo stesso autovalore puo comparire in piu blocchi.Piu precisamente, per ogni autovaloreivi sono esattamentei blocchi, ciascuno dei quali associatoad un autovettore in senso stretto. La dimensione del blocco generico Ci,j e uguale alla lunghezzadella catena degli autovettori generalizzati originata dalj-esimo autovettore associato allautovalorei. Il numero di volte chei compare sulla diagonale principale diJ e uguale ai.
La matriceJsi chiamaforma di Jordandi A. Dal nostro punto di vista, e importante osservareche ogni blocco diJ e della forma iI+ T, doveI e la matrice identica (di dimensione appropriata),e T e nilpotente del tipo (3.7). Questo significa, tenendo anche conto di quanto osservato nella
-
7/21/2019 Teoria Dei Controlli
38/190
38
Sezione 3.5, che la strategia illustrata nel caso di una matrice diagonalizzabile pu o essere estesaalla situazione presente: si trasforma il sistema dato (3.1) nel sistema
y = J y (3.12)
mediante un opportuno cambiamento di coordinate, si trovano le soluzioni di (3.12) direttamente,oppure calcolando etJ, e quindi si torna alle coordinate originali. Resta solo il problema di iden-tificare la matrice P che determina la similitudine tra A e J. A tal fine, come gia accennato, sideve determinare per ogni autovalore i, un numero di autovettori e di autovettori generalizzatilinearmente indipendenti pari ai. Tali vettori devono essere ordinati in modo da rispettare sia lor-dine di indicizzazione degli autovalori sia, per ogni autovalore e ogni autovettore a questo relativo,lordine con cui gli autovettori generalizzati appartenenti alla stessa catena vengono generati.
1
v1,1,0
autovettorev1,1,1 . . .
prima catena
v1,2,0
autovettorev1,2,1 . . .
seconda catena
v1,3,0
autovettorev1,3,1 . . .
terza catena
. . .
2
v2,1,0
autovettorev2,1,1 . . .
prima catena
. . . . . .
Linsieme di tutti questi vettori costituisce una base dello spazio, che prende sempre il nome di
base propria. La colonne della matrice P si costruiscono mettendo uno accanto allaltro i vettoridella base propria; con riferimento allo schema precedente,
P = [v1,1,0 v1,1,1 . . . v1,2,0 v1,2,1 . . . v1,3,0 v1,3,1 . . . v2,1,0 v2,1,1 . . .] .
Se si permutano gli indici degli autovalori oppure, per ogni autovalore, lordine degli autovettori(fermo restando, per ogni autovettore, lordine di generazione di eventuali autovettori generalizzati),si ottiene unaltra base propria e unaltra forma di Jordan. In questo senso la forma di Jordan non
e unica.Una volta costruita una base propria, a condizione di rispettare gli ordini dei vari tipi di indice
come sopra indicato, la forma di Jordan e automaticamente determinata, e quindi non ce in realtanessun bisogno di effetture materialmente il cambiamento di coordinate. Per risalire a etA (nellecoordinate originali), e tuttavia indispensabile calcolare P1. Anche in questo caso, il calcolo diP1 puo essere risparmiato se ci si accontenta della matrice fondamentale (in generale complessa)P etJ.
Ricordando in particolare la (3.9), e la procedura illustrata nella Sezione 3.1(Fatto 7), possiamoriassumere le conclusioni a cui siamo giunti nella proposizione seguente.
Proposizione 3.2 Lelemento generico r,s(t)della matriceetA (r, s= 1, . . . , n)si presenta nella
forma
r,s(t) =k
i=1
(r,s)i(t)eit
dove ogni termine(r,s)i(t) e un polinomio (a coefficienti complessi, in generale) di grado inferiorealla molteplicita algebrica dii, ei e un autovalore diA (i= 1, . . . , k).
SeA e una matrice reale, lelemento genericor,s(t) della matriceetA puo essere messo nella
forma
-
7/21/2019 Teoria Dei Controlli
39/190
39
r,s(t) =k
i=1
eit [(pr,s)i(t)cos it + (qr,s)i(t)sin it] (3.13)
dove (pr,s)i e (qr,s)i sono polinomi a coefficienti reali di grado inferiore alla molteplicit a algebrica
dii (nella formula precedente sono naturalmente compresi gli autovalori reali, per i qualii= 0).
3.9 Stima asintotica delle soluzioni
Come applicazione delle conclusioni a cui siamo giunti sulla struttura di etA, vogliamo ora dare unastima asintotica delle soluzioni della (3.1) (per t+), che ci sara molto utile nel seguito.
Lemma 3.1 Per ogni >0 e ogni intero mN esiste una costantek >0 tale chetm < ket, perognit0.
DimostrazionePer induzione. Sem = 1 si prende k = 1
. Infatti posto
f(t) = et
t
si ha, f(0) = 1
e f(t) =et 1> 0 per t >0. Supponiamo che il risultato valga per m 1, con k= k. Lafunzione
f(t) =ket tm
e tale che
f(0) =k e f(t) =ket mtm1 =m
k
met tm1
>0
per t >0, a patto di scegliere k=
mk
.
Sia 0 il massimo delle parti reali i degli autovalori i della matrice A (i= 1, . . . , k) e sia un numero reale piu grande di 0:
> 0i per ogni (i= 1, . . . , k) .Poiche| sin it| 1 e| cos it| 1 per ogni i = 1, . . . , k, partendo dalla (3.13) e facendo
ripetutamente uso della disuguaglianza triangolare si ha, per t0,
|r,s(t)
|
k
i=1 eit (
|(pr,s)i(t)
|+
|(qr,s)i(t)
|)
k
i=1(Qr,s)i(t)eit
dove (Qr,s)i e un polinomio i cui coefficienti sono numeri positivi (o nulli), che si ottengono mag-giorando i valori assoluti dei coefficienti dei polinomi (pr,s)i(t) e (qr,s)i(t). Anche se non e essenzialeper quanto segue, osserviamo che il grado di (Qr,s)i e inferiore alla molteplicita algebrica di i.
Sia 0< < 0. Per il Lemma 3.1, vi sono costanti kr,stali che |r,s(t)| kr,se(0+)t kr,setper tutti i t0. DunqueetA=
r,s
2r,s(t)
r,s k
2r,se
t e, in definitiva,
etA k0et t0
-
7/21/2019 Teoria Dei Controlli
40/190
40
dovek0 e una nuova costante. Si noti che se tutti gli autovalori con parte reale esattamente ugualea 0 hanno la molteplicita algebrica coincidente con quella geometrica, allora la precedente disu-guaglianza vale con 0 al posto di . Infatti, se i e un autovalore tale che i = Re i = 0, icorrispondenti polinomi (pr,s)i(t) e (qr,s)i(t) si riducono a costanti. Dunque il termine (Qr,s)i(t)e
it
puo essere maggiorato direttamente, a meno di unopportuna costante, con e0t, senza bisogno di
utilizzare il Lemma 1. Per quegli autovalori i per cui i = Re i < 0, si puo ricorrere al Lem-ma 1 con = 0i. I corrispondenti termini (Qr,s)i(t)eit potranno quindi essere maggiorati,sempre a meno di una costante, coneitet =e0t. Riassumiamo queste conclusioni nella seguenteproposizione.
Proposizione 3.3 SiaA una matrice a coefficienti reali. Per ogni > 0, esistek0> 0 tale che
etA k0et t0 . (3.14)Se tutti gli autovalori diA con parte reale uguale ad0 hanno la molteplicita algebrica coinci-
dente con la molteplicita geometrica, allora nella (3.14) si puo prendere= 0.
Dalla (3.14) segue
etAc k0cet , t0 (3.15)per ogni vettore c di costanti arbitrarie.
3.10 Equazioni scalari di ordine n > 1
Lequazione differenziale scalare
y(n) + a1y(n1) + . . . + an1y
+ any= 0 (3.16)
puo essere trattata come caso particolare della (3.1). Posto infatti
y= x1, y =x2, . . . , y
(n1) =xn
si ha
x1 = y =x2
x2 = y =x3
............
xn = y(n) =a1xn . . . anx1
e, in forma vettoriale,
x= C x (3.17)
dove si e posto x = (x1, . . . , xn)t, e
-
7/21/2019 Teoria Dei Controlli
41/190
41
C=
0 1 0 . . . 00 0 1 . . . 0...
... ...
...0 0 0 . . . 1
an an1 . . . . . . a1
. (3.18)
Persoluzionedella (3.16) si intende, naturalmente, una funzioney(t) :RRdotata di almenon derivate continue e soddisfacente la (3.16) identicamene per tR. Non e difficile rendersi contocome il problema di determinare lintegrale generale (cioe linsieme di tutte le soluzioni) della(3.16) sia equivalente a quello di trovare lintegrale generale del sistema (3.17), e si riduca alladeterminazione di n soluzioni linearmente indipendenti della (3.16).
Matrici che si presentano con la struttura (3.18) si chiamano matrici compagne (companion).Cos come la forma di Jordan, anchesse consentono di visualizzare immediatamente un importanteoggetto invariante. Si verifica infatti facilmente per induzione che se C e una matrice compagnacome in (3.18) allora il suo polinomio caratteristico e
pc() = (1)n
n + a1n1 + . . . + an
.
Data una qualunque matrice A, e individuati i coefficienti a1, . . . , an del suo polinomio caratte-ristico, possiamo associare ad A una matrice Cin forma compagna, in modo cheA e Cabbiano lostesso polinomio caratteristico, e quindi gli stessi autovalori con le stesse molteplicit a algebriche.
In generale, non e pero detto che A e C siano simili. Per esempio, la matrice identita ha
polinomio caratteristicopc() =n
i=0
(1)i
n
i
i ma non e simile alla matrice compagna associata:
la matrice identita e simile solo a se stessa.
La forma compagna dunque non e una forma canonica rispetto alla relazione di similitudine. In
altre parole, non tutti i sistemi di equazioni in Rn
equivalgono ad una equazione scalare di ordinen.
Ha interesse in se, ma anche in vista di applicazioni future, dare delle condizioni affinche unadata matrice A e la matrice C in forma compagna associata adA siano simili.
Teorema 3.2 SiaA una matrice quadratan n. Le proprieta seguenti sono equivalenti:
(i) A e simile ad una matrice compagna;
(ii) rank (A I) =n 1 per ogni autovalore diA;
(iii) la molteplicita geometrica di ogni autovalore diA e uguale a1;
(iv) il polinomio caratteristico diA coincide col suo polinomio minimo;
(v) esiste un vettorev= 0 tale che glin vettori
v,Av,A2v , . . . , An1v
sono linearmente indipendenti.
-
7/21/2019 Teoria Dei Controlli
42/190
42
La dimostrazione completa del Teorema 3.2 si trova per esempio in LaSalle J., The stability andcontrol of discrete process, Spinger Verlag, 1986. Si presti principalmente attenzione allequivalenzatra(i)e(v), di cui avremo bisogno nel seguito e di cui presentiamo una dimostrazione nella prossimasezione. Un vettorev con la proprieta enunciata al punto (v) viene detto unvettore ciclico per A.
La proprieta (iii) del Teorema 3.2 implica in particolare che per ogni autovalore di Mvi e un
unico autovettore in senso proprio e quindi ununica catena di eventuali autovettori generalizzati.Ne segue allora che lintegrale generale dellequazione (3.16) si ottiene come combinazione linearedelle n funzioni
e1t, te1t, . . . , ti1e1t
......................
ekt, tekt, . . . , tk1ekt
essendo1, . . . , k le radici distinte dellequazione
n + a1n1 + . . . + an= 0 (3.19)
e1, . . . , k le loro molteplicita algebriche. Si noti che il primo membro della (3.19) coincide, a menodel segno, col polinomio caratteristicopc() della matrice in forma compagna associata alla (3.16).Per questa ragione, la (3.19) e chiamata lequazione caratteristicadella (3.16). Essa si puo scriveredirettamente, senza bisogno di trasformare lequazione (3.16) nel sistema equivalente, sostituendoformalmente a y ed interpretando gli ordini di derivazione come potenze.
Esempio 3.2 Consideriamo un po piu in dettaglio il caso dellequazione lineare di ordine 2
y+ ay+ by= 0 . (3.20)
Distinguiamo le varie forme che puo prendere lintegrale generaley(t), a seconda che lequazionecaratteristica
2 + a + b= 0 (3.21)
abbia soluzioni reali distinte o coincidenti, ovvero soluzioni complesse non reali. Si ha:
y(t) =c1e1t + c2e
2t (3.22)
se la (3.21) ha due soluzioni reali distinte 1, 2;
y(t) = (c1+ tc2)et (3.23)
se la (3.21) ha due soluzioni reali coincidenti 1= 2= ;
y(t) = (c1cos t + c2sin t)et (3.24)
se la (3.21) ha radici complesse coniugate3 i .3La (3.24) si puo ottenere applicando le formule (3.2). In alternativa, un modo semplice e diretto per ottenere la
(3.24) consiste nel partire dalla forma
k1et +k2e
t
-
7/21/2019 Teoria Dei Controlli
43/190
43
0 2 4 6 8 10 12 14 16 18 202
1.5
1
0.5
0
0.5
1
1.5
2
Figura 3.1: Smorzamento nel caso di autovalori reali.
0 2 4 6 8 10 12 14 16 18 201.5
1
0.5
0
0.5
1
1.5
2
Figura 3.2: Smorzamento nel caso di autovalori complessi.
Il comportamento delle soluzioni per t0 dipende dal segno di 1 e 2 [rispettivamente, e] nel caso (3.22) [rispettivamente, nei casi (3.23) e (3.24)].
Per esempio, se 1, 2 < 0 [rispettivamente, < 0, < 0] lenergia iniziale posseduta dalsistema (e quantificata per mezzo delle condizioni iniziali) viene dissipata:
con andamento monotono nei casi (3.22) e (3.23), dopo eventuali picchi iniziali la cuipresenza dipende d