Sistema dinamico lineare stazionario discreto

In teoria dei sistemi, un sistema dinamico lineare stazionario discreto o sistema dinamico lineare stazionario a tempo discreto, spesso abbreviato in sistema LTI discreto, è un sistema dinamico lineare stazionario che ha in ingresso un segnale a tempo discreto.

Descrizione

Un sistema dinamico stazionario discreto è un sistema discreto i cui parametri non dipendono dal tempo:

x ( n + 1 ) = f ( x 0 , n 0 , u ( n ) ) {\displaystyle x(n+1)=f(x_{0},n_{0},u(n))}
y ( n ) = h ( x 0 , n 0 , u ( n ) ) {\displaystyle y(n)=h(x_{0},n_{0},u(n))}

dove x ( n ) {\displaystyle x(n)} sono le variabili di stato al tempo n {\displaystyle n} , x 0 {\displaystyle x_{0}} le variabili di stato al tempo n = 0 {\displaystyle n=0} , u ( n ) {\displaystyle u(n)} e y ( n ) {\displaystyle y(n)} le variabili di ingresso e uscita al tempo n {\displaystyle n} .

Un sistema è lineare quando dipende linearmente dalle variabili di stato e dalle variabili di ingresso, ed in tal caso si può escrivere in forma matriciale

x ( n + 1 ) = A ( n ) x ( n ) + B ( n ) u ( n ) {\displaystyle x(n+1)=A(n)x(n)+B(n)u(n)}
y ( n ) = C ( n ) x ( n ) + D ( n ) u ( n ) {\displaystyle y(n)=C(n)x(n)+D(n)u(n)}

dove A {\displaystyle A} , B {\displaystyle B} , C {\displaystyle C} e D {\displaystyle D} sono matrici di dimensioni opportune che premoltiplicano x ( n ) {\displaystyle x(n)} e u ( n ) {\displaystyle u(n)} .

Un processo lineare stazionario (LTI) è quindi descritto da equazioni matriciali:

{ x ( n + 1 ) = A x ( n ) + B u ( n ) y ( n ) = C x ( n ) + D u ( n ) {\displaystyle \left\{{\begin{array}{c}x(n+1)=Ax(n)+Bu(n)\\y(n)=Cx(n)+Du(n)\end{array}}\right.}

dove le matrici sono costanti.

Funzione di trasferimento

Un sistema a tempo discreto trasforma la successione in ingresso { x } {\displaystyle \{x\}} in un'altra successione { y } {\displaystyle \{y\}} , data dalla convoluzione discreta con la risposta h {\displaystyle h} alla delta di Kronecker:

y [ n ] = k = x [ k ] h [ n k ] = k = x [ n k ] h [ k ] {\displaystyle y[n]=\sum _{k=-\infty }^{\infty }x[k]\cdot h[n-k]=\sum _{k=-\infty }^{\infty }x[n-k]\cdot h[k]}

Gli elementi di { y } {\displaystyle \{y\}} possono dipendere da ogni elemento di { x } {\displaystyle \{x\}} . Solitamente y [ n ] {\displaystyle y[n]} dipende maggiormente dagli elementi in prossimità del tempo n {\displaystyle n} .

La maggior parte dei segnali a tempo discreto sono ottenuti da un segnale a tempo continuo considerandone il valore assunto in precisi istanti di tempo, solitamente separati da un intervallo temporale fisso T {\displaystyle T} . La procedura che permette di ottenere un segnale discreto a partire da uno continuo è detta campionamento, ed è alla base della conversione analogico-digitale (ADC). Essa trasforma una funzione continua x ( t ) {\displaystyle x(t)} nel segnale discreto:

x [ n ]   = def   x ( n T ) n Z {\displaystyle x[n]\ {\stackrel {\text{def}}{=}}\ x(nT)\qquad \forall \,n\in \mathbb {Z} }

con 1 / T {\displaystyle 1/T} la frequenza di campionamento. Il teorema del campionamento pone un limite alla massima frequenza del segnale continuo, che non può essere superiore ad 1 / ( 2 T ) {\displaystyle 1/(2T)} se si vuole evitare perdita di informazione (fenomeno di aliasing).

Come nel caso di sistemi a tempo continuo, se O {\displaystyle O} è l'operatore di trasformazione al tempo n:

y [ n ]   = def   O n { x } {\displaystyle y[n]\ {\stackrel {\text{def}}{=}}\ O_{n}\{x\}}

la successione:

h [ n ]   = def   O n { δ [ m ] } {\displaystyle h[n]\ {\stackrel {\text{def}}{=}}\ O_{n}\{\delta [m]\}}

caratterizza completamente il sistema. Per mostrare questo, dato che vale l'identità:

x [ m ] k = x [ k ] δ [ m k ] {\displaystyle x[m]\equiv \sum _{k=-\infty }^{\infty }x[k]\cdot \delta [m-k]}

si ha:

y [ n ] = O n { x } = O n { k = x [ k ] δ [ m k ] } = k = x [ k ] O n { δ [ m k ] } = k = x [ k ] O n k { δ [ m ] } = k = x [ k ] h [ n k ] {\displaystyle y[n]=O_{n}\{x\}=O_{n}\left\{\sum _{k=-\infty }^{\infty }x[k]\cdot \delta [m-k]\right\}=\sum _{k=-\infty }^{\infty }x[k]\cdot O_{n}\{\delta [m-k]\}=\sum _{k=-\infty }^{\infty }x[k]\cdot O_{n-k}\{\delta [m]\}=\sum _{k=-\infty }^{\infty }x[k]\cdot h[n-k]}

L'operatore O n {\displaystyle O_{n}} restituisce un'uscita proporzionale alla media pesata di x [ k ] {\displaystyle x[k]} con funzione peso data da h [ k ] {\displaystyle h[-k]} . Se h [ k ] = 0 {\displaystyle h[k]=0} per valori di k {\displaystyle k} negativi il sistema è causale.

Autofunzioni

Gli esponenziali del tipo z n = e s T n {\displaystyle z^{n}=e^{sTn}} , con n Z {\displaystyle n\in \mathbb {Z} } , sono autofunzioni di un operatore lineare tempo-invariante. Infatti, detto T R {\displaystyle T\in \mathbb {R} } il periodo di campionamento e z = e s T {\displaystyle z=e^{sT}} , con z , s C {\displaystyle z,s\in \mathbb {C} } , si supponga x [ n ] = z n {\displaystyle x[n]=\,\!z^{n}} l'ingresso del sistema. Se h [ n ] {\displaystyle h[n]} è la risposta impulsiva, si ha:

y [ n ] = m = h [ n m ] z m = m = h [ m ] z ( n m ) = z n m = h [ m ] z m = z n H ( z ) {\displaystyle y[n]=\sum _{m=-\infty }^{\infty }h[n-m]\,z^{m}=\sum _{m=-\infty }^{\infty }h[m]\,z^{(n-m)}=z^{n}\sum _{m=-\infty }^{\infty }h[m]\,z^{-m}=z^{n}H(z)}

La funzione:

H ( z )   = def   m = h [ m ] z m {\displaystyle H(z)\ {\stackrel {\text{def}}{=}}\ \sum _{m=-\infty }^{\infty }h[m]z^{-m}}

dipende solo dal parametro z, ed è l'autovalore associato all'autovettore (autofunzione) z n {\displaystyle z^{n}} del sistema LTI.

La trasformata zeta:

H ( z ) = Z { h [ n ] } = n = h [ n ] z n {\displaystyle H(z)={\mathcal {Z}}\{h[n]\}=\sum _{n=-\infty }^{\infty }h[n]z^{-n}}

è la funzione di trasferimento del sistema. Di particolare interesse è il caso in cui le autofunzioni siano sinusoidi pure e j ω n {\displaystyle e^{j\omega n}} , con ω R {\displaystyle \omega \in \mathbb {R} } , che possono essere scritte come z n {\displaystyle z^{n}} , dove z = e j ω {\displaystyle z=e^{j\omega }} . Per funzioni di questo tipo la funzione di trasferimento è data dalla trasformata di Fourier a tempo discreto:

H ( e j ω ) = F { h [ n ] } {\displaystyle H(e^{j\omega })={\mathcal {F}}\{h[n]\}}

Grazie alle proprietà della convoluzione, nel dominio della trasformata si ottiene una moltiplicazione:

y [ n ] = ( h x ) [ n ] = m = h [ n m ] x [ m ] = Z 1 { H ( z ) X ( z ) } {\displaystyle y[n]=(h*x)[n]=\sum _{m=-\infty }^{\infty }h[n-m]x[m]={\mathcal {Z}}^{-1}\{H(z)X(z)\}}

Soluzione dell'equazione matriciale

Si vuole risolvere l'equazione:

{ x ( n + 1 ) = A x ( n ) + B u ( n ) y ( n ) = C x ( n ) + D u ( n ) {\displaystyle \left\{{\begin{array}{c}x(n+1)=Ax(n)+Bu(n)\\y(n)=Cx(n)+Du(n)\end{array}}\right.}

Si deve valutare per n = 0 , 1 , 2 , {\displaystyle n=0,1,2,\dots } e pertanto si ha:

x ( 1 ) = A x ( 0 ) + B u ( 0 )   {\displaystyle x(1)=Ax(0)+Bu(0)\ }
x ( 2 ) = A x ( 1 ) + B u ( 1 ) = A 2 x ( 0 ) + A B u ( 0 ) + B u ( 1 )   {\displaystyle x(2)=Ax(1)+Bu(1)=A^{2}x(0)+ABu(0)+Bu(1)\ }
x ( 3 ) = A x ( 2 ) + B u ( 2 ) = A 3 x ( 0 ) + A 2 B u ( 0 ) + A B u ( 1 ) + B u ( 2 )   {\displaystyle x(3)=Ax(2)+Bu(2)=A^{3}x(0)+A^{2}Bu(0)+ABu(1)+Bu(2)\ }
x ( n ) = A n x ( 0 ) + A n 1 B u ( 0 ) + A n 2 B u ( 1 ) + . . . + B u ( n 1 )   {\displaystyle x(n)=A^{n}x(0)+A^{n-1}Bu(0)+A^{n-2}Bu(1)+...+Bu(n-1)\ }

Si ottiene:

x ( n ) = A n x ( 0 ) + m = 0 n 1 A m B u ( n m 1 )   {\displaystyle x(n)=A^{n}x(0)+\sum _{m=0}^{n-1}A^{m}Bu(n-m-1)\ }

Posto l = n m 1 {\displaystyle l=n-m-1} si ha m = n l 1 {\displaystyle m=n-l-1} , e quindi la soluzione dell'equazione matriciale alle differenze è:

x ( n ) = A n x ( 0 ) + l = 0 n 1 A n l 1 B u ( l ) {\displaystyle x(n)=A^{n}x(0)+\sum _{l=0}^{n-1}A^{n-l-1}Bu(l)}

Occorre distinguere i seguenti casi:

  • A {\displaystyle A} ammette soltanto autovalori reali con molteplicità algebrica uguale alla molteplicità geometrica per ogni autovalore.
  • A {\displaystyle A} ammette soltanto autovalori complessi coniugati.
  • A {\displaystyle A} ammette sia autovalori reali che complessi coniugati.
  • A {\displaystyle A} non è diagonalizzabile.

Autovalori reali e molteplicità algebriche e geometriche coincidenti

In tal caso considerata la matrice P {\displaystyle P} , n per n, le cui colonne sono gli autovettori di A {\displaystyle A} linearmente indipendenti che generano ciascun autospazio relativo ad ogni autovalore si ottiene, dalla teoria della diagonalizzazione delle matrici:

P 1 A P = Λ   {\displaystyle P^{-1}AP=\Lambda \ }

dove Λ {\displaystyle \Lambda } è la matrice diagonale in cui sulla diagonale principale vi sono gli autovalori di A {\displaystyle A} ripetuti eventualmente ciascuno con la propria molteplicità. In particolare, se gli autovalori di A {\displaystyle A} sono reali e distinti sulla matrice diagonale Λ {\displaystyle \Lambda } vi saranno gli n autovalori distinti di A {\displaystyle A} . Essendo A = P Λ P 1 {\displaystyle A=P\Lambda P^{-1}} allora:

A n = ( P Λ P 1 ) ( P Λ P 1 ) . . . ( P Λ P 1 ) = P Λ n P 1   {\displaystyle A^{n}=(P\Lambda P^{-1})(P\Lambda P^{-1})...(P\Lambda P^{-1})=P\Lambda ^{n}P^{-1}\ }

pertanto, la soluzione dell'equazione matriciale alle differenzè è:

x ( n ) = P Λ n P 1 x ( 0 ) + l = 0 n 1 P Λ n l 1 P 1 B u ( l )   {\displaystyle x(n)=P\Lambda ^{n}P^{-1}x(0)+\sum _{l=0}^{n-1}P\Lambda ^{n-l-1}P^{-1}Bu(l)\ }

Si nota che la risposta libera nello stato ottenuta ponendo u ( t ) = 0 {\displaystyle u(t)=0} è:

x l ( n ) = P Λ n P 1 x ( 0 )   {\displaystyle x_{l}(n)=P\Lambda ^{n}P^{-1}x(0)\ }

mentre la risposta forzata nello stato, ottenuta ponendo x ( 0 ) = 0 {\displaystyle x(0)=0} , è:

x f ( n ) = l = 0 n 1 P Λ n l 1 P 1 B u ( l )   {\displaystyle x_{f}(n)=\sum _{l=0}^{n-1}P\Lambda ^{n-l-1}P^{-1}Bu(l)\ }

Inoltre la risposta libera nell'uscita per u ( l ) = 0 {\displaystyle u(l)=0} è:

y l ( n ) = C P Λ n P 1 x ( 0 )   {\displaystyle y_{l}(n)=CP\Lambda ^{n}P^{-1}x(0)\ }

mentre la risposta forzata nell'uscita' per x ( 0 ) = 0 {\displaystyle x(0)=0} è:

y f ( n ) = l = 0 n 1 C P Λ n l 1 P 1 B u ( l ) + D u ( n )   {\displaystyle y_{f}(n)=\sum _{l=0}^{n-1}CP\Lambda ^{n-l-1}P^{-1}Bu(l)+Du(n)\ }

Autovalori complessi coniugati

Volendo analizzare il caso in cui A {\displaystyle A} ammette soltanto autovalori complessi coniugati, supponiamo che A {\displaystyle A} sia una matrice 2 per 2 e siano α + j ω {\displaystyle \alpha +j\omega } ( j {\displaystyle j} è l'unità immaginaria), α j ω {\displaystyle \alpha -j\omega } i due autovalori complessi coniugati di A {\displaystyle A} , e siano u a + j u b {\displaystyle u_{a}+ju_{b}} , u a j u b {\displaystyle u_{a}-ju_{b}} i due autovettori complessi coniugati corrispondenti. Allora, applicando la definizione di autovalore e di autovettore si ha la seguente equazione algebrica:

( A ( α + j ω ) I ) ( ( u a + j u b ) = 0   {\displaystyle (A-(\alpha +j\omega )I)((u_{a}+ju_{b})=0\ }

dove I {\displaystyle I} è la matrice identica di dimensione 2, che si può scrivere separando parte reale e parte immaginaria nella forma:

( ( A α I ) u a + ω u b ) + j ( ( A α I ) u b + ω u a ) ) = 0   {\displaystyle ((A-\alpha I)u_{a}+\omega u_{b})+j((A-\alpha I)u_{b}+\omega u_{a}))=0\ }

Affinché l'equazione sia vera è necessario che parte reale e parte immaginaria si annullino entrambe pertanto si ha il sistema:

( A α I ) u a + ω u b = 0 ( A α I ) u b + ω u a = 0   {\displaystyle {\begin{array}{c}(A-\alpha I)u_{a}+\omega u_{b}=0\\(A-\alpha I)u_{b}+\omega u_{a}=0\end{array}}\ }

che può essere posto nella forma:

A ( u a u b ) = ( u a u b ) ( α ω ω α ) {\displaystyle A(u_{a}u_{b})=(u_{a}u_{b})\left({\begin{array}{cc}\alpha &\omega \\-\omega &\alpha \end{array}}\right)}

Pertanto se si pone T 1 {\displaystyle T^{-1}} uguale alla matrice le cui colonne sono la parte reale e immaginaria dei due autovettori complessi coniugati si ha che:

T A T 1 = ( α ω ω α ) {\displaystyle TAT^{-1}=\left({\begin{array}{cc}\alpha &\omega \\-\omega &\alpha \end{array}}\right)}

Rappresentando il numero complesso u a + j u b {\displaystyle u_{a}+ju_{b}} nel piano di Gauss se λ {\displaystyle \lambda } è il modulo e β {\displaystyle \beta } l'argomento si ha:

α = λ cos β {\displaystyle \alpha =\lambda \cos \beta } e ω = λ s e n β {\displaystyle \omega =\lambda \;\mathrm {sen} \,\beta }

pertanto:

A = T 1 λ ( cos β s e n β s e n β cos β ) T {\displaystyle A=T^{-1}\lambda \left({\begin{array}{cc}\cos \beta &\;\mathrm {sen} \,\beta \\-\;\mathrm {sen} \,\beta &\cos \beta \end{array}}\right)T}

Si dimostra per induzione che:

A n = T 1 λ n ( cos n β s e n n β s e n n β cos n β ) T {\displaystyle A^{n}=T^{-1}\lambda ^{n}\left({\begin{array}{cc}\cos n\beta &\;\mathrm {sen} \,n\beta \\-\;\mathrm {sen} \,n\beta &\cos n\beta \end{array}}\right)T}

Pertanto la soluzione dell'equazione matriciale alle differenze è:

x ( n ) = T 1 λ n ( cos n β s e n n β s e n n β cos n β ) T x ( 0 ) + l = 0 n 1 T 1 λ n ( cos ( n l 1 ) β s e n ( n l 1 ) β s e n ( n l 1 ) β cos ( n l 1 ) β ) T B u ( l ) {\displaystyle x(n)=T^{-1}\lambda ^{n}\left({\begin{array}{cc}\cos n\beta &\;\mathrm {sen} \,n\beta \\-\;\mathrm {sen} \,n\beta &\cos n\beta \end{array}}\right)Tx(0)+\sum _{l=0}^{n-1}T^{-1}\lambda ^{n}\left({\begin{array}{cc}\cos(n-l-1)\beta &\;\mathrm {sen} (n-l-1)\beta \\-\;\mathrm {sen} (n-l-1)\beta &\cos(n-l-1)\beta \end{array}}\right)TBu(l)}

Autovalori reali e autovalori complessi coniugati

Si supponga che la matrice A {\displaystyle A} di ordine n ammetta k {\displaystyle k} autovalori reali distinti λ 1 , λ 2 , . . . , λ k {\displaystyle \lambda _{1},\lambda _{2},...,\lambda _{k}} a cui corrispondono k {\displaystyle k} autovettori distinti v 1 , v 2 , . . . , v k {\displaystyle v_{1},v_{2},...,v_{k}} allora si hanno le seguenti equazioni:

A v 1 = λ 1 v 1 A v 2 = λ 2 v 2 . . . A v k = λ k v k {\displaystyle {\begin{array}{c}Av_{1}=\lambda _{1}v_{1}\\Av_{2}=\lambda _{2}v_{2}\\...\\Av_{k}=\lambda _{k}v_{k}\end{array}}}

Si supponga inoltre che la matrice A {\displaystyle A} ammetta p {\displaystyle p} coppie di autovalori complessi coniugati la cui p-esima coppia è: α p + j ω p {\displaystyle \alpha _{p}+j\omega _{p}} e α p j ω p {\displaystyle \alpha _{p}-j\omega _{p}} a cui corrisponde la coppia di autovettori complessi coniugati u a p + j u b p {\displaystyle u_{a_{p}}+ju_{b_{p}}} e u a p j u b p {\displaystyle u_{a_{p}}-ju_{b_{p}}} allora per quanto visto nel caso precedente per la p-esima coppia, se τ p {\displaystyle \tau _{p}} è il modulo dell'autovalore p-esimo e β {\displaystyle \beta } il suo argomento si ha:

A ( u a p u b p ) = ( u a p u b p ) τ p ( cos β p s e n β p s e n β p cos β p ) {\displaystyle A(u_{a_{p}}u_{b_{p}})=(u_{a_{p}}u_{b_{p}})\tau _{p}\left({\begin{array}{cc}\cos \beta _{p}&\;\mathrm {sen} \,\beta _{p}\\-\;\mathrm {sen} \,\beta _{p}&\cos \beta _{p}\end{array}}\right)}

Ora posto T 1 {\displaystyle T^{-1}} uguale alla matrice le cui colonne sono i k {\displaystyle k} autovettori corrispondenti agli autovalori reali e le parti reali e immaginarie delle p {\displaystyle p} coppie di autovettori complessi coniugati, cioè:

T 1 = ( v 1 , v 2 , . . . , v k , u a 1 , u b 1 , u a 2 , u b 2 , . . . , u a p , u b p ) {\displaystyle T^{-1}=(v_{1},v_{2},...,v_{k},u_{a_{1}},u_{b_{1}},u_{a_{2}},u_{b_{2}},...,u_{a_{p}},u_{b_{p}})}

allora dalle precedenti equazioni si ha la matrice diagonale a blocchi:

T A T 1 = diag ( λ 1 , λ 2 , . . . , λ k , τ p ( cos β 1 s e n β 1 s e n β 1 cos β 1 ) , . . . , τ p ( cos β p s e n β p s e n β p cos β p ) ) {\displaystyle TAT^{-1}={\mbox{diag}}\left(\lambda _{1},\lambda _{2},...,\lambda _{k},\tau _{p}\left({\begin{array}{cc}\cos \beta _{1}&\;\mathrm {sen} \,\beta _{1}\\-\;\mathrm {sen} \,\beta _{1}&\cos \beta _{1}\end{array}}\right),...,\tau _{p}\left({\begin{array}{cc}\cos \beta _{p}&\;\mathrm {sen} \,\beta _{p}\\-\;\mathrm {sen} \,\beta _{p}&\cos \beta _{p}\end{array}}\right)\right)}

pertanto:

x l ( t ) = T 1 diag ( λ 1 n , λ 2 n , . . . , λ k n , τ p n ( cos n β 1 s e n n β 1 s e n n β 1 cos n β 1 ) , . . . , τ p n ( cos n β p s e n n β p s e n n β p cos n β p ) ) T x ( 0 ) {\displaystyle x_{l}(t)=T^{-1}{\mbox{diag}}\left(\lambda _{1}^{n},\lambda _{2}^{n},...,\lambda _{k}^{n},\tau _{p}^{n}\left({\begin{array}{cc}\cos n\beta _{1}&\;\mathrm {sen} \,n\beta _{1}\\-\;\mathrm {sen} \,n\beta _{1}&\cos n\beta _{1}\end{array}}\right),...,\tau _{p}^{n}\left({\begin{array}{cc}\cos n\beta _{p}&\;\mathrm {sen} \,n\beta _{p}\\-\;\mathrm {sen} \,n\beta _{p}&\cos n\beta _{p}\end{array}}\right)\right)Tx(0)}

Bibliografia

  • E. Fornasini, G. Marchesini, Appunti di Teoria dei Sistemi, Edizioni Libreria Progetto, Padova, 2003.
  • A. Ruberti, S. Monaco, Teoria dei Sistemi - Appunti dalle lezioni, Pitagora Editrice, Bologna, 1998.
  • O.M. Grasselli, Proprietà strutturali dei sistemi lineari e stazionari, Pitagora Editrice, Bologna, 1978

Voci correlate

  Portale Controlli automatici
  Portale Matematica