Controllo non lineare

Il Controllo non lineare è un'area dell'ingegneria del controllo che tratta sistemi non lineari, sistemi tempo varianti o sistemi con entrambe le caratteristiche. Tecniche di analisi e controllo per sistemi lineari tempo invarianti (LTI) sono ben conosciute e studiate (luogo delle radici, diagramma di Bode, criterio di Nyquist, controllo in retroazione per sistemi LTI, posizionamento dei poli); tuttavia, il sistema o il controllore potrebbero non essere in generale sistemi LTI e quindi potrebbe non essere possibile l'applicazione diretta di queste metodologie. Il controllo non lineare studia innanzitutto il modo per applicare questa ampia gamma di tecniche a questi modelli più generali. Inoltre, studia anche una serie di nuove tecniche pensate appositamente per i sistemi non lineari. Anche quando un buon modello lineare di un sistema è disponibile potrebbe essere comunque preferibile utilizzare controllori non lineari, che a scapito di una maggiore complessità e rigorosità matematica, offrono notevoli vantaggi quali una maggiore velocità, un minor costo di controllo (nell'ottica della minimizzazione di una funzione di costo dipendente dal controllore) ecc.

Proprietà dei sistemi non lineari

Alcune proprietà dei sistemi non lineari sono le seguenti:

  • Non seguono il principio di sovrapposizione (ovvero non sono lineari ed omogenei).
  • Potrebbero presentare più punti di equilibrio isolati.
  • Potrebbero essere presenti cicli limite, biforcazioni e comportamenti caotici che portano alla presenza di attrattori strani.
  • Tempo di fuga finito: le soluzioni di un sistema non lineare potrebbero non essere definite su tutti i tempi.

Analisi e controllo di sistemi non lineari

Le tecniche più utilizzate per l'analisi e il controllo di sistemi non lineari sono le seguenti:

  • Funzione descrittrice (metodo)
  • Ritratto di fase
  • Stabilità secondo Lyapunov (analisi)
  • Perturbazione singolare (metodo)
  • Criterio di Popov (descritto sotto nel problema di Lur'e)
  • Teorema della varietà centrale
  • Teorema del piccolo guadagno
  • Analisi della passività

Esistono anche una serie di tecniche per la progettazione di controllori per sistemi non lineari. Queste possono essere divise in tecniche che trattano il sistema come lineare in un certo intorno (grazie al teorema di Teorema di Hartman-Grobman) e utilizzano metodi di progettazioni lineari come il Gain scheduling; in tecniche che sfruttano un feedback non lineare per eliminare le non linearità del sistema così da lavorare con un sistema a ciclo chiuso lineare (Feedback linearization); e in tecniche basate sulla stabilità secondo Lyapunov: Lyapunov redesign, Nonlinear damping, Backstepping, Controllo sliding mode.

Esempio: il problema di Lur'e

Lur'e problem block diagram

Un semplice problema di analisi di un sistema non lineare in retroazione è stato formulato da A. I. Lur'e. Il sistema descritto nel problema di Lur'e consiste di un sottosistema lineare tempo invariante sul ramo di reazione e da un sistema non lineare, possibilmente tempo variante e a perdita di memoria sul ramo di retroazione.

La parte lineare può essere caratterizzata da quattro matrici (A,B,C,D), mentre la parte non lineare è Φ(y) con Φ ( y ) y [ a , b ] , a < b y {\displaystyle {\frac {\Phi (y)}{y}}\in [a,b],\quad a<b\quad \forall y}

Analisi della stabilità

Si considerino le seguenti ipotesi:

  1. (A,B) è controllabile e (C,A) è osservabile
  2. due numeri reali a, b con a<b, che definiscono un settore per la funzione Φ

Il problema consiste nel derivare le condizioni che, coinvolgendo solo la funzione di trasferimento H(s) e {a,b}, rendano x=0 un punto di equilibrio globalmente asintoticamente stabile per il sistema.

Vi sono due principali teoremi che riguardano questo problema:

  • Il criterio del cerchio
  • Il criterio di Popov

Sarà analizzato il caso del criterio di Popov.

Criterio di Popov

La sottoclasse del sistema di Lur'e studiata da Popov è descritta dal seguente sistema:

x ˙ = A x + b u ξ ˙ = u y = c x + d ξ ( 1 ) {\displaystyle {\begin{matrix}{\dot {x}}&=&Ax+bu\\{\dot {\xi }}&=&u\\y&=&cx+d\xi \quad (1)\end{matrix}}}

u = ϕ ( y ) ( 2 ) {\displaystyle {\begin{matrix}u=-\phi (y)\quad (2)\end{matrix}}}

dove x ∈ Rn, ξ,u,y sono scalari e A,b,c,d hanno le giuste dimensioni. L'elemento non lineare Φ: R → R è una non linearità tempo invariante appartenente all'insieme aperto (0, ∞). Questo implica che:

Φ(0) = 0, y Φ(y) > 0, ∀ y ≠ 0;

La funzione di trasferimento da u a y è data da

H ( s ) = d s + c ( s I A ) 1 b {\displaystyle H(s)={\frac {d}{s}}+c(sI-A)^{-1}b\quad \quad }

Teorema: Considerando il sistema (1)-(2) e supponendo che:

  1. A sia di Hurwitz
  2. (A,b) è controllabile
  3. (A,c) è osservabile
  4. d>0 e Φ ∈ (0,∞)

Allora il sistema è globalmente asintoticamente stabile se esiste uno scalare r>0 tale che
infω ∈ R Re[(1+jωr)h(jω)] > 0 .

Si noti che:

  • Il criterio di Popov è applicabile solo a sistemi autonomi
  • Il sistema studiato da Popov ha un polo nell'origine e non c'è un legame ingresso uscita diretto
  • La non linearità Φ deve soddisfare la condizione sull'insieme aperto

Risultati teorici per il controllo non lineare

Teorema di Frobenius

Il teorema di Frobenius è un risultato della geometria differenziale. Quando applicato al controllo non lineare ha la seguente forma:

Dato un sistema del tipo:

x ˙ = i = 1 k f i ( x ) u i ( t ) {\displaystyle {\dot {x}}=\sum _{i=1}^{k}f_{i}(x)u_{i}(t)\,}

dove x R n {\displaystyle x\in R^{n}} , f 1 , , f k {\displaystyle f_{1},\dots ,f_{k}} sono vettori di campo appartenenti a una distribuzione Δ {\displaystyle \Delta } e u i ( t ) {\displaystyle u_{i}(t)} sono funzioni di controllo, le curve integrali di x {\displaystyle x} sono ristrette ad una varietà di ordine m {\displaystyle m} se lo span( Δ ) = m {\displaystyle \Delta )=m} e Δ {\displaystyle \Delta } è una distribuzione involutiva.

Bibliografia

  • A. I. Lur'e and V. N. Postnikov, "On the theory of stability of control systems," Applied mathematics and mechanics, 8(3), 1944, (in Russian).
  • M. Vidyasagar, Nonlinear Systems Analysis, 2nd edition, Prentice Hall, Englewood Cliffs, New Jersey 07632.
  • A. Isidori, Nonlinear Control Systems, 3rd edition, Springer Verlag, London, 1995.
  • H. K. Khalil, Nonlinear Systems, 3rd edition, Prentice Hall, Upper Saddle River, New Jersey, 2002. ISBN 0-13-067389-7
  • B. Brogliato, R. Lozano, B. Maschke, O. Egeland, "Dissipative Systems Analysis and Control", Springer Verlag, London, 2nd edition, 2007.

Voci correlate

  Portale Controlli automatici
  Portale Ingegneria