Nonlinear Control Systems - Exam.pdf

Nonlinear Control Systems - Exam
Nonlinear Control Systems - Exam Aufgabe 1) Gegeben sei das nichtlineare dynamische System beschrieben durch die Differentialgleichungen \[\frac{dx_1}{dt} = -x_1 + x_2^2\] \[\frac{dx_2}{dt} = -x_2 - x_1^2\] Zur Analyse der Stabilität dieses Systems soll die Direktmethode von Lyapunov verwendet werden. Im Folgenden wird eine geeignete Lyapunov-Funktion vorgeschlagen und ihre Eigenschaften untersuch...

© StudySmarter 2024, all rights reserved.

Nonlinear Control Systems - Exam

Aufgabe 1)

Gegeben sei das nichtlineare dynamische System beschrieben durch die Differentialgleichungen

  • \[\frac{dx_1}{dt} = -x_1 + x_2^2\]
  • \[\frac{dx_2}{dt} = -x_2 - x_1^2\]
Zur Analyse der Stabilität dieses Systems soll die Direktmethode von Lyapunov verwendet werden. Im Folgenden wird eine geeignete Lyapunov-Funktion vorgeschlagen und ihre Eigenschaften untersucht.

b)

Berechne die Ableitung der Lyapunov-Funktion \[V(x_1, x_2) = x_1^2 + x_2^2\] entlang der Systemtrajektorien. Bestimme, ob \(\frac{dV}{dt}\) negativ definit ist.

Lösung:

Um die Ableitung der Lyapunov-Funktion \(V(x_1, x_2) = x_1^2 + x_2^2\) entlang der Systemtrajektorien zu berechnen und zu bestimmen, ob \(\frac{dV}{dt}\) negativ definit ist, müssen wir die folgenden Schritte durchführen:

  • Die totale Zeitableitung von \(V(x_1, x_2)\) berechnen.
  • Überprüfen, ob die Ableitung negativ definit ist.

1. Berechnung der totalen Zeitableitung von \(V(x_1, x_2)\):

Da \(V(x_1, x_2) = x_1^2 + x_2^2\), wenden wir die Kettenregel an, um die totale Zeitableitung zu berechnen:

  • \(\frac{dV}{dt} = \frac{\partial V}{\partial x_1}\frac{dx_1}{dt} + \frac{\partial V}{\partial x_2}\frac{dx_2}{dt}\)

Die partiellen Ableitungen von \(V(x_1, x_2)\) sind:

  • \(\frac{\partial V}{\partial x_1} = 2x_1\)
  • \(\frac{\partial V}{\partial x_2} = 2x_2\)

Setzen wir die gegebenen Differentialgleichungen ein:

  • \(\frac{dx_1}{dt} = -x_1 + x_2^2\)
  • \(\frac{dx_2}{dt} = -x_2 - x_1^2\)

Substituieren wir diese in die totale Zeitableitung:

  • \(\frac{dV}{dt} = 2x_1 \left( -x_1 + x_2^2 \right) + 2x_2 \left( -x_2 - x_1^2 \right)\)
  • \(= 2x_1(-x_1) + 2x_1(x_2^2) + 2x_2(-x_2) + 2x_2(-x_1^2)\)
  • \(= -2x_1^2 + 2x_1x_2^2 - 2x_2^2 - 2x_2x_1^2\)
  • \(= -2x_1^2 - 2x_2^2\)

Daraus ergibt sich:

  • \(\frac{dV}{dt} = -2x_1^2 - 2x_2^2\)

2. Überprüfung der Negativität der Zeitableitung:

Für \(\frac{dV}{dt}\) gilt:

  • \(\frac{dV}{dt} = -2x_1^2 - 2x_2^2 \)

Um zu beurteilen, ob \(\frac{dV}{dt}\) negativ definit ist, müssen wir untersuchen, ob \(\frac{dV}{dt} < 0\) für alle \( (x_1, x_2) e (0, 0) \). In unserem Fall ist:

  • \(\frac{dV}{dt}\) die Summe von \(-2x_1^2\) und \(-2x_2^2\), die beide immer negativ oder null sind.
  • \(-2x_1^2 - 2x_2^2\) ist also immer kleiner oder gleich null.
  • \(-2x_1^2 - 2x_2^2 = 0\) nur, wenn \(x_1 = 0\) und \(x_2 = 0\).

Somit ist \(\frac{dV}{dt}\) negativ definit, da es für alle \((x_1, x_2) e (0, 0)\) streng negativ ist.

Schlussfolgerung:

  • Die Zeitableitung \(\frac{dV}{dt} = -2x_1^2 - 2x_2^2\) ist negativ definit.

Dies zeigt, dass die Funktion \(V(x_1, x_2) = x_1^2 + x_2^2\) eine geeignete Lyapunov-Funktion für das gegebene System ist und die Stabilität des Systems sichert.

Aufgabe 2)

Betrachte das nichtlineare System gegeben durch die Gleichung \[\dot{x} = f(x, u)\], wobei \(x\) der Zustandsvektor und \(u\) der Eingangsvektor sind. Angenommen, wir haben einen Arbeitspunkt \((x_0, u_0)\) mit \(f(x_0, u_0) = 0\). Um die Dynamik des Systems in der Nähe dieses Arbeitspunktes zu analysieren, können wir das System linearisiert darstellen.

a)

a) Bestimme die linearisierte Form des Systems um den Arbeitspunkt \((x_0, u_0)\). Zeige dabei explizit, wie die Jacobian-Matrizen \(A\) und \(B\) berechnet werden. Nutze die allgemeinen Definitionen für die Jacobian-Matrizen:

  • \[A = \frac{\partial f}{\partial x} \bigg|_{(x_0, u_0)}\]
  • \[B = \frac{\partial f}{\partial u} \bigg|_{(x_0, u_0)}\]

Lösung:

Um die linearisierte Form des Systems um den Arbeitspunkt \((x_0, u_0)\) zu bestimmen, gehen wir wie folgt vor:

  • Zunächst gehen wir von der nichtlinearen Gleichung \(\dot{x} = f(x, u)\) aus.
  • Wir definieren die Abweichungen vom Arbeitspunkt als \(\Delta x = x - x_0\) und \(\Delta u = u - u_0\).
  • Das Ziel ist es, die Funktion \(f(x, u)\) um die Arbeitspunkte \(x_0\) und \(u_0\) zu linearisieren.

Zur Linearisierung verwenden wir die Taylor-Reihe erster Ordnung:

\[f(x, u) \approx f(x_0, u_0) + \frac{\partial f}{\partial x} \bigg|_{(x_0, u_0)} (x - x_0) + \frac{\partial f}{\partial u} \bigg|_{(x_0, u_0)} (u - u_0)\]

Da wir wissen, dass \(f(x_0, u_0) = 0\) ist, vereinfacht sich die Gleichung zu:

\[\dot{x} \approx A \Delta x + B \Delta u\]

Hierbei sind die Jacobian-Matrizen \(A\) und \(B\) definiert als:

  • \[A = \frac{\partial f}{\partial x} \bigg|_{(x_0, u_0)}\]
  • \[B = \frac{\partial f}{\partial u} \bigg|_{(x_0, u_0)}\]

Um diese Matrizen zu berechnen, gehen wir wie folgt vor:

  • Jacobische Matrix A:Berechne die partielle Ableitung von \(f(x, u)\) bezüglich \(x\) und werte sie am Arbeitspunkt \( (x_0, u_0) \) aus. Dies bedeutet, dass für jeden Zustand \(x_i\) in \(x\) die partielle Ableitung \(\frac{\partial f}{\partial x_i}\) berechnet wird.\[A = \begin{bmatrix} \frac{\partial f_1}{\partial x_1} & \frac{\partial f_1}{\partial x_2} & \cdots & \frac{\partial f_1}{\partial x_n}\ \ \frac{\partial f_2}{\partial x_1} & \frac{\partial f_2}{\partial x_2} & \cdots & \frac{\partial f_2}{\partial x_n} \ \vdots & \vdots & \ddots & \vdots \ \frac{\partial f_m}{\partial x_1} & \frac{\partial f_m}{\partial x_2} & \cdots & \frac{\partial f_m}{\partial x_n} \end{bmatrix}\bigg|_{(x_0, u_0)}\]
  • Jacobische Matrix B:Berechne die partielle Ableitung von \(f(x, u)\) bezüglich \(u\) und werte sie am Arbeitspunkt \( (x_0, u_0) \) aus. Dies bedeutet, dass für jeden Eingang \(u_i\) in \(u\) die partielle Ableitung \(\frac{\partial f}{\partial u_i}\) berechnet wird.\[B = \begin{bmatrix} \frac{\partial f_1}{\partial u_1} & \frac{\partial f_1}{\partial u_2} & \cdots & \frac{\partial f_1}{\partial u_p}\ \ \frac{\partial f_2}{\partial u_1} & \frac{\partial f_2}{\partial u_2} & \cdots & \frac{\partial f_2}{\partial u_p} \ \vdots & \vdots & \ddots & \vdots \ \frac{\partial f_m}{\partial u_1} & \frac{\partial f_m}{\partial u_2} & \cdots & \frac{\partial f_m}{\partial u_p} \end{bmatrix}\bigg|_{(x_0, u_0)}\]

Die dimensionen der Matrizen sind wie folgt:

  • \

    b)

    b) Gegeben die spezifische Systemgleichung \[f(x, u) = \begin{pmatrix} -x_1^3 + u \ x_2^2 - x_1 \ x_1 x_2 \end{pmatrix}\], bestimme die Jacobian-Matrizen \(A\) und \(B\) am Arbeitspunkt \((x_0, u_0) = (\begin{pmatrix} 0 \ 0 \ 0 \end{pmatrix}, 0)\).

    Lösung:

    Um die Jacobian-Matrizen \(A\) und \(B\) der spezifischen Systemgleichung

    \[f(x, u) = \begin{pmatrix} -x_1^3 + u \ x_2^2 - x_1 \ x_1 x_2 \end{pmatrix}\]

    am Arbeitspunkt \((x_0, u_0) = (\begin{pmatrix} 0 \ 0 \ 0 \end{pmatrix}, 0)\) zu bestimmen, müssen wir die partiellen Ableitungen der Funktionen bezüglich der Zustands- und Eingangsvariablen berechnen.

    1. Berechnung der Jacobian-Matrix \(A\):

    Die Jacobian-Matrix \(A\) wird durch die partiellen Ableitungen der Funktion \(f\) bezüglich des Zustandsvektors \(x\) definiert und am Arbeitspunkt ausgewertet:

    \[A = \frac{\partial f}{\partial x} \bigg|_{(x_0, u_0)}\]

    Wir berechnen die partiellen Ableitungen der Komponenten von \(f\) nach den Zustandsvariablen \(x_1\), \(x_2\) und \(x_3\):

    • \(\frac{\partial f_1}{\partial x_1} = \frac{\partial}{\partial x_1} (-x_1^3 + u) = -3x_1^2\)
    • \(\frac{\partial f_1}{\partial x_2} = \frac{\partial}{\partial x_2} (-x_1^3 + u) = 0\)
    • \(\frac{\partial f_1}{\partial x_3} = \frac{\partial}{\partial x_3} (-x_1^3 + u) = 0\)
    • \(\frac{\partial f_2}{\partial x_1} = \frac{\partial}{\partial x_1} (x_2^2 - x_1) = -1\)
    • \(\frac{\partial f_2}{\partial x_2} = \frac{\partial}{\partial x_2} (x_2^2 - x_1) = 2x_2\)
    • \(\frac{\partial f_2}{\partial x_3} = \frac{\partial}{\partial x_3} (x_2^2 - x_1) = 0\)
    • \(\frac{\partial f_3}{\partial x_1} = \frac{\partial}{\partial x_1} (x_1 x_2) = x_2\)
    • \(\frac{\partial f_3}{\partial x_2} = \frac{\partial}{\partial x_2} (x_1 x_2) = x_1\)
    • \(\frac{\partial f_3}{\partial x_3} = \frac{\partial}{\partial x_3} (x_1 x_2) = 0\)

    Am Arbeitspunkt \((x_0, u_0) = (\begin{pmatrix} 0 \ 0 \ 0 \end{pmatrix}, 0)\) ergibt sich:

    • \(\frac{\partial f_1}{\partial x_1} \bigg|_{(x_0, u_0)} = -3(0)^2 = 0\)
    • \(\frac{\partial f_1}{\partial x_2} \bigg|_{(x_0, u_0)} = 0\)
    • \(\frac{\partial f_1}{\partial x_3} \bigg|_{(x_0, u_0)} = 0\)
    • \(\frac{\partial f_2}{\partial x_1} \bigg|_{(x_0, u_0)} = -1\)
    • \(\frac{\partial f_2}{\partial x_2} \bigg|_{(x_0, u_0)} = 2(0) = 0\)
    • \(\frac{\partial f_2}{\partial x_3} \bigg|_{(x_0, u_0)} = 0\)
    • \(\frac{\partial f_3}{\partial x_1} \bigg|_{(x_0, u_0)} = 0\)
    • \(\frac{\partial f_3}{\partial x_2} \bigg|_{(x_0, u_0)} = 0\)
    • \(\frac{\partial f_3}{\partial x_3} \bigg|_{(x_0, u_0)} = 0\)

    Dies ergibt:

    \[A = \begin{pmatrix} 0 & 0 & 0 \ -1 & 0 & 0 \ 0 & 0 & 0 \end{pmatrix}\]

    2. Berechnung der Jacobian-Matrix \(B\):

    Die Jacobian-Matrix \(B\) wird durch die partiellen Ableitungen der Funktion \(f\) bezüglich des Eingangswerts \(u\) definiert und am Arbeitspunkt ausgewertet:

    \[B = \frac{\partial f}{\partial u} \bigg|_{(x_0, u_0)}\]

    Wir berechnen die partiellen Ableitungen der Komponenten von \(f\) nach dem Eingang \(u\):

    • \(\frac{\partial f_1}{\partial u} = \frac{\partial}{\partial u} (-x_1^3 + u) = 1\)
    • \(\frac{\partial f_2}{\partial u} = \frac{\partial}{\partial u} (x_2^2 - x_1) = 0\)
    • \(\frac{\partial f_3}{\partial u} = \frac{\partial}{\partial u} (x_1 x_2) = 0\)

    Am Arbeitspunkt \((x_0, u_0) = (\begin{pmatrix} 0 \ 0 \ 0 \end{pmatrix}, 0)\) ergibt sich:

    • \(\frac{\partial f_1}{\partial u} \bigg|_{(x_0, u_0)} = 1\)
    • \(\frac{\partial f_2}{\partial u} \bigg|_{(x_0, u_0)} = 0\)
    • \(\frac{\partial f_3}{\partial u} \bigg|_{(x_0, u_0)} = 0\)

    Dies ergibt die Jacobian-Matrix \(B\):

    \[B = \begin{pmatrix} 1 \ 0 \ 0 \end{pmatrix}\]

    Zusammengefasst:

    • \[A = \begin{pmatrix} 0 & 0 & 0 \ -1 & 0 & 0 \ 0 & 0 & 0 \end{pmatrix}\]
    • \[B = \begin{pmatrix} 1 \ 0 \ 0 \end{pmatrix}\]

    c)

    c) Führe eine Stabilitätsanalyse des linearisierten Systems durch. Bestimme die Eigenwerte der Matrix \(A\) und beurteile die Stabilität des Systems am Arbeitspunkt \((x_0, u_0)\). Geht das System bei kleinen Störungen in den stabilen Zustand zurück?

    Lösung:

    Um eine Stabilitätsanalyse des linearisierten Systems durchzuführen, müssen wir die Eigenwerte der Matrix \(A\) berechnen und bestimmen, ob diese Eigenwerte negative Realteile haben. Falls alle Eigenwerte negative Realteile besitzen, ist das System am Arbeitspunkt stabil und kehrt bei kleinen Störungen in den stabilen Zustand zurück.

    Zu Beginn wiederholen wir die Matrix \(A\) aus dem vorherigen Teil:

    \[A = \begin{pmatrix} 0 & 0 & 0 \ -1 & 0 & 0 \ 0 & 0 & 0 \end{pmatrix}\]

    1. Bestimmung der Eigenwerte von \(A\):

    Die Eigenwerte einer Matrix \(A\) werden aus der charakteristischen Gleichung berechnet:

    \[\text{det}(A - \lambda I) = 0\]

    Hierbei ist \(I\) die Einheitsmatrix und \(\lambda\) ist ein Eigenwert. Wir setzen die Matrix \(A\) und die Einheitsmatrix \(I\) in die Gleichung ein:

    \[\text{det}\left( \begin{pmatrix} 0 & 0 & 0 \ -1 & 0 & 0 \ 0 & 0 & 0 \end{pmatrix} - \lambda \begin{pmatrix} 1 & 0 & 0 \ 0 & 1 & 0 \ 0 & 0 & 1 \end{pmatrix} \right) = \text{det}\left( \begin{pmatrix} -\lambda & 0 & 0 \ -1 & -\lambda & 0 \ 0 & 0 & -\lambda \end{pmatrix} \right) = 0\]

    Die Determinante einer 3x3-Matrix \(B\) ist gegeben durch:

    \[\text{det}(B) = b_{11}(b_{22}b_{33} - b_{23}b_{32}) - b_{12}(b_{21}b_{33} - b_{23}b_{31}) + b_{13}(b_{21}b_{32} - b_{22}b_{31})\]

    In unserem Fall haben wir:

    \[\text{det}\left( \begin{pmatrix} -\lambda & 0 & 0 \ -1 & -\lambda & 0 \ 0 & 0 & -\lambda \end{pmatrix} \right) = (-\lambda)((-\lambda)(-\lambda) - 0) - 0 + 0 = -\lambda^3 = 0\]

    Die Eigenwerte von \(A\) sind daher die Lösungen der Gleichung \(-\lambda^3 = 0\), also:

    • \(\lambda_1 = 0\)
    • \(\lambda_2 = 0\)
    • \(\lambda_3 = 0\)

    2. Beurteilung der Stabilität:

    Für die Stabilität des Systems müssen alle Eigenwerte der Matrix \(A\) negative Realteile aufweisen. In unserem Fall sind alle drei Eigenwerte gleich Null.

    Eigenwerte, die genau Null sind, machen es unmöglich, auf Basis der linearen Gleichung allein eine definitive Aussage über die Stabilität des Systems zu treffen. Für eine exakte Stabilitätsanalyse sollte daher die nichtlineare Systemdynamik oder höhere Ordnungen der Taylor-Reihe herangezogen werden.

    Jedoch kann man in Bezug auf lineare Systeme Folgendes sagen:

    • Wenn mindestens ein Eigenwert Null ist und die restlichen Eigenwerte nicht negative Realteile haben, ist das System an dem Arbeitspunkt nicht asymptotisch stabil.
    • Das System kehrt daher bei kleinen Störungen möglicherweise nicht in den stabilen Zustand zurück, es sei denn, die höheren Ordnungen der nichtlinearen Dynamiken stabilisieren das System.

    Zusammenfassend:

    • Die Eigenwerte der Matrix \(A\) sind alle Null.
    • Auf Basis der linearen Stabilitätsanalyse ist das System am Arbeitspunkt nicht asymptotisch stabil. Eine vollständige Stabilitätsanalyse erfordert die Betrachtung der nichtlinearen Systemdynamik.

    d)

    d) Erkläre den Begriff der asymptotischen Stabilität und prüfe anhand der gefundenen Eigenwerte, ob das System asymptotisch stabil ist.

    Lösung:

    Um den Begriff der asymptotischen Stabilität zu erklären und zu prüfen, ob das System anhand der gefundenen Eigenwerte asymptotisch stabil ist, gehen wir wie folgt vor:

    1. Definition der asymptotischen Stabilität:

    • Ein Gleichgewichtspunkt eines dynamischen Systems ist asymptotisch stabil, wenn aus jeder hinreichend kleinen Nachbarschaft des Gleichgewichtspunktes startend der Zustand des Systems mit der Zeit gegen diesen Punkt konvergiert.
    • Mathematisch bedeutet dies, dass für jeden Anfangszustand \(x(0)\) in einer kleinen Umgebung des Gleichgewichtspunktes \(x_0\) gilt:
      • \(x(t)\) nähert sich \(x_0\) an, wenn die Zeit \(t\) gegen unendlich geht (diese Eigenschaft wird als „stabil im Lyapunov-Sinne“ bezeichnet).
      • Zusätzlich geht \(x(t)\) tatsächlich gegen \(x_0\) für \(t \rightarrow \infty\) (diese Eigenschaft nennt man „asymptotische Stabilität“).

    2. Prüfung der asymptotischen Stabilität anhand der Eigenwerte:

    Für ein linearisiertes System \(\dot{x} = Ax + Bu\) ist die asymptotische Stabilität des Systems gegeben, wenn alle Eigenwerte der Matrix \(A\) negative Realteile haben.

    Die Eigenwerte der Matrix \(A\) aus der vorherigen Aufgabe sind:

    • \(\lambda_1 = 0\)
    • \(\lambda_2 = 0\)
    • \(\lambda_3 = 0\)

    Da alle Eigenwerte den Wert 0 haben, können wir folgende Aussagen treffen:

    • Ein Eigenwert von exakt 0 bedeutet, dass der Zustand weder wächst noch schrumpft, behält seinen momentanen Wert bei.
    • Die Eigenwerte sind nicht negativ (d. h. haben keine negativen Realteile), also können wir auf Basis der linearen Stabilitätsanalyse keine positive Aussage über die asymptotische Stabilität treffen.

    Zusammengefasst:

    • Auf Basis der gefundenen Eigenwerte \(\lambda_1 = 0\), \(\lambda_2 = 0\) und \(\lambda_3 = 0\) kann nicht auf eine asymptotische Stabilität geschlossen werden.
    • Das System ist im linearen Bereich im besten Fall marginal stabil, das heißt kleine Störungen bleiben um den Gleichgewichtspunkt erhalten. Eine genaue Analyse der asymptotischen Stabilität erfordert die Untersuchung der nichtlinearen Dynamik.

    Aufgabe 3)

    Betrachte ein nichtlineares System in der Form: \[ \frac{d}{dt}x = f(x) + g(x)u y = h(x) \ \text{Dabei sind } f(x), g(x) \text{ und } h(x) \text{ glatte Funktionen.} \] Durch Feedback-Linearisation soll dieses nichtlineare System durch Rückkopplung in ein lineares System der Form \[ \frac{d}{dt}\boldsymbol{z} = A\boldsymbol{z} + Bv y = C\boldsymbol{z} \ \text{transformiert werden.} \]

    a)

    Bestimme die Transformationsgleichung für das Steuersignal \( u \) in Abhängigkeit von den Systemdynamiken \(a(x)\) und \(b(x)\), sodass das nichtlineare System in ein lineares System transformiert wird.

    Lösung:

    Um das nichtlineare System in ein lineares System zu transformieren, müssen wir eine geeignete Transformationsgleichung für das Steuersignal u finden. Betrachten wir das nichtlineare System:

    \[\frac{d}{dt}x = f(x) + g(x)u\]\[y = h(x)\]

    Das Ziel ist, das System in ein lineares System der Form:

    \[\frac{d}{dt}\boldsymbol{z} = A\boldsymbol{z} + Bv\]\[y = C\boldsymbol{z}\]

    zu transformieren. Dazu nutzen wir die Feedback-Linearisation.

    Schritte zur Lösung:

    1. Bestimme das Steuersignal u, sodass das nichtlineare System linearisiert wird. 2. Leite die ursprünglichen Systemdynamiken f(x) und g(x) ab.

    Herleitung der Transformationsgleichung:

    \[\frac{d}{dt}x = f(x) + g(x)u\]

    Setze u in einer Weise, dass es die Nichtlinearitäten in f(x) und g(x) kompensiert. Das ist möglich durch:

    \[u = \frac{1}{g(x)}[v - f(x)]\]

    wobei v das neue Steuersignal ist.

    Erklärung:

    • Durch die Wahl von u in obiger Form, transformieren wir die nichtlinearen Systemdynamiken in lineare.
    • Somit haben wir die gewünschten Systemdynamiken für das lineare System erreicht.

    Hier ist die Transformationsgleichung für das Steuersignal u:

    \[\boxed{u = \frac{1}{g(x)}[v - f(x)]}\]

    Dies stellt sicher, dass das nichtlineare System ein äquivalentes lineares System wird.

    b)

    Ermittle die erforderlichen Systemmodelle \( f(x) \) und \( g(x) \) in einer spezifischen Anwendung, z.B., Flugsteuerung oder Robotersteuerung, und zeige die Linearisierungsschritte. Nehme an, dass das System vom bekannten Modelltyp ist.

    Lösung:

    Um die erforderlichen Systemmodelle für eine spezifische Anwendung zu ermitteln und die Linearisierungsschritte zu zeigen, betrachten wir die Steuerung eines zweirädrigen Roboters (Segway). Ziel ist es, die Systemgleichungen für f(x) und g(x) zu bestimmen und die Linearisation durchzuführen.

    Systemmodell:

    Für einen zweirädrigen Roboter können wir die Systemzustände wie folgt definieren:

    \[ x = \begin{bmatrix} \theta \ \dot{\theta} \ \ddot{\theta} \end{bmatrix} \]
    • \( \theta \): Winkel des Roboters von der Vertikalen
    • \( \dot{\theta} \): Winkelgeschwindigkeit
    • \( \ddot{\theta} \): Winkelbeschleunigung

    Dynamik des Systems:

    \[ \frac{d}{dt} \begin{bmatrix} \theta \ \dot{\theta} \ \ddot{\theta} \end{bmatrix} = \begin{bmatrix} \dot{\theta} \ \ddot{\theta} \ \frac{m g L \, \sin(\theta) - b \, \dot{\theta} + u}{I} \end{bmatrix} \]
    • \( m \): Masse des Roboters
    • \( g \): Schwerkraft
    • \( L \): Abstand des Schwerpunkts
    • \( b \): Dämpfungsterm
    • \( I \): Trägheitsmoment
    • \( u \): Steuersignal (Drehmoment)

    Identifikation von f(x) und g(x):

    \[ f(x) = \begin{bmatrix} \dot{\theta} \ \ddot{\theta} \ \frac{m g L \, \sin(\theta) - b \, \dot{\theta}}{I} \end{bmatrix} \]\[ g(x) = \begin{bmatrix} 0 \ 0 \ \frac{1}{I} \end{bmatrix} \]

    Linearisierung:

    Um das System zu linearisieren, wählen wir das Steuersignal\(u\) als:

    \[ u = I v + b \, \dot{\theta} - m g L \, \sin(\theta) \]

    Hier ist v das neue Steuersignal.

    Substituiere dieses u zurück in das Originalsystem, um:

    \[ \frac{d}{dt} \begin{bmatrix} \theta \ \dot{\theta} \ \ddot{\theta} \end{bmatrix} = \begin{bmatrix} \dot{\theta} \ \ddot{\theta} \ v \end{bmatrix} \]

    So erhalten wir das lineare System:

    \[ \frac{d}{dt} \boldsymbol{z} = \begin{bmatrix} 0 & 1 & 0 \ 0 & 0 & 1 \ 0 & 0 & 0 \end{bmatrix} \boldsymbol{z} + \begin{bmatrix} 0 \ 0 \ 1 \end{bmatrix} v \]\[ y = \begin{bmatrix} 1 & 0 & 0 \end{bmatrix} \boldsymbol{z} \]

    Dies zeigt die gewünschte Linearisierung des Systems.

    c)

    Angenommen, das nichtlineare Systemmodell für einen Roboterarm ist gegeben durch: \[ \frac{d}{dt}\theta = \frac{1}{m l^2} \tau - \frac{k}{m l^2} \theta y = \theta \ \text{Wo } \theta \text{ der Winkel des Roboterarms, } \tau \text{ das Drehmoment, } m \text{ die Masse und } l \text{ die Länge des Roboterarms und } k \text{ eine Dämpfungskonstante ist.} \] Bestimme die Transformationsgleichung und zeige, wie das System linearisiert wird.

    Lösung:

    Das gegebene nichtlineare Systemmodell für einen Roboterarm ist:

    \[ \frac{d}{dt} \theta = \frac{1}{m l^2} \tau - \frac{k}{m l^2} \theta \]\[ y = \theta \]

    Wo:

    • \( \theta \) der Winkel des Roboterarms ist
    • \( \tau \) das Drehmoment ist
    • \( m \) die Masse des Roboterarms ist
    • \( l \) die Länge des Roboterarms ist
    • \( k \) eine Dämpfungskonstante ist

    Um dieses System zu linearisieren, identifizieren wir zuerst die Systemmodelle \( f(x) \) und \( g(x) \).

    Identifikation von f(x) und g(x):

    Wir können das System wie folgt neu schreiben:

    \[ \frac{d}{dt} \theta = f(\theta) + g(\theta) \tau \]
    • \( f(\theta) = -\frac{k}{m l^2} \theta \)
    • \( g(\theta) = \frac{1}{m l^2} \)

    Linearisation:

    Um das System zu linearisieren, wählen wir die Rückkopplung des Steuersignals \( \tau \) als:

    \[ \tau = m l^2 (v + \frac{k}{m l^2} \theta) \]

    Hierbei ist \( v \) das neue Steuersignal.

    Setze dieses \( \tau \) in das ursprüngliche System ein:

    \[ \frac{d}{dt} \theta = \frac{1}{m l^2} (m l^2 (v + \frac{k}{m l^2} \theta)) - \frac{k}{m l^2} \theta \]

    Das vereinfacht sich zu:

    \[ \frac{d}{dt} \theta = v + \frac{k}{m l^2} \theta - \frac{k}{m l^2} \theta \]\[ \frac{d}{dt} \theta = v \]

    Damit erhalten wir das lineare System:

    \[ \frac{d}{dt} z = v \]\[ y = \theta \]

    Das entspricht der folgenden Zustandsdarstellung:

    \[ \frac{d}{dt} \boldsymbol{z} = \begin{bmatrix} 0 \end{bmatrix} \boldsymbol{z} + \begin{bmatrix} 1 \end{bmatrix} v \]\[ y = \begin{bmatrix} 1 \end{bmatrix} \boldsymbol{z} \]

    Dies zeigt, wie das nichtlineare System durch Rückkopplung in ein lineares System transformiert wird.

    d)

    Für das gleiche Roboterarmsystem, entwirf eine Rückführung \( u = \frac{1}{b(x)}( -a(x) + v) \), die das System in eine kanonische Steuerform bringt. Berechne explizit die neue Steuervariable \(v\) und erläutere, wie du die neuen Systemmatrizen \(A\), \(B\) und \(C\) bestimmst.

    Lösung:

    Um das nichtlineare Roboterarmsystem

    \[ \frac{d}{dt}\theta = f(\theta) + g(\theta)u \]\[ y = h(\theta) \]

    in eine lineare Form zu transformieren, verwenden wir die gegebene Transformationsgleichung:

    \[ u = \frac{1}{g(x)}( -f(x) + v) \]

    Wir setzen dies für das spezifische System ein:

    Systemmodell:

    \[ \frac{d}{dt}\theta = \frac{1}{ml^2}\tau - \frac{k}{ml^2}\theta \]

    Um dies in die gewünschte kanonische Steuerform zu transformieren, verwenden wir:

    • \(f(x) = -\frac{k}{ml^2}\theta\)
    • \(g(x) = \frac{1}{ml^2}\)
    • \(h(x) = \theta\)

    Transformationsgleichung:

    \[ u = \frac{1}{g(\theta)}( -f(\theta) + v) \]

    Einsetzen von \(f(\theta)\) und \(g(\theta)\).

    \[ u = ml^2 \left( \frac{k}{ml^2} \theta + v \right) \]

    Nun substituieren wir diese Rückführung in das ursprüngliche System:

    Ursprüngliches System:

    \[ \frac{d}{dt}\theta = \frac{1}{ml^2}\tau - \frac{k}{ml^2}\theta \]

    Mit \(u\) ist dies:

    \[ \frac{d}{dt}\theta = \frac{1}{ml^2} \left( ml^2 \left( \frac{k}{ml^2} \theta + v \right) \right) - \frac{k}{ml^2} \theta \]

    Das vereinfacht zu:

    \[ \frac{d}{dt}\theta = \left( \frac{k}{ml^2} \theta + v \right) - \frac{k}{ml^2} \theta \]\[ \frac{d}{dt}\theta = v \]

    Bestimmung der Systemmatrizen:

    Jetzt haben wir ein lineares System der Form:

    \[ \frac{d}{dt}\boldsymbol{z} = A\boldsymbol{z} + Bv \]\[ y = C\boldsymbol{z} \]

    Da \( \theta = z \), haben wir:

    \[ \boldsymbol{z} = \theta \]

    Also:

    \[ \frac{d}{dt}\theta = v \]\[ \frac{d}{dt}\boldsymbol{z} = v \]

    Damit sind die Systemmatrizen wie folgt:

    • \(A = 0\)
    • \(B = 1\)
    • \(C = 1\)

    Zusammenfassung:

    Durch die Rückführung

    \[ u = ml^2 \left( v + \frac{k}{ml^2} \theta \right) \]

    haben wir das System in die kanonische Form gebracht:

    \[ \frac{d}{dt}\boldsymbol{z} = 0 \cdot \boldsymbol{z} + 1 \cdot v \]\[ y = 1 \cdot \boldsymbol{z} \]

    Aufgabe 4)

    In dieser Aufgabe sollst Du ein System mit Sliding Mode Control (SMC) analysieren, entwerfen und simulieren. In einem gegebenen nichtlinearen System sind Unsicherheiten und äußere Störungen vorhanden, und Du wirst die Sliding Mode Control-Technik anwenden, um dessen robuste Stabilisierung zu gewährleisten. Das System wird durch folgende Differentialgleichung beschrieben: \ \[ \dot{x}(t) = f(x(t)) + b(x(t))u(t), \] wobei \( f(x(t)) \) und \( b(x(t)) \) nichtlineare Funktionen des Zustands \( x \) sind, und \( u(t) \) ist die Steuerungseingabe. Du sollst die Sliding Surface \( s(x) \) definieren und die Kontrollregel \( u = u_{eq} + u_{n} \) anwenden, um die Stabilität des Systems sicherzustellen.

    a)

    Leite die Sliding Surface \( s(x) \) für das gegebene System her. Die Sliding Surface sollte so gewählt sein, dass sie die dynamischen Anforderungen des Systems erfüllt. Begründe Deine Wahl und beschreibe, wie die Bedingungen \( s(x) = 0 \) und \( \dot{s}(x) = 0 \) dazu beitragen, das System zu stabilisieren.

    Lösung:

    Herleitung der Sliding Surface s(x)

    Um die Sliding Surface s(x) für das gegebene System herzuleiten, betrachten wir die bereitgestellten Informationen. Das System wird durch die folgende Differentialgleichung beschrieben:

     \[ \dot{x}(t) = f(x(t)) + b(x(t))u(t) \] 

    Hierbei sind f(x(t)) und b(x(t)) nichtlineare Funktionen des Zustands x und u(t) ist die Steuerungseingabe.

    Wir möchten eine Sliding Surface definieren, die die dynamischen Anforderungen des Systems erfüllt und seine Stabilität mittels Sliding Mode Control (SMC) gewährleistet.

    1. Definition der Sliding Surface s(x)

    Wir wählen die Sliding Surface s(x) so, dass sie das gewünschte dynamische Verhalten des Systems beschreibt. Für ein System erster Ordnung könnte die Sliding Surface beispielsweise folgendermaßen definiert werden:

     \[ s(x) = x - x_d \] 

    Hierbei ist x_d der gewünschte Referenzwert oder das gewünschte Verhalten.

    2. Sliding Surface für Systeme höherer Ordnung

    Falls das System höherer Ordnung ist, kann die Sliding Surface eine Kombination aus den Zuständen und deren Ableitungen sein:

     \[ s(x) = \frac{d^k x}{dt^k} + \beta_{k-1}\frac{d^{k-1} x}{dt^{k-1}} + ... + \beta_1\frac{dx}{dt} + \beta_0x - x_d \] 

    Hierbei ist k die Ordnung des Systems und \beta_i sind Konstanten, die so gewählt werden, dass das gewünschte dynamische Verhalten erreicht wird.

    Zur Vereinfachung nehmen wir im Folgenden an, dass es sich um ein System erster Ordnung handelt, sodass die Sliding Surface wie folgt definiert werden kann:

     \[ s(x) = x - x_d \] 

    3. Stabilitätsbedingungen

    Um die Stabilität des Systems zu gewährleisten, betrachten wir die Bedingungen s(x) = 0 und \dot{s}(x) = 0:

    • Bedingung s(x) = 0:Diese Bedingung stellt sicher, dass das System sich auf der Sliding Surface befindet, was bedeutet, dass der aktuelle Zustand x gleich dem gewünschten Zustand x_d ist.
    • Bedingung \dot{s}(x) = 0:Die Ableitung der Sliding Surface kann wie folgt berechnet werden:
     \[ \dot{s}(x) = \frac{d}{dt}(x - x_d) = \frac{dx}{dt} - \frac{dx_d}{dt} \] 

    Da x_d eine Konstante ist, wird \frac{dx_d}{dt} = 0. Daher ergibt sich:

     \[ \dot{s}(x) = \frac{dx}{dt} = \frac{d}{dt}x = \frac{d}{dt}x \] 

    Wenn \dot{s}(x) = 0, bedeutet dies, dass die Änderungsrate des Zustands x konstant ist, was zur Stabilisierung des Systems beiträgt.

Zusammenfassung

Die Bedingungen s(x) = 0 und \dot{s}(x) = 0 tragen wie folgt zur Stabilisierung des Systems bei:

  • s(x) = 0:Bringt das System auf die gewünschte Trajektorie, indem der aktuelle Zustand gleich dem gewünschten Zustand ist.
  • \dot{s}(x) = 0:Stellt sicher, dass das System auf der gewünschten Trajektorie verbleibt, indem die Änderungsrate des Zustands konstant bleibt.

b)

Bestimme den äquivalenten Kontrollanteil \( u_{eq} \), der das System entlang der Sliding Surface \( s(x) = 0 \) hält. Berechne \( u_{eq} \) unter Annahme bekannter Funktionen \( f(x(t)) \) und \( b(x(t)) \).

Lösung:

Bestimmung des äquivalenten Kontrollanteils u_{eq}

Ziel dieser Aufgabe ist es, den äquivalenten Kontrollanteil u_{eq} zu bestimmen, der das System entlang der Sliding Surface s(x) = 0 hält.

1. Ausgangspunkt

Wir starten mit der Differentialgleichung des Systems:

 \[ \dot{x}(t) = f(x(t)) + b(x(t))u(t) \] 

Die Sliding Surface s(x) haben wir zuvor definiert als:

 \[ s(x) = x - x_d \] 

Um das System auf der Sliding Surface zu halten, muss gelten:

 \[ s(x) = 0 \] 

Das bedeutet:

 \[ x = x_d \] 

2. Bedingung für \dot{s}(x) = 0

Wir berechnen die Ableitung der Sliding Surface s(x):

 \[ \dot{s}(x) = \frac{d}{dt}(x - x_d) = \frac{dx}{dt} - \frac{d x_d}{dt} \] 

Unter der Annahme, dass x_d konstant ist, vereinfacht sich dies zu:

 \[ \dot{s}(x) = \frac{dx}{dt} \] 

Da das System entlang der Sliding Surface gehalten werden soll, setzen wir \dot{s}(x) = 0:

 \[ \frac{dx}{dt} = 0 \] 

Setzen wir die Differentialgleichung des Systems ein:

 \[ 0 = f(x) + b(x)u(t) \] 

3. Bestimmung von u_{eq}

Um den äquivalenten Kontrollanteil u_{eq} zu berechnen, lösen wir die obige Gleichung nach u(t) auf:

 \[ u_{eq} = -\frac{f(x)}{b(x)} \] 

Hierbei sind f(x) und b(x) bekannte Funktionen, die die Systemdynamik beschreiben.

Zusammenfassung

Der äquivalente Kontrollanteil u_{eq}, der das System entlang der Sliding Surface s(x) = 0 hält, ist definiert als:

 \[ u_{eq} = -\frac{f(x)}{b(x)} \] 

Dieser Anteil kompensiert die nichtlinearen Anteile des Systems und stellt sicher, dass das System entlang der definierten Sliding Surface verbleibt.

c)

Implementiere eine Boundary-Layer-Technik, um Chattering in der Sliding Mode Control zu vermeiden. Beschreibe die Funktionsweise der Boundary-Layer und zeige, wie die Steuerungseingabe \( u(t) \) modifiziert wird. Simuliere das geschlossene System mit und ohne Boundary-Layer-Technik unter Einfluss von äußeren Störungen und Unsicherheiten. Vergleiche die Ergebnisse und diskutiere die Vorteile und möglichen Nachteile der Boundary-Layer-Technik.

Lösung:

Implementierung der Boundary-Layer-Technik zur Vermeidung von Chattering

Um Chattering in der Sliding Mode Control (SMC) zu vermeiden, kann die Boundary-Layer-Technik angewendet werden. Diese Technik sorgt dafür, dass die Steuerungseingabe innerhalb eines vorgegebenen Toleranzbandes (Boundary-Layer) kontinuierlich und nicht diskret ist.

1. Funktionsweise der Boundary-Layer

Die Boundary-Layer-Technik verwendet eine weiche Steuerungsfunktion innerhalb eines schmalen Toleranzbandes um die Sliding Surface, um das Chattering zu reduzieren:

  • Die Sliding Surface s(x) wird wie folgt definiert:
 \[ s(x) = x - x_d \] 

Die ursprüngliche Steuerungsregel in der SMC lautet:

 \[ u = u_{eq} + u_n = -\frac{f(x)}{b(x)} - k\cdot\text{sign}(s(x)) \] 

Hierbei ist u_{eq} der äquivalente Kontrollanteil und u_n der diskrete Schaltanteil.

In der Boundary-Layer-Technik ersetzen wir die diskrete Schaltfunktion durch eine kontinuierliche Sättigungsfunktion innerhalb der Boundary-Layer:

 \[ u = u_{eq} - k\cdot\phi\left(\frac{s(x)}{\epsilon}\right) \] 

wobei \phi eine kontinuierliche Sättigungsfunktion und \epsilon die Breite der Boundary-Layer ist. Eine typische Wahl für \phi ist die Sättigungsfunktion:

 \[ \phi(s) = \begin{cases} \text{sign}(s) & \text{wenn } |s| > 1 \ s & \text{wenn } |s| \leq 1 \end{cases} \] 

2. Modifizierte Steuerungseingabe u(t)

Die modifizierte Steuerungseingabe mit der Boundary-Layer-Technik lautet:

 \[ u = -\frac{f(x)}{b(x)} - k\cdot\phi\left(\frac{s(x)}{\epsilon}\right) \] 

3. Simulation des geschlossenen Systems

Im Folgenden simulieren wir das geschlossene System sowohl mit als auch ohne Boundary-Layer-Technik unter dem Einfluss äußerer Störungen und Unsicherheiten. Die Simulationen werden typischerweise mit numerischen Methoden wie dem Runge-Kutta-Verfahren durchgeführt. Der spezifische Code hängt von den Systemparametern und den Funktionen f(x(t)) und b(x(t)) ab.

Simulation ohne Boundary-Layer-Technik:

  • Nutze das ursprüngliche Steuerungsgesetz:
 \[ u = -\frac{f(x)}{b(x)} - k\cdot\text{sign}(s(x)) \] 

Implementiere die Differentialgleichung und löse sie numerisch.

Simulation mit Boundary-Layer-Technik:

  • Nutze das modifizierte Steuerungsgesetz:
 \[ u = -\frac{f(x)}{b(x)} - k\cdot\phi\left(\frac{s(x)}{\epsilon}\right) \] 

Implementiere die Differentialgleichung und löse sie numerisch.

4. Vergleich der Ergebnisse und Diskussion

  • Vorteile der Boundary-Layer-Technik:
    • Reduziert das Chattering, was die mechanische Abnutzung der Aktuatoren minimiert.
    • Verbessert die Systemruhe und verringert kleine Oszillationen.
  • Nachteile der Boundary-Layer-Technik:
    • Möglicher Verlust an Präzision, da die Steuerung innerhalb der Boundary-Layer kontinuierlich ist.
    • Erfordert Feinabstimmung der Parameter k und \epsilon, um das optimale Verhalten des Systems zu erreichen.

Durch die Simulationen können wir erkennen, dass die Boundary-Layer-Technik effektiv das Chattering reduziert und das Systemverhalten insbesondere bei äußeren Störungen verbessert. Es kann jedoch eine gewisse Feinabstimmung der Parameter erforderlich sein, um den optimalen Kompromiss zwischen Stabilität und Reaktionsvermögen zu erreichen.

Sign Up

Melde dich kostenlos an, um Zugriff auf das vollständige Dokument zu erhalten

Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.

Kostenloses Konto erstellen

Du hast bereits ein Konto? Anmelden