Optimale Steuerung

verallgemeinerte Variation unter Nebenbedingungen und Beschränkungen

Die Theorie der optimalen Steuerungen (englisch optimal control theory) ist eng verwandt mit der Variationsrechnung und der Optimierung. Eine optimale Steuerung ist eine Funktion, welche eine gegebene Zielfunktion unter einer Differentialgleichungs-Nebenbedingung und eventuell noch weiteren Restriktionen minimiert oder maximiert.

Zum Beispiel könnte ein Autofahrer versuchen, ein Ziel in möglichst geringer Zeit zu erreichen. Wann schaltet der Autofahrer am besten? Möglicherweise müssen gewisse Nebenbedingungen, z. B. Geschwindigkeitsbegrenzungen, eingehalten werden. Ein anderer Autofahrer versucht dagegen vielleicht, den Kraftstoffverbrauch zu minimieren, d. h., er wählt eine andere Zielfunktion.

Wesentliche Grundlagen der Theorie wurden von Lew Pontrjagin in der UdSSR und Richard Bellman in den USA gelegt.

Das Problem der optimalen Steuerung

Bearbeiten

Es gibt mehrere mathematische Formulierungen der Aufgabenstellung, wobei wir hier eine möglichst allgemeine Form angeben.

Seien   und  .

Gesucht ist ein Zustand   sowie eine Steuerung  , sodass gilt:

 

unter den Nebenbedingungen:

  1.  
  2.   für  

Ein  , das diese Gleichung erfüllt, wird als optimale Steuerung bezeichnet.

Häufig treten zusätzlich noch sogenannte Zustandsbeschränkungen auf, d. h., der Zustand zu einem bestimmten Zeitpunkt ist zusätzlich gewissen Restriktionen unterworfen.

Von Interesse sind in erster Linie die folgenden Fragestellungen:

  1. Existieren Lösungen und wie kann man sie berechnen?
  2. Welche notwendigen Bedingungen gibt es? Hierbei ist vor allem das Maximumprinzip von Pontrjagin von Bedeutung.
  3. Wann sind die notwendigen Bedingungen sogar hinreichend?

Während die Variationsrechnung Konkurrenzfunktionen lediglich auf offenen Mengen zuließ, wurden in den Optimalsteuerungen allgemeinere Voraussetzungen (u. a. abgeschlossene Mengen für die Steuerfunktionen  ) betrachtet mit einem anderen Formalismus, der zwischen Steuerfunktionen   und Zustandsfunktionen   unterscheidet. Das Pontrjaginsche Maximumprinzip ist eine Verallgemeinerung der Weierstraß'schen Bedingung der Variationsrechnung. Für das Maximumprinzip waren neue Beweismethoden (u. a. Separation von Kegeln, Nadelvariationen) erforderlich.

Ökonomische Anwendungen

Bearbeiten

Die Methodik der optimalen Steuerung wurde schon früh auf praktische Bereiche der Ökonomie angewandt. Robert Dorfman legte 1969 eine ökonomische Interpretation der Theorie der Optimalen Steuerung vor.[1] Den Ausgangspunkt zur Lösung eines solchen Problems bildet die Hamilton-Funktion in der Kontrolltheorie (also Teil des Maximumprinzips).

Beispiel

Bearbeiten

Eine Firma möchte ihre Gewinne über eine bestimmte Zeitperiode maximieren. Zu jedem Zeitpunkt   besitzt sie einen Kapitalstock aufgrund früheren Verhaltens,  . Gegeben diesen Kapitalstock   kann die Firma eine Entscheidung   treffen (z. B. bzgl. des Outputs, Preises etc.). Gegeben   und   erhält die Firma pro Zeitspanne einen Gewinn  . Es lässt sich dann für ein Zeitintervall   ein dynamisches Optimierungsproblem formulieren: [2]

 

Dieses kann ggf. um einen Abzinsungsfaktor erweitert werden.

Anwendung in der Quantenphysik

Bearbeiten

Die optimale Steuerung wird in verschiedenen Bereichen der Naturwissenschaft verwendet, um zeitliche Abläufe zu verbessern. In der Quantenphysik kann es sich bei der Zielfunktion zum Beispiel um die Fidelität zu einem erwünschten Zustand oder die Sensitivität eines Quantensensors handeln.[3]

Siehe auch

Bearbeiten

Einzelnachweise

Bearbeiten
  1. An Economic Interpretation of Optimal Control Theory Pdf-Version des Artikels. In: The American Economic Review.
  2. Optimal Control@1@2Vorlage:Toter Link/community.bus.emory.edu (Seite nicht mehr abrufbar, festgestellt im Mai 2019. Suche in Webarchiven) (PDF; 307 kB) Chapter 2 aus einem Skript Dynamic Modeling von Peter Thompson. Goizueta Business School.
  3. Steffen J. Glaser, Ugo Boscain, Tommaso Calarco, Christiane P. Koch, Walter Köckenberger: Training Schrödinger’s cat: quantum optimal control: Strategic report on current status, visions and goals for research in Europe. In: The European Physical Journal D. Band 69, Nr. 12, Dezember 2015, ISSN 1434-6060, S. 279, doi:10.1140/epjd/e2015-60464-1 (springer.com [abgerufen am 15. Januar 2021]).

Literatur

Bearbeiten
  • B. S. Mordukhovich: Variational Analysis and Generalized Differentiation, I: Basic Theory, II: Applications. Springer Verlag, Berlin 2006.
  • Michael Plail: Die Entwicklung der optimalen Steuerungen. Vandenhoeck und Ruprecht Verlag, Göttingen 1998.
  • L. S. Pontrjagin: Mathematische Theorie optimaler Prozesse. Oldenbourg Verlag, Wien 1964.
Bearbeiten
  • Robert Dorfman. An Economic Interpretation of Optimal Control Theory. The American Economic Review. Volume 59. Issue 5 (Dec., 1969), 817–831. Online-Version (PDF; 1,9 MB)