I. Grundlegende Begriffe und Sätze.- § 1. Praktische Beispiele für Kontrollprobleme.- § 2. Problemstellung und Voraussetzungen.- § 3. Stetigkeit des Zielfunktionais F(y).- § 4. Existenz und Eindeutigkeit optimaler Steuerungen.- II. Dynamische Optimierung.- § 5. Ermittlung einer Näherungslösung für Kontrollprobleme mit vorgegebenem Endzeitpunkt mit Hilfe der BELLMANschen Punktionalgleichung.- § 6. Sätze zur Theorie der dynamischen Optimierung.- § 7. Numerische Realisierung der Methode der dynamischen Optimierung.- III. Ermittlung optimaler Steuerungen mit Hilfe des Maximumprinzips.- § 8. Das Maximumprinzip und die Transversalitätsbedingung.- § 9. Zur Theorie der linearen Kontrollprobleme.- § 10. Optimale Steuerung linearer Eontrollprobleme mit vorgegebenem Endzeitpunkt.- § 11. Lineare zeitoptimale Probleme.- § 12. Lösung nichtlinearer Kontrollprobleme.- A1. Konvexe Mengen und Punktionen.- A2. LEBESGUE-integrable Punktionen.- A3. Funktionalanalysis.