Kapitel 6
Eine nichtlineare Gleichung hat oft keine einfache algebraische Lösung. (Zum Beispiel .) Deshalb verwenden wir iterative Methoden, die mit einem Punkt anfangen und aus den vorherigen Punkten eine immer bessere Lösung berechnen.
Wir wollen allgemein finden mit .
Konvergenz
Eine iterative Methode konvergiert zur Lösung, falls gilt
und der Fehler in jeder Iteration ist
Falls die Methode konvergiert, können wir ihre Konvergenzordnung feststellen falls
mit konstant. Das bedeutet, in der Unendlichkeit verändert sich der Fehler von Schritt zu Schritt mit Potenz . Wenn sagen wir lineare Konvergenz, für grössere superlinear. Falls konvergiert die Methode quadratisch. Quadratische Konvergenz bedeutet, dass sich die Anzahl der korrekten Ziffern in der Approximation bei jeder Iteration verdoppeln.
Mit Hilfe der Dreiecksungleichung können wir den Fehler abschätzen. Für lineare Konvergenz mit Rate gilt
Abbruch
Wenn wir zu lange iterieren, überwiegen Rundungsfehler und wir verschwenden zeit. Deshalb wollen wir unsere Methode irgendwann abbrechen. Zwei mögliche Abbruchkriterien sind der absolute Fehler
und der relative Fehler
Meistens werden beide kombiniert
Gute Wahlen sind und .
Eine andere Möglichkeit ist da Residuum . Wir stoppen dann, falls
Das heisst, wir sind nahe genug an null dran. Aber diese Methode kann auch schiefgehen, falls die Funktion eine beinahe-Nullstelle hat, bei der wir stoppen.
Intervallhalbierungsverfahren
Falls die Funktion stetig ist und gilt , dann gibt es eine Nullstelle auf dem Intervall . Wir können das verwenden, um ähnlich wie bei binary-search, in jeder Iteration das Intervall zu halbieren
Falls liegt die Nullstelle im linken Teil und wir setzen . Ansonsten liegt es im rechten Teil und wir arbeiten auf weiter.
Da wir das Intervall in jedem Schritt halbieren, konvergiert die Methode linear mit
und wir können absolute Genauigkeit mit der Wahl erreichen.
Die Methode konvergiert immer (für geeignete Startpunkte), aber langsamer als andere Methoden (wie Newton).
Fixpunkt-Methode
Ein Fixpunkt ist ein Vektor sodass . Anstatt die Lösung zu finden, können wir das Problem zur Gleichung umschreiben und den Fixpunkt suchen. Falls
ist die Fixpunktiteration konsistent. Unsere Iteration wird dann
Diese Methode konvergiert lokal und mindestens linear, falls
Falls kann beides passieren und ansonsten divergiert sie. Wir können die Konvergenz am Fixpunkt also überprüfen, indem wir die erste Ableitung berechnen. In höheren Dimensionen ist die Bedingung (Norm der Jacobi-Matrix).
Wenn (m+1)-mal differenzierbar ist und gilt
dann konvergiert sie lokal mit Ordnung mindestens .
Newton-Verfahren
Wir verwenden die erste Taylor-Approximation und bekommen das Newton-Update
was wie eine Fixpunkt-Methode mit ist. Wenn wir die Ableitung ausrechnen, bekommen wir
und somit ist . Das bedeutet, Newton konvergiert lokal quadratisch. Newton kann aber auch fehlschlagen, falls , der Startpunkt sehr weit weg ist, oder die Funktion nicht differenzierbar ist. Die Newton-Methode funktioniert also nicht global und kann für schlechte Startpunkte irgendwo anders hinspringen.
Sekantenverfahren
Wir wollen (oder können) die Ableitung der Funktion für das Newton-Verfahren nicht auswerten. Stattdessen approximieren wir sie durch die Sekante
und erhalten ein neues Verfahren
Die Konvergenzordnung des Sekantenverfahrens ist (der goldene Schnitt), also konvergiert sie superlinear.
Mehrdimensionales Newton-Verfahren
Wir müssen jetzt einen Vektor finden, sodass . Wieder durch Taylor erhalten wir die Iteration
wobei die Jacobi-Matrix von ist. Wir sollten aber das inverse einer Matrix niemals manuell ausrechnen. Stattdessen lösen wir
und setzen
Wir müssen also in jeder Iteration ein System lösen, was sehr teuer werden kann.
Die Methode konvergiert lokal quadratisch, falls sie zweimal stetig differenzierbar bei und die Jacobi-Matrix invertierbar ist.
Gedämpftes Newton-Verfahren
Das Newton-Verfahren springt manchmal zu weit und divergiert für Ausgangspunkte nicht nahe an der Lösung. Deshalb dämpfen wir jeden Schritt mit einem Dämpfungsfaktor
Je kleiner der Dämpfungsfaktor, desto langsamer nähert sich das Verfahren der Lösung an, aber desto höher ist die Wahrscheinlichkeit, dass es auch konvergiert.
Eine gute Methode, um zu wählen, ist zuerst mit zu starten. Solange das Verfahren erhöht, verkleinern wir den Faktor (zum Beispiel halbieren), solange bis wir uns der Lösung annähern.
Broyden-Quasi-Newton
Anstatt die (teure und möglicherweise schlecht konditionierte) Jacobi-Matrix in jeder Iteration zu berechnen, wollen wir sie approximieren. Die Jacobi-Matrix für jeden Schritt sollte
erfüllen. Wir suchen uns die Matrix (aus allen möglichen) aus, welche am nähesten an der alten ist, also minimiert. Übrigens ist die Frobeniusnorm
Unsere neue Jacobi-Matrix ist in jedem Schritt also
mit und .