Skip to content

Kapitel 5

Wir wollen ein Integral

I=abf(x)dx I = \int_a^b f(x)dx

durch eine Summe

Qn(f)=i=1nwif(ci) Q_n(f) = \sum_{i=1}^n w_i f(c_i)

approximieren. Wir wollen also nur bestimmte Punkte cic_i auswerten und mit wiw_i gewichten. Der Fehler ist

E(n)=IQn(f) E(n) = | I - Q_n(f) |

Eine Quadraturformel konvergiert algebraisch mit Konvergenzordnung pp, falls gilt E(n)=O(1np)E(n) = O(\frac{1}{n^p}) und exponentiell, falls E(n)=O(qn)E(n) = O(q^n).

Das bedeutet, wenn wir nn ver-x-fachen, reduziert sich der Fehler um den Faktor xpx^p. Wir verwenden wieder die Lagrange-Polynome und erinnern uns

li=jixcjcicj,li(cj)=δij,li(x)=1 l_i = \prod_{j \neq i} \frac{x - c_j}{c_i - c_j}, \quad l_i(c_j) = \delta_{ij}, \quad \sum l_i(x) = 1

Wir erhalten dann

f(x)i=1nf(ci)li(x) f(x) \approx \sum_{i=1}^n f(c_i) l_i(x)

und somit

abf(x)dxi=1nwif(ci)mitwi=abli(x) \int_a^b f(x)dx \approx \sum_{i=1}^n w_i f(c_i) \quad \text{mit} \quad w_i = \int_a^b l_i(x)

Die Ordnung einer Quadraturformel ist n+1n+1, falls sie alle Polynome bis Grad nn genau integriert (und erst bei Grad n+1n+1) fehlschlägt.

Eine Quadraturformel auf [1,1][-1,1] ist symmetrisch, falls

wi=wn+1iundci=cn+1i w_i = w_{n+1-i} \quad \text{und} \quad c_i = -c_{n+1-i}

Die Ordnung einer symmetrischen Quadraturformel ist immer gerade.

Regeln

Die Mittelpunkt-Regel lautet

Q(f,a,b)=(ba)f(a+b2) Q(f,a,b) = (b-a) f(\frac{a+b}{2})

und hat Ordnung 2. Die Trapez-Regel

Q(f,a,b)=ba2(f(a)+f(b)) Q(f,a,b) = \frac{b-a}{2} (f(a) + f(b))

hat auch Ordnung 2. Die Simpson-Regel

Q(f,a,b)=ba6(f(a)+4f(a+b2)+f(b)) Q(f,a,b) = \frac{b-a}{6} (f(a) + 4f(\frac{a+b}{2}) + f(b))

hat Ordnung 4. Sie integriert also alle Polynome bis Grad 3 genau. Regeln mit höheren Ordnungen werden in der Praxis nicht auf äquidistanten Punkten verwendet.

Summierte Regeln

Wir unterteilen das Intervall [a,b][a,b] in NN Teile und wenden die Regeln auf jedes Teilintervall mit Länge hh an. Wir haben also die Punkte a=x0,,xn=ba = x_0, \dots, x_n = b Dann summieren wir die Ergebnisse. Das ergibt für die Mittelpunkt-Regel

Qn(f)=hk=0n1f(xk+xk+12) Q^n (f) = h \sum_{k=0}^{n-1} f(\frac{x_k + x_{k+1}}{2})

Für die Trapez-Regel

Qn(f)=h2(f(a)+2i=1n1f(xi)+f(b)) Q^n(f) = \frac{h}{2} (f(a) + 2 \sum_{i=1}^{n-1} f(x_i) + f(b))

Für die Simpson-Regel

Qn(f)=h6i=0n1(f(xi)+4f(xi+xi+12)+f(xi+1)) Q^n(f) = \frac{h}{6} \sum_{i=0}^{n-1} (f(x_i) + 4 f(\frac{x_i + x_{i+1}}{2}) + f(x_{i+1}))

Monte-Carlo Quadratur

Wir approximieren

abf(x)dx1ni=1nf(xi) \int_a^b f(x)dx \approx \frac{1}{n} \sum_{i=1}^n f(x_i)

wobei wir die xix_i zufällig gleichverteilt aus [a,b][a,b] wählen. Monte-Carlo konvergiert zwar langsam, lässt sich aber einfach auch in höheren Dimensionen einsetzen.

Fehler

Wir unterscheiden zwischen lokalem und globalem Fehler. Wenn wir summierte Regeln verwenden, hat jedes Intervall einen lokalen Fehler, der mit h=(ba)/Nh = (b-a)/N skaliert. Der globale gesamte Fehler ist dann aber NElocalN * E_{local}, was einen Faktor hh wegnimmt.

Die Mittelpunkt- und Trapez-Regeln haben lokalen Fehler O(h3)O(h^3) und global O(h2)O(h^2). Die Simpson-Regel lokal O(h5)O(h^5) und global O(h4)O(h^4). Beide konvergieren algebraisch. Sehr schnelle (exponentielle) Konvergenz tritt meistens nur auf, wenn die Funktion sehr glatt oder periodisch ist.

Romberg (Richardson Extrapolation)

Bei algebraischer Konvergenz haben wir

E(h/2)E(h)2p E(h/2) \approx \frac{E(h)}{2^p}

Wir können das verwenden, um den genauen Wert zu extrapolieren, ohne die Funktion noch einmal auswerten zu müssen. Wenn wir wissen, dass QhI+E(h)Q_h \approx I + E(h) und Qh/2I+E(h)/4Q_{h/2} \approx I + E(h)/4, dann können wir eine Abschätzung für den Fehler erhalten und diesen von Qh/2Q_{h/2} abziehen.

Die Romberg Integration verwendet dieselbe Idee wie die Konvergenzbeschleunigung nach Richardson aus Kapitel 1. Da die Trapezregel symmetrisch ist und nur gerade Potenzen von hh im Fehler hat, können wir das Schema hier anwenden.

Wir haben Rl,0=T(2l)R_{l,0} = T(2^l) wobei T(n)T(n) die approximation mit nn Punkten ist. Wir starten bei l=1l=1 und berechnen die Werte durch DP mit

Rl,k=4kRl,k1Rl1,k14k1 R_{l,k} = \frac{4^kR_{l,k-1} - R_{l-1,k-1}}{4^k-1}

Wir können dabei für Rl+1,0R_{l+1,0} die alten Punkte von Rl,0R_{l,0} wiederverwenden. Romberg funktioniert sehr gut, wenn die Funktion sehr glatt ist und keine Rundungsfehler hh dominieren.

Gauss (5.5.1)

Wir wollen jetzt die Knoten cic_i so wählen, dass wir eine Quadraturformel mit maximaler Ordnung bekommen. Wir sind damit beschränkt, dass die maximale Ordnung einer Formel auf ss Knoten 2s2s sein kann.

Ähnlich wie bei Gram-Schmidt können wir für ein Intervall [a,b][a,b] (und ein paar anderen speziellen Eigenschaften bezüglich einer Gewichtsfunktion w(x)w(x)) eine Folge von Polynomen pk(x)p_k(x) bauen, die jeweils auf die vorherigen orthogonal sind. Dabei gilt deg(pk)=k\deg(p_k) = k. Wenn wir ss Knoten brauchen, dann sind diese Knoten c1,,csc_1, \dots, c_s genau die Nullstellen von psp_s.

Für zwei Wahlen von Intervallen und Eigenschaften bekommen wir die Legendre-Polynome und die Hermite-Polynome. Die Gauss-Legendre Quadratur geht auf [1,1][-1,1] und für Gewicht w(x)=1w(x)=1.

Die Gauss-Knoten sind nicht verschachtelt und nicht äquidistant. (Wir können also bei höheren Ordnungen nicht die vorherigen Knoten wiederverwenden. Das ist ein Nachteil der Methode.)

Wir haben jetzt also die ss Knoten. Um die Gewichte für die Gauss-Legendre Quadratur auf [1,1][-1,1] zu berechen, brauchen wir die Lagrange Polynome. Das Gewicht bib_i für f(ci)f(c_i) ist

bi=11li(x)dx b_i = \int_{-1}^1 l_i(x)dx

Für ein anderes Referenzintervall geht das Integral über dieses Intevall. Die Gewichte sind immer positiv.

Beispiel: Wir wollen mit gleichmässigem Gewicht w(x)=1w(x)=1 auf [1,1][-1,1] integrieren mit zwei Knoten. Wir bekommen das zweite Legendre Polynom p2(x)=(3x21)/2p_2(x) = (3x^2 - 1)/2. Die Nullstellen (unsere Punkte) sind ±1/3\pm 1/\sqrt{3}. Für die Gewichte bekommen wir 1 an beiden Punkten.

Eigenschaften: Die Ordnung auf ss Knoten ist 2s2s. Wir können die Knoten in O(s)O(s) berechnen. Auf sehr glatten Funktionen konvergiert Gauss

Clenshaw-Curtis

Clenshaw-Curtis verwendet die Chebyshev-Abszissa als Knoten. Es verwendet die FFt und läuft für 2s2s Knoten in O(slog(s))O(s\log(s)), konvergiert auch exponentiell, aber etwas langsamer als Gauss.

Adaptive Quadratur

Wir wollen unsere Messpunkte so verwenden, dass wir einen kleinen Fehler erhalten. Die Idee ist, dass wir an stellen mit höherer Krümmung (Variation in der Funktion) mehr Punkte einsetzen und an “nicht so interessanten” Stellen weniger Punkte.

Um den lokalen Fehler in einem Intervall zu schätzen, werten wir es mit der Trapez- und (der genaueren) Simpson-Regel aus. Dann vergleichen wir beide Werte. Wenn der Unterschied gross ist, ist der Fehler wahrscheinlich hoch und wir fügen an dieser Stelle einen neuen Punkt ein (welchen wir bei der Simpson-Regel eh schon ausgewertet haben).

Dünne Gitter

Wir können ein Integral in einem d-dimensionalen Raum naiv durch ndn^d Auswertungen approximieren. Dies ist aber sehr teuer und die Konvergenz verschlechtert sich für höhere Dimensionen. Es tritt auch der Fluch der Dimensionen auf. In dd Dimensionen ist die Konvergenzrate nur noch O(Nr/d)O(N^{-r/d}) für eine Quadraturformel mit eindimensionaler Konvergenzrate rr.

Dünne Gitter benötigen weniger Punkte als der naive Ansatz.

Monte-Carlo

Wir approximieren

01f(x)dx1Ni=1Nf(xi) \int_0^1 f(x)dx \approx \frac{1}{N} \sum_{i=1}^N f(x_i)

wobei die Punkte xix_i gleichverteilt zufällig aus [0,1][0,1] gewählt sind. Für ein Intervall [a,b][a,b] gibt das

abf(x)dxbaNi=1Nf(zi) \int_a^b f(x)dx \approx \frac{b-a}{N} \sum_{i=1}^N f(z_i)

wobei zi=a+xi(ba)z_i = a + x_i(b-a).

Je kleiner die Varianz der Methode, desto besser ist die Approximation. Ein Vertrauensintervall wird für jede Schätzung berechnet. Wenn wir ein Vertrauensintervall mit Wahrscheinlichkeit X Prozent haben, dann wird bei sehr vielen Schätzungen bei X Prozent davon der wahre Wert in dem Intervall für diese Schätzung liegen.

Je kürzer das Vertrauensintervall, desto niedriger die Wahrscheinlichkeit, dass der Wert darin liegt. Um ein besseres zu erhalten, müssen wir die Varianz verkleinern oder NN vergrössern.

Vorteile/Nachteile: Die Monte-Carlo Quadratur ist nützlich, da sie auch für hohe Dimensionen oder unglatte Funktionen funktioniert und eine kurze Laufzeit hat. Sie konvergiert nur langsam mit O(N1/2)O(N^{-1/2}), aber dafür unabhängig von der Dimension. Es gibt kein Runge-Phänomen. Sie ist probabilistisch.

Reduktion der Varianz

Bei Control Variates nehmen wir eine Funktion ϕ(t)\phi(t) und integrieren

01f(t)dt=01f(t)ϕ(t)dt+01ϕ(t)dt \int_0^1 f(t)dt = \int_0^1 f(t) - \phi(t)dt + \int_0^1 \phi(t)dt

Wir wählen eine leicht integrierbare Funktion mir Integral IϕI_\phi und haben

011Ni=1N(f(xi)ϕ(xi))+Iϕ \int_0^1 \approx \frac{1}{N} \sum_{i=1}^N (f(x_i) - \phi(x_i)) + I_\phi

Wenn wir ϕf\phi \approx f wählen, dann können wir den wichtigsten Teil von ff genau berechnen und den Rest durch Monte-Carlo. Zum Beispiel können wir die ersten (grössten) Terme einer Summe nehmen.

Beim Importance Sampling verwenden wir eine neue Dichtefunktion gg für die Zufallsvariablen. (Sie sind also nicht mehr gleich-, sondern nach gg verteilt.) Wir approximieren dann

[0,1]df(x)dx=1Ni=1Nf(xi)g(xi) \int_{[0,1]^d} f(x)dx = \frac{1}{N} \sum_{i=1}^N \frac{f(x_i)}{g(x_i)}

Wir wollen gg so wählen, dass die Werte, wo ff gross ist, eine höhere Wahrscheinlichkeit bekommen.

Die Quasi Monte-Carlo Methoden verwenden anstatt “wirklichen” Zufallszahlen quasi-zufällige Sequenzen. In dd Dimensionen nimmt der Fehler dann mit O(N1log(N)d)O(N^{-1}\log(N)^d) ab. Für kleine Dimensionen ist das sehr gut, für sehr grosse Dimensionen aber oft nicht mehr.

Für sehr komplizierte Funktionen brauchen wir oft einen Ansatz mit Fourier-Analyse.