EU Regional School 2021 Teil 1

 
 

Kurs 1 – Prof. Irene Gamba, Ph.D. – Non-linear Boltzmann type models in Collisional Theory

Diese Einführungsvorlesungen konzentrieren sich auf einen einheitlichen Ansatz zur Analyse der Haupteigenschaften von Teilchenwechselwirkungen binärer Natur und ihre Verbindungen zur statistischen Physik und Thermodynamik.

Wir werden uns auf die Modellstruktur und häufige Merkmale konzentrieren, unabghängig davon, ob sie den klassischen, elastischen oder inelatischen monoatomaren Gasen oder der komplexeren Dynamik von mehratomigen Gasen sowie Gasgemischen mit unterschiedlichen Massen entsprechen.

Wir konzentrieren uns auf den Rahmen, der sich natürlich bei der Modellierung von Teilchendichtefunktionen ergibt, die Gewinn- und Verlustraten unterliegen, wenn solche Teilchen in einem binären Gesetz interagieren, sowie auf die Übergangswahrscheinlichkeitsraten (oder Streumechanismen) als natürlichen Stabilisierungsmechanismus, der es uns ermöglicht, Lösungen zu konstruieren, ihre Eindeutigkeitseigenschaften und ihr Langzeitverhalten in geeigneten funktionalen (Banach-) Räumen zu untersuchen, die mit der Beschreibung der Entwicklung von Teilchenwahrscheinlichkeitsdichten assoziiert sind, auf die Form der Wahrscheinlichkeitsdichteschwänze, die durch Polynom- oder Exponentialmomente und Fourier-Transformationsstruktur bezeichnet werden.

Von besonderer Bedeutung ist das Verständnis der Rolle von Streumechanismen in den analytischen Eigenschaften solcher Lösungen, um von der Banach-Raumstruktur in die Sobolev- (oder Hilbert-) Strukturen heben zu können. Diese Beobachtung spielt eine grundlegende Rolle bei den Approximationen durch endlich erzeugte Funktionen, die in beschränkten Domänen unterstützt werden, den numerische Näherungen, sowie Fehlerschätzungen. Zum Ende hin werden wir uns auf die spezielle Aufgabe konzentrieren, die Weidekollisionsgrenze zu verstehen, die das Landau-Modell erhöht.

Die Vorlesung wird durch die jüngste numerische Implementierung durch die Präsentation von hybriden numerischen Solvern zweier Arten unterstützt: konservativ spektralbasiert und Finite-Element-Method (FEM)-basiert für die Bolzmanngleichung binärer Wechselwirkungen.

Die Werkzeuge der Funktionsanalyse ermöglichen den Nachweis von Konsistenzschemata, die Konstruktion von Fehlerschätzungen und die Konvergenz zu statistischen Gleichgewichtsergebnissen, sowohl in der konservativen Spektralmethode als auch nach dem Petrov-Galerkin-FEM-Ansatz.

 
Video abspielen
Vortrag von Professorin Gamba
 
 

Kurs 2 – Prof. Dr. Andreas Fichtner – Probabilistic Full-Waveform Inversion

Im Verlauf des letzten Jahrzehnts ist die Vollwellenforminversion von einem weitgehend idealistischen Traum zu einer häufig angewandten Methode gereift, um die innere Struktur unzugänglicher Körper abzubilden. Trotz unbestreitbarer Erfolge bleibt ein großes Problem bestehen: Die Quantifizierung von Unsicherheiten in diesem oft stark nichtlinearen inversen Problemen.

In diesem Vortrag werde ich eine Reihe von Berechnungsansätzen vorstellen, die die probabilistische Vollwellenforminversion mit vollständiger Unsicherheitsquantifizierung in Reichweite bringen:

  1. Die Hamiltonsche Monte-Carlo-Stichprobe der posterioren Wahrscheinlichkeitsdichte behandelt Modellparameter als Teilchen, die durch den Modellraum kreisen und dabei den Hamiltonschen Gleichungen aus der klassischen Mechanik gehorchen. Die Skalierungseigenschaften des Hamiltonschen Monte Carlo erlauben es uns, hochdimensionale Modellräume zu betrachten, die mit traditionelleren, ableitungsfreien Stichprobenahmeverfahren oft nicht berücksichtigt werden können.
  2. Autotuning, das auf Quasi-Newton-Methoden mit begrenztem Speicher basiert, liefert nahezu optimale Massenmatrizen für das Hamiltonsche Monte Carlo und eliminiert dadurch die mühsame manuelle Justierung weitgehend. Insbesondere eine faktorisierte Version des L-BFGS-Algorithmus kann den effektiven Stichprobenumfang um mehr als eine Größenordnung erhöhen.
  3. Wellenfeldangepasste Spektralelementnetze nutzen Vorkenntnisse über die Geometrie von Wellenfeldern. Solche Vorkenntnisse liegen häufig für Medien vor, die im Verhältnis zur Minimalwellenlänge glatt sind. Wellenfeldangepasste Netze haben das Potenzial, die Anzahl der Elemente drastisch zu senken, was zu rechnerischen Vorwärtsmodellierungskosten führt, die Monte Carlo Stichproben ermöglichen.
 
Video abspielen
Vortrag von Professor Fichtner
 
 

Kurs 3 – Steve Lionel – Modern Fortran: Features for High-Performance Computing

Fortran mag zwar mehr als sechzig Jahre alt sein, aber es ist gewachsen und hat sich über die Jahrzehnte stark verändert. Steve Lionel, früherer Fortran Compiler Entwickler und jetziger Chef des ISO Fortran standards commitee (ISO/IEC JTC1/SC22/WG5), wird einen Überblick über die Funktionen die zur Fortran Sprache seit FORTRAN-77 hinzugefügt wurden, mit Schwerpunkt auf den Funktionen, die die Produktivität der Programmierenden und Hochleistungsrechnen fördern. Es wird Zeit für Fragen geben.

 
Video abspielen
Vortrag von Herrn Lionel
 
 

Kurs 4 - Prof. Tan Bui-Thanh Ph.D. - On Unifying Randomized Methods for Inverse Problems

Two hundreds years ago James Clerk Maxwell stated: „…Therefore the true logic for this world is the calculus of Probabilities…“ The question is not if we agree with this statement—as there will not be a unique subjective answer— but how this statement, 200 years later, could precisely reflect the language of people, the language of sciences, and the language of computation. We adapt Frank Lad’s arguments on why probability is the language of people and the language of science. We then show that we have adapted the language of probability via randomization, to our advantages, to simplify and to speed up scientific computations to advance the progress of sciences. In particular, we shall present a unified randomized framework that not only recovers many existing randomized inverse methods but also discovers new ones. Constructive derivations, rigorous analyses, and applications will be presented.

 
Video abspielen
Video der Vorlesung von Prof. Than-Bui Thanh, P.Dh.
 
 

Kurs 5 – Prof. Dr. Martin Frank – Uncertainty Quantification for Hyperbolic Conservation Laws

Die Quantifizierung der Ausgangsunsicherheiten eines Berechnungsmodells ist ein wichtiger Schritt, um das Modell vorhersagbar zu machen. Hyperbolische Erhaltungssätze sind eine Klasse von Modellen mit vielen Anwendungen, aber auch mit spezifischen Herausforderungen (wie diskontinuierliche Lösungen oder Nicht-Eindeutigkeit schwacher Lösungen). In diesem Kurs werden wir kurz die Theorie und die numerischen Methoden für hyperbolische Erhaltungssätze im Hinblick auf unsichere Daten besprechen. Wir geben auch einen Überblick über verschiedene Methoden zur Quantifizierung von Unsicherheiten, bevor wir eine spezielle Klasse von entropiebasierten stochastischen Galerkin-Methoden näher betrachten und Wege aufzeigen, wie diese Methoden wettbewerbsfähig gemacht werden können.

 
Video abspielen
Video der Vorlesung von Prof. Dr. Wolfgang Dahmen