EU Regional School 2020 Teil 2

 

Kurs 6 – Prof. Leszek Demkowicz, Ph.D. – The Discontinuous Petrov-Galerkin (DPG) Method (with Optimal Test Functions)

Der 3-stündige Kurs wird die Grundlagen der DPG-Methode abdecken:

  1. Drei Hüte der idealen und praktischen Petrov-Galerkin-Methode mit optimalen Testfunktionen.
  2. Brechen von Testräumen und Formen
  3. Implementierungsaspekte und Berechnungsbeispiele

Die Präsentation basiert auf dem Kapitel in [1]

[1] L. Demkowicz, „Lecture Notes on Mathematical Theory of Finite Elements“,

Oden Institute Report 2020/11, May 2020

 
Video abspielen
Vortrag von Professor Demkowicz
 

Kurs 8 – Prof. Dr. Felix Krahmer – Structure and Randomness in Data Science

Das Ziel dieses kurzen Kurses ist es sie davon zu überzeugen, dass eine schlaue Kombination von Struktur und Zufälligkeit sehr nützlich für viele wissenschaftliche Datenanwendungen ist, inklusive Erfassung und Sammlung von Daten, Dimensionsreduktion und Rechenaufgaben.

Zufälligkeit kann helfen, da zufällige Parameterauswahl aufgrund von Konzentrationsphänomenen oft mit hoher Wahrscheinlichkeit zu einer guten Konditionierung führt, während die Struktur entweder durch Anwendungen auferlegt wird oder die Berechnungen durchführbarer macht. Hier kann die Rolle der Zufälligkeit eine zweifache sein. Einerseits kann Zufälligkeit dabei helfen, deterministische Eigenschaften zu etablieren, die zu komplex sind, um für irgendwelche deterministischen Konstruktionen verstanden zu werden. Beispielsweise ist eine ausreichende Bedingung für eine garantierte Wiederherstellung von schwach besetzten Signalen bei der kompressiven Erfassung die sogenannte eingeschränkte Isometrieeigenschaft, die gilt, wenn die Erfassungsmatrix als ungefähre Isometrie auf schwach besetzten Vektoren wirkt. Es ist bekannt, dass diese Eigenschaft für Zufallsmatrizen mit einer nahezu linearen Einbettungsdimension im Sparsity-Level mit hoher Wahrscheinlichkeit gilt, während bisher keine vergleichbare deterministische Konstruktion bekannt ist. Diese Denkweise kann auch bei der Analyse stochastischer partieller Differentialgleichungen hilfreich sein.

In vielen Anwendungen rund ums Rechnen spielt die Zufälligkeit dagegen eine weitere wesentliche Rolle: Eine zufällige Vorverarbeitung der Daten, wie etwa eine zufällige Projektion oder ein zufälliges Subsampling, kann es ermöglichen, hochdimensionale Probleme auf niederdimensionale Probleme zu reduzieren, die effizienter gelöst werden können. In den meisten dieser Szenarien sind vergleichbare deterministische Konstruktionen nicht durchführbar, da bei jeder Realisierung der Vorverarbeitungsoperation das Verfahren für einige Datensätze fehlgeschlagen wird. Die Rolle der Zufälligkeit in diesem Zusammenhang besteht darin, dass sie eine Methode, die für die meisten Instanzen funktioniert – was nutzlos sein kann, da der tatsächliche Datensatz eine der schlechten Instanzen sein kann – in eine Methode übersetzt, die für jeden Datensatz mit hoher Wahrscheinlichkeit funktioniert. Die Struktur ist wichtig, um sicherzustellen, dass die Vorverarbeitung effizient bleibt und ihre Rechenkomplexität die der auszuführenden Aufgabe nicht übersteigt. Beispiele für Probleme, bei denen diese Strategie von Nutzen ist, umfassen die Suche nach dem nächsten Nachbarn und die Hauptkomponentenanalyse.

Im Kurs geben wir einen Überblick über Beispiele dieser beiden Paradigmen aus verschiedenen Anwendungsbereichen und stellen auch einige Schlüsselideen der zugrunde liegenden mathematischen Theorie vor.

 
Video abspielen
Vortrag von Professor Krahmer