Projekte der Fakultät
Aktuelle Projekte
Mathematische Komplexitätsreduktion (GRK 2297)
Laufzeit: 01.04.2017 bis 31.03.2026
Das Projekt wird von den genannten Principal Investigators getragen. Diese sind den Instituten für Mathematische Optimierung (Kaibel, Sager), für Algebra und Geometrie (Kahle), für Mathematische Stochastik (Kirch, Janßen) und für Analysis und Numerik (Benner, Richter, Heiland) der Fakultät zugeordnet. Benner ist zudem Direktor des Max-Planck Institutes für Dynamik komplexer technischer Systeme. Die Fakultät für Elektrotechnik und Informationstechnik ist über Findeisen beteiligt.
Im Kontext des vorgeschlagenen Graduiertenkollegs (GK) verstehen wir Komplexität als eine intrinsische Eigenschaft, die einen mathematischen Zugang zu einem Problem auf drei Ebenen erschwert. Diese Ebenen sind eine angemessene mathematische Darstellung eines realen Problems, die Erkenntnis fundamentaler Eigenschaften und Strukturen mathematischer Objekte und das algorithmische Lösen einer mathematischen Problemstellung. Wir bezeichnen alle Ansätze, die systematisch auf einer dieser drei Ebenen zu einer zumindest partiellen Verbesserung führen, als mathematische Komplexitätsreduktion.
Für viele mathematische Fragestellungen sind Approximation und Dimensionsreduktion die wichtigsten Werkzeuge auf dem Weg zu einer vereinfachten Darstellung und Rechenzeitgewinnen. Wir sehen die Komplexitätsreduktionin einem allgemeineren Sinne und werden zusätzlich auch Liftings in höherdimensionale Räume und den Einfluss der Kosten von Datenerhebungen systematisch untersuchen. Unsere Forschungsziele sind die Entwicklung von mathematischer Theorie und Algorithmen sowie die Identifikation relevanter Problemklassen und möglicher Strukturausnutzung im Fokus der oben beschriebenen Komplexitätsreduktion.
Unsere Vision ist ein umfassendes Lehr- und Forschungsprogramm, das auf geometrischen, algebraischen, stochastischen und analytischen Ansätzen beruht und durch effiziente numerische Implementierungen komplementiert wird. Die Doktorandinnen und Doktoranden werden an einem maßgeschneiderten Ausbildungsprogramm teilnehmen. Dieses enthält unter anderem Kompaktkurse, ein wöchentliches Seminar und ermutigt zu einer frühzeitigen Integration in die wissenschaftliche Community. Wir erwarten, dass das GK als ein Katalysator zur Etablierung dieser erfolgreichen DFG-Ausbildungskonzepte an der Fakultät für Mathematik dienen und zudem helfen wird, die Gleichstellungssituation zu verbessern.
Die Komplexitätsreduktion ist ein elementarer Aspekt der wissenschaftlichen Hintergründe der beteiligten Wissenschaftler. Die Kombination von Expertisen unterschiedlicher mathematischer Bereiche gibt dem GK ein Alleinstellungsmerkmal mit großen Chancen für wissenschaftliche Durchbrüche. Das GK wird Anknüpfungspunkte an zwei Fakultäten der OVGU, an ein Max Planck Institut und mehrere nationale und internationale Forschungsaktivitäten in verschiedenen wissenschaftlichen Communities haben. Die Studierenden im GK werden in einer Fülle von mathematischen Methoden und Konzepten ausgebildet und erlangen dadurch die Fähigkeit, herausfordernde Aufgaben zu lösen. Wir erwarten Erfolge in der Forschung und in der Ausbildung der nächsten Generation führender Wissenschaftler in Akademia und Industrie.
IntelAlgen: Intelligente Techniken und Algorithmen für neue Ressourcen aus Algen-Biomasse (TP Maschinelles Lernen)
Laufzeit: 01.04.2024 bis 31.12.2027
Ziel von intelAlgen ist die Erarbeitung von Algorithmen zur Symbolischen Regression, die bei der mathematischen Modellierung von komplexen, unverstandenen Wachstumsdynamiken von Algen eingesetzt werden sollen. Diese Modelle sollen gemeinsam mit den Kooperationspartnern Rinke und Riihko-Struckmann auch zur Untersuchung einer optimierten Produktion von Algen eingesetzt werden.
timingMatters: Klinische Entscheidungsunterstützung durch Digital Twins
Laufzeit: 01.04.2024 bis 31.12.2027
Ziel von timingMatters ist die Entwicklung 1) von mathematischen Modellen für akute myeloische Leukämie, akute lymphoblastische Leukämie und andere systemische Krankheiten und das Training dieser Modelle mit Patientendaten und 2) von Algorithmen, um eine individuelle klinische Entscheidungshilfe zu ermöglichen.
Optimales Design für allgemeine lineare gemischte Modelle
Laufzeit: 01.01.2024 bis 30.06.2025
In vielen Anwendungssituationen, insbesondere bei klinischen Untersuchungen, können oft mehrere Beobachtungen bei einzelnen Untersuchungseinheiten gemacht werden. Die Beobachtungen innerhalb einer Untersuchungseinheit können dann zumeist nicht mehr als unabhängig angesehen werden. Ein gängiger Ansatz ist dann, gemischte Modelle zu betrachten, die neben den interessierenden festen Effekten der erklärenden Variablen auch zufällige, einheitenspezifische Effekte berücksichtigen. Ziel des vorliegenden Projekts ist es, unter allgemein gehaltenen Modellannahmen, die sowohl Modelle mit zufälligen Koeffizienten, bei denen einige oder alle festen Effekte mit einheitenspezifischen zufälligen Abweichungen versehen sind, als auch longitudinale Beobachtungsmodelle, bei denen zusätzlich zufällige Zeiteffekte auftreten können, umfassen, Charakterisierungen optimaler Versuchsanordnungen zur Bestimmung der festen Effekte zu erhalten.
Optimale Versuchspläne für Thurstone’sche IRT-Modelle
Laufzeit: 01.10.2024 bis 30.09.2027
Die grundlegenden Ziele dieses Projekts bestehen darin, optimale Versuchspläne für Thurstone´sche IRT-Modelle mit metrischen, binären und ordinalen Antworten zu entwickeln und analytisch zu charakterisieren, die eine hinreichend gute Schätzung der Traitscores erlauben. Zudem sollen binäre Paarvergleiche, die aus Rangreihen mit mehr als zwei Alternativen abgeleitet wurden, berücksichtigt werden. Optimale Versuchspläne sind im vorliegenden Fall dadurch definiert, dass Kombinationen solcher Werte von Itemparametern, Faktorladungen und Interzepts, bestimmt werden, die a-priori festgelegte Gütekriterien, wie z.B. Korrelation der geschätzten und wahren Traitscores, optimieren. Damit diese Modelle für die Personalauswahl sinnvoll eingesetzt werden können, sind lediglich positive Faktorladungen zugelassen. Diese Notwendigkeit, die aus Resultaten von Simulationsstudien folgt, erfordert die analytische Entwicklung neuartiger optimaler Versuchspläne. Über die in bisherigen einschlägigen Arbeiten entwickelten optimalen Designs hinausgehend sind hier insbesondere drei Anforderungen zu berücksichtigen: (a) die spezifische Form der Nichtlinearität, (b) die Einschränkung des Versuchsbereichs und © die Einschränkung, dass die Alternativen jeweils auf unterschiedlichen Faktoren laden. Damit die aus dem geplanten Projekt gewonnenen analytischen Erkenntnisse in der Praxis benutzerfreundlich umgesetzt werden können, soll ein entsprechendes R-Programm mit einer Shiny-Umgebung entwickelt werden.
Optimales Design für Referenzkurven in der medizinischen Diagnostik
Laufzeit: 01.07.2024 bis 30.06.2025
In der medizinischen Diagnostik spielen Referenz- oder Normwertkurven eine wichtige Rolle zur Detektion pathologischer Abweichungen, die auf eine Erkrankung oder eine Schädigung hinweisen. Derartige Referenzkurven werden auf der Basis von Messungen bei gesunden Probanden erstellt. Bei der Erstellung ist sowohl die Variabilität innerhalb einzelner Probanden als auch zwischen verschiedenen Probanden zu berücksichtigen, um valide Vorhersagebereiche zu erhalten. Hierzu können geeignete hierarchische Modelle verwandt werden, die die wesentlichen Charakteristika der für die Diagnostik benutzten Zielgröße in Abhängigkeit von einer oder mehrerer Kovariablen beschreiben. Ziel des vorliegenden Projekts ist es, im Hinblick auf die Sensitivität des resultierenden diagnostischen Verfahrens Kalibrierungsexperimente so zu planen, dass möglichst präzise Referenzbereiche unauffälliger Abweichungen bestimmt werden können.
Planung von Ringversuchen zur Bestimmung der Nachweisgrenze bei PCR-Tests
Laufzeit: 01.09.2021 bis 31.03.2025
PCR-Tests stellen hochsensitive Verfahren zum Nachweis von Nukleinsäuren dar. Diese Verfahren haben in den letzten Jahren eine weitgehende Akzeptanz bei routinemäßigen Tests erreicht, aber es bedarf weiterer Untersuchungen, um ihre Leistungsfähigkeit zu bewerten. Ein wichtiger Punkt ist dabei die Bestimmung der Nachweisgrenze, die als Maß für die Sensitivität des Verfahrens dient. Diese Nachweisgrenze kann in Ringversuchen bestimmt werden. Die dabei erhaltenen Ergebnisse werden sich jedoch gewöhnlich zwischen Laboren unterscheiden. Die am Ringversuch beteiligten Labore können als Repräsentanten aller Labore betrachtet werden, die dieses Verfahren anwenden. Die Variabilität zwischen den Laboren kann dann mit Hilfe von zufälligen Effekten modelliert werden. Ziel des vorliegenden Projekts ist es, optimale oder zumindest effiziente Versuchsanordnungen zur Schätzung der Modellparameter, zur Bewertung der Laboreinflüsse und zur bestmöglichen Bestimmung der Nachweisgrenze zu entwickeln.
Optimales Design für Sphärische Versuchsbereiche (II)
Laufzeit: 01.10.2019 bis 31.12.2024
Die Gültigkeit statischer Modelle ist oft auf einen lokalen Bereich der eklärenden Variablen beschränkt. Dieser wird in vielen Anwendungsbereichen als rechteckig angenommen, d.h. die erklärenden Variablen können unabhängig voneinander variieren. In manchen Situationen sind jedoch sphärische Bereiche sinnvoller, die durch einen beschränkten Euklidischen oder Mahalanobis-Abstand zu einem zentralen Punkt für die Versuchseinstellungen beschrieben werden können.
Ziel der Versuchsplanung ist es, optimale oder zumindest effiziente Einstellungen für die erklärenden Variablen zu bestimmen, um die Qualität der statistischen Analyse zu optimieren. Beim Vorliegen klassischer linearer Regressionsmodelle sind Charakterisierungen optimaler Designs für sphärische Versuchsbereiche mit Hilfe von Invarianzen und Symmetrien schon seit längerem bekannt. Fragestellung dieses Projekts ist es, für die in der statistischen Praxis zunehmend verwendeten verallgemeinerten linearen Modelle bzw. nichtlinearen Modelle optimale Designs auf derartigen sphärischen Versuchsbereichen zu bestimmen. Erste Ergebnisse für Poisson-verteilte Zähldaten zeigen deutliche Abweichungen der hierfür benötigten optimalen Designs von denjenigen für klassische lineare Modelle.
Optimales Sampling Design für Big Data (II)
Laufzeit: 01.04.2024 bis 05.12.2024
Dank moderner Informationstechnologie besteht heutzutage die Möglichkeit, riesige Datenmengen zu sammeln, die sowohl im Hinblick auf die Anzahl der Beobachtungseinheiten (Umfang des Datensatzes) als auch hinsichtlich der Anzahl der Merkmale (multivariate Beobachtungen) von immenser Dimension sind und die häufig als massive Daten oder "Big Data” bezeichnet werden. Die reine Verfügbarkeit derartiger Big Data führt jedoch nicht zwangsläufig zu neuen Erkenntnissen über kausale Zusammenhänge innerhalb der Daten. Stattdessen kann die schiere Masse an Daten ernsthafte Probleme bei der statistischen Analyse verursachen. Zudem sind in vielen Situationen Teile (gewisse Merkmale) in den Daten einfach oder kostengünstig zu beobachten, während die Ausprägungen anderer, besonders interessierender Merkmale nur schwierig oder mit großen Kosten zu erhalten sind. Daher sind Vorhersagen für die Ausprägungen kostenintensiver Merkmale wünschenswert. Dieses kann mit klassischen statistischen Methoden erreicht werden, wenn für eine geeignete Teilstichprobe sowohl die Ausprägungen für die einfach als auch für die schwierig zu beobachtenden Merkmale verfügbar sind. Um Kosten zu reduzieren und/oder die Genauigkeit der Vorhersage zu verbessern, besteht ein Bedarf an optimalen Auswahlverfahren für Stichproben. In diesem Kontext können Konzepte aus der ursprünglich für technische Experimente entworfenen Theorie optimaler Designs unkonventionell genutzt werden, um effiziente Strategien für die Stichprobenauswahl zu entwickeln. Grundlegende Konzepte wie Relaxation auf stetige Verteilungen der Daten und Symmetrieeigenschaften können dabei zu einer wesentlichen Reduktion der Komplexität und somit zu praktikablen Lösungen führen. Ziel des vorliegenden Projekts ist es, diese allgemeinen Ideen zu konkretisieren und sie auf ein solides theoretisches Fundament zu stellen, um sie somit für die Auswertung realer Datensätze verwertbar zu machen.
Abgeschlossene Projekte
Mathematisches Komplexitätsreduktion (GRK 2297/1)
Laufzeit: 01.04.2017 bis 30.09.2021
Das Projekt wird von den genannten Principal Investigators getragen. Diese sind den Instituten für Mathematische Optimierung (Averkov, Kaibel, Sager), für Algebra und Geometrie (Kahle, Nill, Pott), für Mathematische Stochastik (Kirch, Schwabe) und für Analysis und Numerik (Benner) der Fakultät zugeordnet. Benner ist zudem Direktor des Max-Planck Institutes für Dynamik komplexer technischer Systeme. Die Fakultät für Elektrotechnik und Informationstechnik ist über Findeisen beteiligt.
Im Kontext des vorgeschlagenen Graduiertenkollegs (GK) verstehen wir Komplexität als eine intrinsische Eigenschaft, die einen mathematischen Zugang zu einem Problem auf drei Ebenen erschwert. Diese Ebenen sind eine angemessene mathematische Darstellung eines realen Problems, die Erkenntnis fundamentaler Eigenschaften und Strukturen mathematischer Objekte und das algorithmische Lösen einer mathematischen Problemstellung. Wir bezeichnen alle Ansätze, die systematisch auf einer dieser drei Ebenen zu einer zumindest partiellen Verbesserung führen, als mathematische Komplexitätsreduktion.
Für viele mathematische Fragestellungen sind Approximation und Dimensionsreduktion die wichtigsten Werkzeuge auf dem Weg zu einer vereinfachten Darstellung und Rechenzeitgewinnen. Wir sehen die Komplexitätsreduktionin einem allgemeineren Sinne und werden zusätzlich auch Liftings in höherdimensionale Räume und den Einfluss der Kosten von Datenerhebungen systematisch untersuchen. Unsere Forschungsziele sind die Entwicklung von mathematischer Theorie und Algorithmen sowie die Identifikation relevanter Problemklassen und möglicher Strukturausnutzung im Fokus der oben beschriebenen Komplexitätsreduktion.
Unsere Vision ist ein umfassendes Lehr- und Forschungsprogramm, das auf geometrischen, algebraischen, stochastischen und analytischen Ansätzen beruht und durch effiziente numerische Implementierungen komplementiert wird. Die Doktorandinnen und Doktoranden werden an einem maßgeschneiderten Ausbildungsprogramm teilnehmen. Dieses enthält unter anderem Kompaktkurse, ein wöchentliches Seminar und ermutigt zu einer frühzeitigen Integration in die wissenschaftliche Community. Wir erwarten, dass das GK als ein Katalysator zur Etablierung dieser erfolgreichen DFG-Ausbildungskonzepte an der Fakultät für Mathematik dienen und zudem helfen wird, die Gleichstellungssituation zu verbessern.
Die Komplexitätsreduktion ist ein elementarer Aspekt der wissenschaftlichen Hintergründe der beteiligten Wissenschaftler. Die Kombination von Expertisen unterschiedlicher mathematischer Bereiche gibt dem GK ein Alleinstellungsmerkmal mit großen Chancen für wissenschaftliche Durchbrüche. Das GK wird Anknüpfungspunkte an zwei Fakultäten der OVGU, an ein Max Planck Institut und mehrere nationale und internationale Forschungsaktivitäten in verschiedenen wissenschaftlichen Communities haben. Die Studierenden im GK werden in einer Fülle von mathematischen Methoden und Konzepten ausgebildet und erlangen dadurch die Fähigkeit, herausfordernde Aufgaben zu lösen. Wir erwarten Erfolge in der Forschung und in der Ausbildung der nächsten Generation führender Wissenschaftler in Akademia und Industrie.
Kombinatorik über Galoisringen
Laufzeit: 01.04.2017 bis 31.03.2021
Galoisringe sind sehr interessante Ringe, die in vielen Aspekten ähnliche Eigenschaften aufweisen wie endliche Körper. Es ist demnach naheliegend, Konstruktionen kombinatorischer Objekte (beispielsweise Designs) aus endlichen Körpern analog in Galoisringen durchzuführen. Dieses Projekt widmet sich den Fragen, ob diese analogen Konstruktionen zu nicht-isomorphen Objekten führen, und ob weitere Konstruktionen aus endlichen Körpern genutzt werden können, um beispielsweise nicht-isomorphe Sequenzen in Galoisringen zu konstruieren.
Verallgemeinerte Bent Funktionen
Laufzeit: 01.10.2015 bis 31.12.2020
In diesem Projekt soll das Studium von verallgemeinerten bent Funktionen fortgesetzt werden. Das Projekt läuft unter enger Zusammenarbeit mit Prof. Wilfried Meidl vom Johann Radon Institute for Computational and Applied Mathematics (RICAM) Linz (Österreich) sowie Nurdagül Anbar (Sabanci University) und Pantelimon Stanica (Monterey, Naval Research Institute).
Bent Funktionen
Laufzeit: 01.01.2016 bis 30.09.2020
Es werden die Klassifikation und die Konstruktion von bent Funktionen vom Grad 3 sowie von homogenen bent Funktionen untersucht sowie außerdem sowie die Untersuchung der zugehörigen kombinatorischen Inzidenzstrukturen.
Die Zyklenstruktur von Permutationspolynomen
Laufzeit: 01.04.2017 bis 30.09.2020
Ziel des Projektes ist es, die Zyklenstruktur von Permutationen von endlichen Körpern zu bestimmen, die als Polynome gegeben sind.
Kooperation mit Prof.in Dr. Gohar Kyureghyan (Universität Rostock).
Kombinatorische Design Theorie
Laufzeit: 01.10.2017 bis 30.09.2019
Das Studium von nicht linearen Funktionen umfasst bent Funktionen, APN Funktionen, PN Funktionen und viele mehr, die vor dem Hintergrund kryptographischer Anwendungen entstanden sind. Viele dieser Funktionen korrespondieren mit interessanten kombinatorischen Objekten aus der Design Theorie. Ziel ist es, diesen Zusammenhang weiter zu untersuchen. Wir erwarten, dass die kombinatorischen Strukturen bei der Untersuchung der nicht linearen Funktion nützlich sind.
Mitarbeiter in diesem Projekt ist Shuxing Lie.
Almost perfect nonlinear functions
Laufzeit: 01.10.2014 bis 30.09.2018
Das Ziel dieses Projektes "Almost perfect nonlinear functions" ist es, die Konstruktionen klassischer "APN"-Funktionen genauer zu analysieren, um daraus mögliche neue Konstruktionen abzuleiten. Mitarbeiter in diesem Projekt ist Herr Razi Arshad.
Semifields
Laufzeit: 01.09.2013 bis 30.08.2015
"Semifields" sind algebraische Strukturen, die ähnliche Eigenschaften wie Körper haben. Alexander Pott als verantwortlicher Projektleiter untersucht gemeinsam mit Ferruh Özbudak, Yue Zhou und Kai-Uwe Schmidt Eigenschaften von solchen Semifields, insbesondere deren Komponentenfunktionen.
Bent-Funktionen
Laufzeit: 01.10.2011 bis 30.09.2013
In Zusammenarbeit mit Frau Dr. Ayca Cesmelioglu und Herrn Professor Wilfried Meidl von der Sabanci Universität in Instanbul (Türkei) werden Bent-Funktionen untersucht, insbesondere deren Grad sowie die Frage der Regularität und Normalität.
Boole'sche und vektorielle Abbildungen auf endlichen Körpern
Laufzeit: 01.10.2011 bis 30.09.2013
Gemeinsam mit Frau Wei Su werden Boole'sche und vektorielle Abbildungen auf endlichen Körpern untersucht. Im Mittelpunkt stehen dabei Fragen zur Korrelation von Abbildungen und die Klassifikation von Abbildungen.
Endliche Körper und Endliche Geometrie
Laufzeit: 01.10.2009 bis 30.09.2013
Wir konstruieren neue semifields und entwickeln Methoden, diese bis auf Äquivalenz zu unterscheiden. Wir untersuchen auch Teilstrukturen von projektiven Ebenen, die durch semifields konstruiert werden.
Sequenzen und ihre Korrelationseigenschaften
Laufzeit: 01.10.2011 bis 30.09.2013
Wir untersuchen Sequenzen und deren Korrelationseigenschaften. Dabei werden auch (partielle und relative) Differenzmengen angewendet. Ziel ist die Beschreibung innovativer Konstruktionsmethoden, weil die klassischen Verfahren (direct product methods, cycloting) an ihre Grenzen stoßen.
Almost perfect and perfect functions: An algebraic-geometric approach
Laufzeit: 01.06.2010 bis 30.05.2012
In diesem Forschungsprojekt geht es um die Konstruktion und Klassifikation von "(almost) perfect nonlinear mappings". Dabei sollen insbesondere Methoden aus der algebraischen Geometrie Anwendung finden.
New constructions of planar and almost perfect nonlinear functions
Laufzeit: 01.01.2010 bis 31.12.2011
Relative difference sets and similar structures (planar functions, almost perfect nonlinear functions) can be modified using a certain switching construction ("project-and-lift"). This idea is due to John Dillon, Yves Edel and Alexander Pott. In this project, we will investigate the strength but also the limitations of the switching idea.
Verallgemeinerte bent Funktionen
Laufzeit: 01.10.2009 bis 30.09.2011
Die Menge der verallgemeinerten bent-Funktionen GF(q^n) \rightarrow GF(q^m), m
Semifields and APN functions
Laufzeit: 01.01.2010 bis 31.12.2010
Almost perfect nonlinear functions (APN) may be viewed as the even characteristic generalization of planar functions. Planar functions provide us with a rich combinatorial (projective planes) and algebraic (commutative semifields) structure. In this project, we investigate possible generalizations of semifields to the APN situation.
Perfekte und fast perfekte Folgen
Laufzeit: 01.10.2006 bis 31.12.2009
In der Kryptographie werden häufig binäre Funktionen benötigt, die resistent gegen lineare und differenzielle Attacken sind. Perfekte und fast perfekte Folgen sind in dieser Hinsicht optimal. Es gibt einige Klassen solcher Funktionen. Ziel des Projektes ist es, weitere Funktionen zu finden oder zu zeigen, dass es keine weiteren geben kann.
Relative Differenzmengen und Verallgemeinerungen
Laufzeit: 01.10.2007 bis 31.03.2009
Das Studium relativer Differenzmengen ist sowohl von Seiten der Geometrie (projektive und affine Ebenen) als auch der Signalverarbeitung (Sequenzen mit guten Korrelationseigenschaften) von Interesse. In diesem Projekt sollen neue notwendige und hinreichende Bedingungen für die Existenz solcher Differenzmengen gefunden werden.
Der Zusammenhang zwischen "CCZ-Äquivalenz" von APN-Funktionen und Codierungstheorie wird untersucht
Laufzeit: 01.01.2007 bis 31.12.2007
Das Studium "fast perfekter Abbildungen" auf endlichen Körpern der Charakteristik 2 ist durch Anwendungen in der Kryptografie (S-Boxen) motiviert. Die Klassifikation solcher Abbildungen ist ein seit vielen Jahren offenes und viel bearbeitetes Problem. Ein Teilproblem bei einer solchen Klassifikation wird sein, "CCZ-äquivalente" Abbildungen zu identifizieren. Gemeinsam mit Yves Edel wird diese Frage untersucht, wobei insbesondere die codierungstheoretische Interpretation von CCZ-Äquivalenz benutzt wird.
Functions which are relevant in cryptography
Laufzeit: 01.01.2005 bis 31.12.2007
In cryptographic applications, one is interested in functions $F: \mathbb{F}_2^n \rightarrow \mathbb{F}_2^m$ with good differential and linear properties. The linear properties are related to the Welsh spectrum of F, the differential properties we related to the "differential spectrum". In this project, we try to find and classifys new functions.
Untersuchung verallgemeinerter Fourier-Spektren und planarer Funktionen
Laufzeit: 01.01.2004 bis 31.12.2007
Bei vielen Untersuchungen in der Datenübertragung spielt die Fourier-Transformation eine große Rolle. Es gibt aber noch weitere unitäre Transformationen, die für diverse Anwendungen Bedeutung haben (beispielsweise bei der Analyse aperiodischer Korrelationsspektren). In diesem Projekt sollen einige besonders wichtige Verallgemeinerungen untersucht werden.
Kodierungstheorie und Kryptografie
Laufzeit: 01.01.2004 bis 31.12.2005
In dem Projekt werden zusammen mit Wissenschaftlern der Universität Bergen (Norwegen) diverse Probleme aus der Kodierungstheorie und Kryptografie bearbeitet. Insbesondere - "Fingerprinting"- fast perfekte und perfekte Funktionen auf endlichen Körpern- zyklische Differenzmengen
Automorphismen von extremalen Codes der Längen 96 und 120
Laufzeit: 01.04.2009 bis 31.03.2012
Extremale Codes haben optimale Eigenschaften hinsichtlich der Fehlerkorrektur bei der Datenübertragung. Bis heute sind jedoch nur ganz wenige solcher Codes bekannt. Mögliche Automorphismengruppen könnten beim Aufsuchen neuer Codes entscheidend helfen. Im Zentrum der Untersuchungen stehen die Automorphismengruppen der extremalen Codes der Länge 72 und 96.
Existenz und Konstruktion extremaler Codes
Laufzeit: 01.09.2008 bis 15.12.2011
Extremale Codes kann es nur bis zu einer Länge von 3964 geben. Bekannt sind nur Codes bis zur Länge 156. Es klafft also eine große Lücke zwischen der theoretisch bewiesenen Schranke und dem, was wir konstruieren können. Aufgabe des Projektes ist es, weitere Klarheit zu schaffen; insbesondere extremale Codes mit zusätzlichen Eigenschaften, etwa QR, zu klassifizieren.
Grade von irreduziblen Charakteren
Laufzeit: 01.10.2009 bis 30.09.2010
Höhere Frobenius-Schur-Indikatoren geben Aufschluss über die Struktur gewisser Permutationsmoduln. Für p = 2 weiß man relativ viel, p \not= 2 steht im Zentrum der Untersuchungen. In der Blocktheorie wird eine Klassifikation sämtlicher endlicher Gruppen mit genau zwei Blöcken angestrebt.
Bilinearformen und Morita-Äquivalenz
Laufzeit: 01.01.2007 bis 31.12.2008
Dies ist ein Teilprojekt des Projektes "Bilinearformen und Invarianten in der Darstellungstheorie", für welches PD Dr. Thorsten Holm auf deutscher Seite federführend ist. In Kooperation mit Prof. Dr. A. Zimmermann, Université de Picardie, Amiens,
wird untersucht, inwieweit die Morita-Äquivalenz metrische Invarianten respektiert.
Representation Theory and Coding Theory
Laufzeit: 01.01.2005 bis 31.12.2008
Im Zentrum der Untersuchungen stehen darstellungstheoretische Methoden in der Codierungstheorie. Das Projekt "Representation Theory and Coding Theory" wird bezahlt aus Mitteln des Projektes MTM2004-08219-C02-01. Es läuft über den Zeitraum 2005 bis 2008 in Zusammenarbeit mit der Universidad de Zaragoza. Dort verantwortlich für das Projekt ist Prof. Dr. J. Lafuente.
Representation theory and the theory of finite groups
Laufzeit: 01.01.2006 bis 31.12.2007
Gemeinsames Projekt mit chinesischen Wissenschaftlern der "Sino-German Cooperation Group" in der Darstellungs- und Gruppentheorie. Finanzierung des Projektes durch die DFG und NSFC. Es läuft über einen Zeitraum von zwei Jahren. Sowohl auf deutscher als auch chinesischer Seite sind mehrere Universitäten beteiligt.
Entwicklung von Unterrichtskonzepten für die Behandlung graphentheoretischer Elemente im Mathematikunterricht
Laufzeit: 01.10.2010 bis 30.09.2012
Bei der Entwicklung von Unterrichtskonzepten für die Behandlung graphentheoretischer Elemente im Mathematikunterricht liegt der Schwerpunkt in der Aufbereitung der Materialien für die Fortbildung von Mathematiklehrerinnen und -lehrern. Desweiteren erfolgen Untersuchungen zur mathematischen Modellierung im Mathematikunterricht am Beispiel der Behandlung von Anwendungsproblemen aus der Graphentheorie. Die Methode der Aufgabenvariation im Mathematikunterricht wird in weiteren Detailfragen analysiert, insbesondere geht es um Vernetzungsmöglichkeiten (innermathematisch und außermathematisch) im Unterricht.
Veröffentlichung:
Leneke, B. "Knoten, Wege, Graphen und Gerüste - Modelle der Graphentheorie im Mathematikunterricht", in: Henning, H., Freise, F. (Hrsg.): Realität und Modell, Mathematik in Anwendungssituationen, WTM Verlag für wissenschaftliche Texte und Medien, Münster, 2011, S. 170 - 183
ALE-FEM für Zweiphasenströmungen mit Surfactants
Laufzeit: 01.11.2012 bis 30.09.2017
Numerische Berechnungen von Zweiphasenströmungen mit oberflächenaktiven Substanzen (Surfactants) sind sehr gefragt in verschiedenen wissenschaftlichen und technischen Anwendungen. Die Anwesenheit der Surfactants erhöht die Komplexität, der ohnehin schon herausfordernden Berechnung der Zweiphasenströmung. Surfactants verändern die Strömungsdynamik deutlich durch eine Senkung der Oberflächenspannung an der Grenzfläche. Darüber hinaus ist die Konzentration von Surfactants an der Grenzschicht oft nicht homogen wodurch Marangoni Kräfte induziert werden. Zusätzlich finden, im Falle von löslichen Surfactants, Adsorption und Desorption an der Grenzschicht und zwischen den Bulkphasen statt. Das Ziel dieses Projektes ist die Analyse und Implementierung von ALE-Finite-Elemente basierte Diskretisierung für die robuste und akurate Simulation von Zweiphasenströmungen mit löslichen und unlöslichen Surfactants im dreidimensionalen Fall.
GRK 1554 Mikro-Makro-Wechselwirkungen in strukturierten Medien- und Partikelsystemen "Discretization of coupled pdes for surfacant influenced interfaces"
Laufzeit: 01.03.2012 bis 28.02.2017
Das Projekt befasst sich mit der Konzentrationsverteilung von Surfactants in den Kernphasen und auf der Oberfläche. Es sind FEM -basierte Lösungsverfahren für die gekoppelten Systeme partieller Differentialgleichungen zu entwickeln und zu analysieren.
Diffusion of magnetic particles in magnetic fluid seals
Laufzeit: 01.06.2011 bis 31.05.2013
Modeling the influence of diffusion of magnetic partieles on the stability of dynamic magnetic fluid seal. Analysis and simulation for noncoezcive elliptic convective-diffusive problem, using mixed finite element finite volume approach.
FEM für die Navier-Stokes-Gleichungen in zeitabhängigen Gebieten
Laufzeit: 01.05.2009 bis 31.12.2011
Ziel des Projektes ist die Entwicklung mathematischer Algorithmen zur Simulation von Strömungen mit freien Oberflächen um feste Hindernisse. Die nicht isothermen Strömungen werden hierbei als inkompressibel angenommen. Die entwickelten Methoden sollen zum Studium des Mikroverhaltens von Tropfen bei der Sprühkühlung verwendet werden. Das Projekt ist Bestandteil des DFG Graduiertenkollegs "Mikro-Makro-Wechselwirkungen in strukturierten Medien- und Partikelsystemen.
Gekoppelte Simulation von Partikelpopulationen in turbulenten Strömungen
Laufzeit: 01.07.2007 bis 30.06.2010
Im Verbundsprojekt werden neue Methoden der angewandten Mathematik zur Behandlung gekoppelter Populationsbilanzen in Strömungsfeldern entwickelt und zur modellgestützten Analyse und Führung eines industriellen Kristallisationsprozesses genutzt. Die Ergebnisse der mathematischen Methodenentwicklung und deren Übertragung auf den industriellen Prozeß sollen über die Know-How-Transfer-Kette der Verbundpartner zur Analyse und Verbesserung von partikelbildenden strömungssensitiven Verfahrensprozessen eingesetzt werden.
Numerical simulation of the interactions between a ferrofluid and an immersed permanent magnet
Laufzeit: 01.04.2007 bis 31.05.2010
This project is devoted to the numerical modelling of interactions between a ferrofluid with a free surface and a permanent magnet immersed in this ferrofluid.
It is a highly nonlinear problem involving the numerical simulation of magnetic fields, incompressible fluid flow and rigid body motion. All these components influence each other and both the position of the rigid bodies and the form of the domain occupied by the ferrofluid are generally not known in advance.
The goal is to develop robust, accurate and efficient solvers for problems of the mentioned type. This will include research on linearization strategies, time stepping techniques, discretization concepts and efficent solvers for the arising large sparse systems of linear equations. In addition, appropriate tools for handling the moving boundaries have to be developed.
Hochauflösende numerische Verfahren für dynamische Zweiphasensysteme mit Surfactants
Laufzeit: 01.08.2006 bis 28.02.2010
In vielen zweiphasigen Prozessen spielen grenzflächenaktive Substanzen wie z. B. Tenside, sogenannte Surfactants (surface active agents), eine wesentliche Rolle. Diese lagern sich an der Grenzfläche eines Fluids an und verändern seine Grenzflächenspannung. Dadurch entstehen die Marangoni-Kräfte, die zu einem veränderten Strömungsverhalten nahe der Grenzfläche führen. Ziel des Projektes ist die Entwicklung, Analyse und Implementation hochauflösender numerischer Verfahren, um die Dynamik der sich wechselseitig beeinflussenden Prozesse besser verstehen zu können. Die Modellierung basiert auf den inkompressiblen Navier-Stokes Gleichungen für beide Phasen, je einer zusätzlichen Bilanz für die Konzentration des Surfactants in den Kernphasen und auf der Grenzfläche, einer thermodynamischen Gleichgewichtsbeziehung und einem Gesetz, das die Abhängigkeit der Grenzflächenspannung von der Grenzflächenkonzentration des Surfactants beschreibt. Numerisch erfordert die Bilanz der oberflächenaktiven Substanzen - mathematisch gesehen eine dynamische Randbedingung - eine sehr genaue Auflösung der dynamisch bewegten Grenzfläche, die durch isoparametrische finite Elemente höherer Ordnung und eine ALE-(Arbitrary-Langrangian-Eulerian)-Formulierung der Gleichungen in den Kernbereichen erzielt werden soll.
Analysis und Numerik von SMB-Prozessen
Laufzeit: 01.02.2004 bis 31.10.2008
Ziel des Projektes ist die mathematische Modellierung und effiziente numerische Simulation von SMB-(Simulated-moving bed) Prozessen in der Verfahrenstechnik als Basis für die Anwendung von Optimierungsverfahren. Das Projekt ist Bestandteil der DFG-Forschergruppe 468 "Methods from discrete mathematics"
Modellierung und FEM-Analysis in Membranreaktoren
Laufzeit: 01.09.2005 bis 31.08.2007
Ziel ist die Numerische Simulation der Strömungsphänomenen in Membranreaktoren. Die Modellierung führt auf nichtlineare gekoppelte Reaktions-Diffusions-Gleichungen und die inkompressiblen Navier-Stokes-Gleichungen mit zusätzlichen Reibungstermen. Der Einsatz analytischer Methoden führt zu vereinfachten Modellen die mit numerischen Verfahren effizient gelöst werden. Das Projekt ist Bestandteil der DFG-Forschergruppe 447 "Membranunterstützte Reaktionsführung"
FEM zur numerischen Simulation von Ferrofluiden
Laufzeit: 01.01.2005 bis 31.07.2006
Ziel ist die Numerische Simulation der Form von Ferrofluidtropfen in einem gleichmäßigen äußerem Magnetfeld. Für das aus den Maxwell und der Young-Laplace Gleichung bestehende gekoppelte partielle Differentialgleichungssysteme wurden gekoppelte BEM-FEM Methoden für die Feldgleichungen und ein angepaßtes FD-Schema für die Berechnung der freien Oberfläche entwickelt.
Numerische Methoden für Mehrskalenprobleme
Laufzeit: 01.01.2004 bis 31.12.2005
Ziel des Projektes ist die Entwicklung von numerischen Verfahren für Mehrskalenproblemen, deren direkte numerische Simulation Gitterweiten erfordert, die jenseits der heute verfügbaren Rechentechnik liegen. Im Fokus liegen variationelle Mehrskalenmethoden für die Simulation turbulenter Strömungen und die Analyse von RFG (residual free bubble) Techniken zur genauen Approximation von Lösungen partieller Differentialgleichungen mit Grenzschichten.
Modellierung und FEM-Analysis in Membranreaktoren
Laufzeit: 01.09.2002 bis 31.08.2005
Ziel ist die Numerische Simulation der Strömungsphänomenen in Membranreaktoren. Die Modellierung führt auf nichtlineare gekoppelte Reaktions-Diffusions-Gleichungen und die inkompressiblen Navier-Stokes-Gleichungen mit zusätzlichen Reibungstermen. Der Einsatz analytischer Methoden führt zu vereinfachten Modellen die mit numerischen Verfahren effizient gelöst werden. Das Projekt ist Bestandteil der DFG-Forschergruppe 447 "Membranunterstützte Reaktionsführung".
Graduierten Kolleg `Modellierung, Berechnung und Identifikation mechanischer Systeme`
Laufzeit: 01.03.1997 bis 28.02.2001
Zeitdiskretisierungsverfahren für das instationäre Navier-Stokes-Problem, numerische Behandlung partieller Differentialgleichungen, numerische Lösung von Kristallwachstumsprozessen, numerische Analyse von Filmsiedeprozessen.
Randwertprobleme für Willmoreflächen - Analysis, Numerik und numerische Analysis
Laufzeit: 01.10.2008 bis 31.03.2013
Die Willmoregleichung, d.h. die Euler-Lagrange-Gleichung zum Willmorefunktional, zählt zu den wichtigen und anspruchsvollen Herausforderungen der nichtlinearen Analysis: Sie ist quasilinear und von vierter Ordnung; viele aus der Theorie von Gleichungen und Systemen zweiter Ordnung her wohlbekannten Methoden versagen zu einem großen Teil. Dennoch konnten in letzter Zeit einige bemerkenswerte Fortschritte u.a. von L. Simon, E. Kuwert, R. Schätzle, T. Riviere u.a. erzielt werden. Bislang wurde das Willmorefunktional meist nur auf unberandeten kompakten Mannigfaltigkeiten studiert, da hier großer Gewinn aus globalen differentialgeometrischen Eigenschaften gezogen werden konnte. Hinsichtlich Randwertproblemen liegen erst ganz wenige Resultate vor: Die ohnehin schwierige Gewinnung von Kompaktheit / Abschätzungen wird hier nochmals komplizierter. Wir wollen mit numerischen Studien und analytischen Untersuchungen von Randwertproblemen in symmetrischen Prototypsituationen beginnen und damit eine Richtung aufzeigen, unter welchen Bedingungen zu erwarten sein wird, mit a-priori-beschränkten Minimalfolgen arbeiten und a-priori-beschränkte klassische Lösungen erhalten zu können. Es soll auch das allgemeinere und nicht mehr konform invariante Helfrich-Funktional studiert werden und mit der Analysis echt zweidimensionaler Randwertprobleme begonnen werden. Darüber hinaus sollen numerische Algorithmen und Konvergenzsätze in allgemeineren Situation entwickelt werden, z.B. für Graphen über zweidimensionalen Gebieten. Diesbezügliche Ergebnisse könnten Entwicklungen hin zu parametrisch beschriebenen Flächen vorbereiten. Im vorliegenden Projekt werden Analysis, numerische Analysis und Numerik gleichberechtigt und eng miteinander verzahnt bearbeitet. Die Analysis profitiert von den numerischen Studien, während die Numerik ganz wesentlich auf die analytischen Vorarbeiten aufbaut. Die numerische Analysis schlie\ss lich setzt sowohl auf den numerischen als auch den analytischen Vorarbeiten auf und wirkt umgekehrt hierauf zurück.
Randwertprobleme für Willmoreflächen - Analysis, Numerik und numerische Analysis
Laufzeit: 01.10.2008 bis 31.03.2013
Die Willmoregleichung, d.h. die Euler-Lagrange-Gleichung zum Willmorefunktional, zählt zu den wichtigen und anspruchsvollen Herausforderungen der nichtlinearen Analysis: Sie ist quasilinear und von vierter Ordnung; viele aus der Theorie von Gleichungen und Systemen zweiter Ordnung her wohlbekannten Methoden versagen zu einem großen Teil. Dennoch konnten in letzter Zeit einige bemerkenswerte Fortschritte u.a. von L. Simon, E. Kuwert, R. Schätzle, T. Riviere u.a. erzielt werden. Bislang wurde das Willmorefunktional meist nur auf unberandeten kompakten Mannigfaltigkeiten studiert, da hier großer Gewinn aus globalen differentialgeometrischen Eigenschaften gezogen werden konnte. Hinsichtlich Randwertproblemen liegen erst ganz wenige Resultate vor: Die ohnehin schwierige Gewinnung von Kompaktheit / Abschätzungen wird hier nochmals komplizierter. Wir wollen mit numerischen Studien und analytischen Untersuchungen von Randwertproblemen in symmetrischen Prototypsituationen beginnen und damit eine Richtung aufzeigen, unter welchen Bedingungen zu erwarten sein wird, mit a-priori-beschränkten Minimalfolgen arbeiten und a-priori-beschränkte klassische Lösungen erhalten zu können. Es soll auch das allgemeinere und nicht mehr konform invariante Helfrich-Funktional studiert werden und mit der Analysis echt zweidimensionaler Randwertprobleme begonnen werden. Darüber hinaus sollen numerische Algorithmen und Konvergenzsätze in allgemeineren Situation entwickelt werden, z.B. für Graphen über zweidimensionalen Gebieten. Diesbezügliche Ergebnisse könnten Entwicklungen hin zu parametrisch beschriebenen Flächen vorbereiten. Im vorliegenden Projekt werden Analysis, numerische Analysis und Numerik gleichberechtigt und eng miteinander verzahnt bearbeitet. Die Analysis profitiert von den numerischen Studien, während die Numerik ganz wesentlich auf die analytischen Vorarbeiten aufbaut. Die numerische Analysis schlie\ss lich setzt sowohl auf den numerischen als auch den analytischen Vorarbeiten auf und wirkt umgekehrt hierauf zurück.
Randwertprobleme für Willmoreflächen - Analysis, Numerik und numerische Analysis
Laufzeit: 01.10.2008 bis 31.03.2013
Die Willmoregleichung, d.h. die Euler-Lagrange-Gleichung zum Willmorefunktional, zählt zu den wichtigen und anspruchsvollen Herausforderungen der nichtlinearen Analysis: Sie ist quasilinear und von vierter Ordnung; viele aus der Theorie von Gleichungen und Systemen zweiter Ordnung her wohlbekannten Methoden versagen zu einem großen Teil. Dennoch konnten in letzter Zeit einige bemerkenswerte Fortschritte u.a. von L. Simon, E. Kuwert, R. Schätzle, T. Riviere u.a. erzielt werden. Bislang wurde das Willmorefunktional meist nur auf unberandeten kompakten Mannigfaltigkeiten studiert, da hier großer Gewinn aus globalen differentialgeometrischen Eigenschaften gezogen werden konnte. Hinsichtlich Randwertproblemen liegen erst ganz wenige Resultate vor: Die ohnehin schwierige Gewinnung von Kompaktheit / Abschätzungen wird hier nochmals komplizierter. Wir wollen mit numerischen Studien und analytischen Untersuchungen von Randwertproblemen in symmetrischen Prototypsituationen beginnen und damit eine Richtung aufzeigen, unter welchen Bedingungen zu erwarten sein wird, mit a-priori-beschränkten Minimalfolgen arbeiten und a-priori-beschränkte klassische Lösungen erhalten zu können. Es soll auch das allgemeinere und nicht mehr konform invariante Helfrich-Funktional studiert werden und mit der Analysis echt zweidimensionaler Randwertprobleme begonnen werden. Darüber hinaus sollen numerische Algorithmen und Konvergenzsätze in allgemeineren Situation entwickelt werden, z.B. für Graphen über zweidimensionalen Gebieten. Diesbezügliche Ergebnisse könnten Entwicklungen hin zu parametrisch beschriebenen Flächen vorbereiten. Im vorliegenden Projekt werden Analysis, numerische Analysis und Numerik gleichberechtigt und eng miteinander verzahnt bearbeitet. Die Analysis profitiert von den numerischen Studien, während die Numerik ganz wesentlich auf die analytischen Vorarbeiten aufbaut. Die numerische Analysis schlie\ss lich setzt sowohl auf den numerischen als auch den analytischen Vorarbeiten auf und wirkt umgekehrt hierauf zurück.
Galerkin-Verfahren fuer Kontrollprobleme mit partiellen Differentialgleichungen
Laufzeit: 01.10.2009 bis 30.09.2012
Das Projekt befasst sich mit der Entwicklung und Analyse von Diskretisierungen von Optimalsteuerungsproblemen, in denen die Zustandsgleichungen durch parabolische partielle Differentialgleichungen gegeben sind.
Galerkin-Verfahren fuer Kontrollprobleme mit partiellen Differentialgleichungen
Laufzeit: 01.07.2006 bis 30.06.2008
Das Projekt befasst sich mit der Entwicklung und Analyse von Diskretisierungen von Problemenim Bereich der optimalen Steuerung partieller Differentialgleichungen unter Kontroll-und Zustands-schranken.
Topological and geometrical methods in nonlinear higher order elliptic equations
and related (second order) parabolic problems
Laufzeit: 01.01.2005 bis 31.12.2006
The main focus of the present project is on higher (i.e. at least 4th) order elliptic problems. Here, many of those methods familiar from second order equations do not work at all or need at least a fundamental modification. In order to gain a better understandingof nonlinear higher order equations in general we try to find out to which extent results from second order equations can be extended and generalized to higher order equations. The needed techniques are more involved and in many situations completely different.Beside our investigations on higher order elliptic equations we want to study the dynamical behaviour in certain semilinear parabolic equations, which are closely related to the stationary problems discussed in the first part.With these investigations we hope to form a basis for further investigations in higher order {\it parabolic} problems too. These are even more involved than higher order elliptic problems since they are known to enjoy no positivity preserving property at all.
Elliptische und parabolische Probleme in der Hermiteschen Geometrie
Laufzeit: 01.12.2000 bis 30.09.2005
Konstruktion Hermitesch-harmonische Abbildungen auf nichtkompakten Mannigfaltigkeiten, Eigenschaften der entsprechenden parabolischen Systeme; Studium analoger Gleichungen mit dem komplex-holomorphen Zusammenhang anstelle des Riemannschen Levi-Civita- Zusammenhangs Existenz und Eigenschaften extremaler Metriken auf Kaehlerschen Mannigfaltigkeiten; Deformation Ricci-flacher Metriken.
'Solutions to Ricci flow whose Scalar curvature is bounded in L^p (II)
Laufzeit: 01.01.2020 bis 31.12.2023
Ziele: The aim of this project is to further investigate the types of finite time singularities that occur for the Ricci flow in four dimensions in the real case, and higher dimensions in the Kaehler case, when the scalar curvature is bounded in the L^p norm
Lösungen des Ricci-Flusses mit Skalarkrümmung beschränt in L^p
Laufzeit: 01.01.2017 bis 31.12.2021
Das Ziel dieses Projektes ist es, Singularitäten des Ricci-Flusses in vier Dimensionen zu verstehen, wenndie Topologie bzw. die Geometrie eingeschränkt ist. Für vier-dimensionale Lösungen mit beschränkter Skalarkrümmung wurde folgendes in Arbeiten von R. Bamler, Q. Zhang und (unabhängig davon) dem Antragsteller gezeigt: Falls die Lösung in endlicher Zeit singulär wird, dann sind die Singularitäten vom Orbifold-Typ. Weiterhin wurde in einer Arbeit des Antragstellers gezeigt, dass die Lösung mit dem Orbifold Ricci-Flussfortgesetzt werden kann. In diesem Projekt möchten wir die Situation untersuchen, dass die Skalarkrümmung inLp gleichmässig in der Zeit, oder durch (T-t)-dafür ein kleines a>0 zu jeder Zeit t
Lösungen des Ricci-Flusses mit Skalarkrümmung beschränkt in L^p
Laufzeit: 01.10.2017 bis 31.12.2019
Das Ziel dieses Projektes ist es, Singularitäten des Ricci-Flusses in vier Dimensionen zu verstehen, wenn die Topologie bzw. die Geometrie eingeschränkt ist. Für vier-dimensionale Lösungen mit beschränkter Skalarkrümmung wurde folgendes in Arbeiten von R. Bamler, Q. Zhang und (unabhängig davon) dem Antragsteller gezeigt: Falls die Lösung in endlicher Zeit singulär wird, dann sind die Singularitäten vom Orbifold-Typ. Weiterhin wurde in einer Arbeit des Antragstellers gezeigt, dass die Lösung mit dem Orbifold Ricci-Fluss fortgesetzt werden kann. In diesem Projekt möchten wir die Situation untersuchen, dass die Skalarkrümmung in Lp gleichmässig in der Zeit, oder durch (T-t)-a für ein kleines a>0 zu jeder Zeit t
Ricci fluss von singulären metrischen Räumen
Laufzeit: 01.04.2009 bis 31.03.2012
Der Ricci-Fluss ist eine parabolische Gleichung 2. Ordnung auf einer Mannigfaltigkeit. In dem Fall, dass die Mannigfaltigkeit einfach zusammenhängend ist und Dimension drei hat, wurde dieser Fluss von R.Hamilton, G.Perelman und anderen dazu benutzt, die Richtigkeit der Poincaré-Vermutung zu beweisen.
Mithilfe des Ricci-Flusses hofft man, noch viele andere offene geometrische Fragen beantworten zu können.
Dieses Projekt hat folgende Ziele:
1. Einen Ricci-Fluss für nicht glatte Anfangsdaten zu definieren.
2. Abschätzungen herzuleiten, die nur von einfachen geometrischen Größen anbhängig sind. Zu diesen geometrischen. Größen gehören: Volumen, Durchmesser, untere Krümmungsschränken, Distanz.
3. Besseres Verständnis für Räume mit unteren Krümmungsschränken zu bekommen
4. Besseres Verständnis für die Singularitäten des Ricci-Flusses zu bekommen
Gegenstand des Teilprojekts von Herrn Arthur Schlichting sind Punkte 1 und 3, wobei die bisherigen Ergebnisse auch neue Informationen zu 2 und 4 liefern.
In Teil I der Arbeit beschäftigt sich Herr Schlichting mit dem Glätten geklebter Mannigfaltigkeiten. Genauer: Wir betrachten zwei Riemannsche Mannigfaltigkeiten mit Rand, wobei
a) die Riemannschen Mannigfaltigkeiten isometrisch am Rand sind,
b) die Summe der zweiten Fundamentalformen am Rand nichtnegativ ist
c) die Eigenwerte des Krümmungsoperators nach unten durch K beschränkt sind.
Durch Identifikation der Ränder ('Kleben') erhält man eine Riemannsche Mannigfaltigkeit mit stetiger Metrik (vgl. A.Petrunin, N.N. Kosovskii). Herr Schlichting hat gezeigt, dass auf der geklebten Mannifaltigkeit glatte Metriken konstruiert werden können, so dass die Eigenwerte des Krümmungsoperators nach unten durch K-s beschränkt sind, wobei s beliebig klein ist. Die geglätteten Mannigfaltigkeiten konvergeiren dann in der C0-Norm gegen die ursprungliche geklebete Mannigfaltigkeit.
In Teil II der Arbeit geht es speziell um den Fall K=0. In diesem Fall hat er gezeigt, dass ein Riccifluss der geklebten Mannigfaltigkeit existsiert, der die Mannigfaltigkeit glättet, so dass die Krümmungsschranke K= 0 erhalten wird.
The SHTC-Model and Multiphase Flows
Laufzeit: 01.01.2019 bis 31.12.2022
The modeling, analysis and numerical treatment of multiphase fluid dynamics provide several challenging problems treated in the past as well as in very recent literature. Recently interest in the works by Godunov, Müller, Ruggeri, Romenski and their co-authors is growing. In particular Godunov and Romenski suggest an approach which leads to symmetric hyperbolic systems which are derived from physical principles, i.e. symmetric hyperbolic and thermodynamic consistent models (SHTC). These hyperbolic models are capable of describing multiphase fluid dynamics including heat conduction and viscosity which are typically second order effects. In this project we want to combine the expertise on these models provided by Prof. Romenski and Prof. Dumbser with our expertise on sharp interface models. This project includes different goals related to the diverse aspects of the topic. One main problem is to discuss the Riemann problem for a barotropic submodel of the main model provided by Romenski. With this we obtain further analytical insight and additionally can verify numerical methods.
A further aim is to reveal the connection between the diffuse and the sharp interface two-phase flows considered in this context.
Two-Phase Flows with Phase Transition - Modelling, Analysis and Numerics
Laufzeit: 01.01.2019 bis 31.12.2022
Starting from existing work in this research group on this topic, our aim is to discuss several open questions in this context. Concerning the modelling it seems in the literature that there is a need to further investigate the derivation and formulation of balance laws in the presence of singularities, e.g.
shocks and phase boundaries. Due to the general character of the underlying theory this will be also helpful for other models and problems. In the preceding work general analytical results for isothermal two-phase flows were obtained. A further objective is to discuss general flows where heat conduction is taken into account. In particular we want to use the hyperbolic formulation introduced by Romenski. For this work we will also collaborate with the group of Prof. Munz in Stuttgart. As in the isothermal case we first want to investigate the corresponding Riemann problem. The numerics of two-phase flows are still a major problem. In particular when multidimensional problems are considered. Effects like surface tension and phase creation have to be considered. In the context of sharp interface models we suggest to investigate algorithms used for combustion problems since we expect some analogies in the numerical treatment of these topics. Parallel to these questions we further seek to compare the obtained results to other diffuse interface models used in the group (Warnecke/Matern) and the literature. Thus this project is also strongly linked to the previous one.
Radialsymmetrische Lösungen der ultrarelativistischen Euler-Gleichungen als Benchmark-Tests zu numerischen Verfahren für hyperbolische Erhaltungsgleichungen in höheren Raumdimensionen
Laufzeit: 01.10.2020 bis 30.09.2022
Mit Hilfe von Systemen hyperbolischer Erhaltungsgleichungen lassen sich Wellenausbreitungen
von strömenden Flüssigkeiten und Gasen unter Vernachlässigung von Reibungseffekten beschreiben. Solche nichtlinearen Systeme ermöglichen insbesondere die Vorhersage von Stosswellen, die sich im allgemeinen selbst für glatte Anfangsvorgaben der Felder (z.B. für die Massendichte, die Strömungsgeschwindigkeit und den Druck) zu späteren Zeitpunkten ausbilden können. Dabei treten dann sprunghafte Änderungen der Felder beim Durchqueren der Stossfronten auf. Im Preprint 02/2020 "Radially symmetric solutions of the ultra-relativistic Euler equations"(erscheint in "Methods and Applications of Analysis") haben wir für die ultrarelativistischen Euler-Gleichungen in drei Raumdimensionen ein spezielles numerisches Verfahren zur Berechnung der radialsymmetrischen Lösungen entwickelt, das sich mit Hilfe von bestimmten koordinatenabhängigen Kurvenintegralen
auf nur eine Raumdimension (für den Radius) reduzieren lässt. Dieses System hyperbolischer Erhaltungsgleichungen zeigt viele Ähnlichkeiten mit den klassischen Euler-Gleichungen, ist aber mathematisch einfacher, da eine Gleichung für die Teilchenzahldichte vom Rest des Systems entkoppelt. Mit Hilfe dieses Verfahrens konnten wir erstmals die Entwicklung und den Kollaps einer implodierenden Stosswelle für geeignete Anfangsdaten (Start mit einer Überdruckblase symmetrisch zum Nullpunkt) numerisch simulieren. Die voll dreidimensionalen numerischen Methoden waren bisher nicht in Lage den dabei resultierenden Blow-up der Felder zu approximieren, da dieser in einem sehr kleinen Bereich der Raum-Zeit stattfindet. Deshalb haben wir nun das Verfahren auch für
den zylindersymmetrischen Fall entwickelt, um es direkt mit den numerischen Lösungen
zweidimensionaler Anfangswertprobleme vergleichen zu können. Da es bisher vergleichsweise
wenig Literatur zu der numerischen Simulation dieses Systems gibt, wird so aus zwei Gründen ein wichtiger Beitrag geleistet. Zum einen werden so erstmals echt mehrdimensionale Probleme numerisch gelöst und mit verfügbaren Lösungen verglichen, welche qualitativ nahezu exakten Lösungen entsprechen. Zum anderen können dann mit den so verifizierten Methoden komplexere Probleme simuliert welche dann auch als Vergleich für weitere Verfahren dienen. Es ist auch davon auszugehen, dass für Verfahren höherer Ordnung geeignete Limiter konstruiert werden müssen um die Stabilität der Verfahren zu gewährleisten.
Advanced Numerical Methods for Nonlinear Hyperbolic Balance Laws and Their Applications
Laufzeit: 01.01.2019 bis 31.12.2021
Out intention is to intensify cooperation in the mathematical field of " Advanced Numerical Methods for Nonlinear Hyperbolic Laws and Their Applications" between 11 research institutions: On the Chinese side five top universities, i.e. Beijing University of Aeronautics and Astronautics, Peking University, Tsinghua University, and Xiamen University, as well at the Institute of Applied Physics and Computational Mathematics , Beijing ; on the German side RTWH Aachen University, as well as the universities of Freiburg, Mainz, Magdeburg, Stuttgart and Würzburg. During the past decade individual cooperation and joint publications by specialists involved in our project showed parallel interests and activites that should be coordinated. The main sources of such occasional contacts were international conferences, research visits, and longer exchanges of young scientists.
Fundamental mathematical research in our field has a strategic importance for many challenges in other fields of research and development, e.g. in engineering, physics and ecology. Central topics are advanced numerical methods for nonlinear hyperbolic balance laws that are particularly important for incompressible fluid flows and related systems of equations. The numerical methods we are focused on are finite volume/finite difference, discontinuous Galerkin methods, and kinetic-type schemes. There are still very basic and challenging open mathematical research problems in this field, such as multidimensional shock waves, interfaces with different phases or efficient , problem suited adaptive algorithms. Consequently, our main objective is to derive and analyze novel high-order accurate schemes that will reliably approximate underlying physical models and preserve important physically relevant properties. This combination remains an open and challenging problem and will be addressed in our project proposal.
Within this project we will establish a long-term cooperation between our groups, particularly among young scientists, in order to achieve a significant development in this field and to meet future demands from numerous partical applications. We will also take this project as basis to support each other to proceed research on higher level cooperation such as the framework of 973 in China, SFB in Germany and even the European framework.
Forced Periodic Non-isothermal Operation of Chromatographic Columns
Laufzeit: 01.11.2017 bis 31.10.2021
Chromatography is a powerful and very selective separation and purification process exploiting specific interactions of the compounds to be separated with dedicated adsorbents. A high purity and a high yield at reasonable production rate are the main demands of scientists working in this area. Typically isothermal conditions are applied, although potential was seen already in non-isothermal operation. The temperature fluctuations were found to be partly helpful in the case of gas phase separations. However, such effects have been neglected in the liquid phase chromatography. This project focuses on optimizing the separation of two components of a liquid mixture whose concentrations are effected by the interaction and reaction with the solid phase packed inside the column. We impose a non-isothermal condition by controlling temperature variations in the column in such a way that a preceding component of the mixture is warmed up to leave the column more quickly as compared to the succeeding component which is cooled down and, thus, migrates slower. The basic model, which we will consider in the beginning, is called as equilibrium dispersive model (EDM). It incorporates the well-known mass balance equation of a column coupled with the energy balance and specific initial and boundary conditions. The aim of this project is to provide theoretical understanding of the said setup, to resolve sharp discontinuities in the absence of axial dispersion by using Riemann Problems approach, to analyze the effects of temperature fluctuations on the process, and to approximate the full nonlinear model by using a high resolution finite volume scheme. Experimental tests will be done later on in collaboration with scientists in MPI Magdeburg, who are working on experimental chromatographic processes.
Graduiertenkolleg 1554, Micro-Macro-Interactions in structured Media and Particle Systems
Laufzeit: 01.07.2016 bis 31.03.2021
Disperse Zwei-Phassen-Strömungen mit Phasenübergängen
Sowohl in der Natur als auch in industriellen Anwendungen treten mehrkomponentige Mehrphasensttrömungen auf. Die Modellierung und Simulation kompressibler Mehrphasenströmungen stellt eine interdisziplinäre Herausforderung sowohl für Mathematiker, als auch für Physiker und Ingenierure oder Chemiker dar. Die Schwierigkeiten resultieren hauptsächlich aus den Prozessen an den Phasengrenzen, insbesondere aus dem Massenübergang zwischen den einzelnen Phasen. Massentransfer erfolgt dabei sowohl durch den Phasenübergang, als auch durch chemische Reaktionen.
Obwohl die Untersuchung von Phasengrenzen z. B. zwischen Gasen und Flüssigkeiten schon seit langem Gegenstand der Forschung ist, sind die Ergebnisse in diesem Gebiet noch unzureichend und es gibt viele offene Fragen.
Im Projekt werden schwach hyperbolisch Mehrphasen-Gemischgleichungssysteme bestehend aus partiellen Differentialgleichungen analytisch diskutiert und numerisch berechnet. In den Euler-Euler-Beschreibungen werden sowohl Massen-, als auch Impuls- und Energiebilanzen einzelner Komponenten oder Phasen sowie Bilanzen für Blasenanzahldichte, Blasengröße oder das Volumen der Komponenten bzw. Phasen berücksichtigt.
Simulation von "excitation contraction coupling" in ventrikulären Kardiomyzyten
Laufzeit: 01.04.2016 bis 31.12.2020
Weitere Förderung: Deutsche Forschungsgemeinschaft (DFG): 1.10.2013 - 15.02.2017
Arrhytmia und Fibrillation sind führende Ursachen für Herztod. Sie können durch Alternas und arrhythmogene Prozesse auf Zellebene verursacht werden. Ca2+Dynamik ist involviert bei einigen von ihnen. Das Projekt wird zelluläre arrhythmogene Prozesse untersuchen, die zum Teil bekannt aber in ihrer Wechselwirkung wenig verstanden sind, durch die Simulation von excitation contraction coupling (ECC) in ventrikulären Kardiomyozyten. Membrandepolarisation wird in tausenden diadischen Spalten in ein Kalziumsignal übertragen. Der große Bereich von Raum- und Zeitskalen des Problems verlangt eine Multiskalentechnik, die die Konzentration in den Spalten durch quasistatische Greensche Funktionen beschreibt, und die Reaktions-Diffusions-Prozesse im Volumen mit Finite-Element-Methoden (FEM) simuliert. Die Dynamiken der Ionenkanäle in den Spalten werden wir stochastisch simulieren. Das Membranpotentialmodell wird zelltyp- und speziesspezifisch sein. Wir werden problemspezifisches hybrid stochastisch-deterministisches Zeitschritt-Management entwickeln. Der Bereich von Raum- und Zeitskalen im Volumen erfordert räumliche und zeitliche Adaptivität der FEM. Wir werden Algorithmen für ihre gleichzeitige Nutzung erarbeiten, und lineare implizite Runge-Kutta-Methoden höherer Ordnung einsetzen, um den Anforderungen an das Zeitschritt-Management gerecht zu werden. Für die Nutzung von Hochleistungsrechnern werden wir angepasste "load balancing"-Methoden entwickeln.
Graduiertenkolleg 1554, Micro-Macro-Interactions in structured Media and Particle Systems "Mehrkomponenten-Phasenfeld-Gemischmodelle mit chemischen Reaktionen"
Laufzeit: 01.08.2017 bis 31.03.2020
Im Fokus dieser Arbeit steht ein von Dreyer, Giesselmann und Kraus hergeleitetes Phasenfeld-
Gemischmodell zur Beschreibung reaktiver Mehrphasen-Strömungen. Obwohl die Untersuchung von Phasengrenzen z.B. zwischen Gasen und Flüssigkeiten schon seit langem Gegenstand der Forschung ist, sind die Ergebnisse in diesem Gebiet noch unzureichend und es gibt viele offene Fragen.
Die Einführung eines Phasenfeldes erlaubt eine einfachere Behandlung der Probleme, die durch scharfe Phasengrenzen auftreten. Daher kann die angestrebte Arbeit einen wichtigen Beitrag zur Forschung im Bereich der Simulation und Modellierung kompressibler Mehrphasenströmungen leisten.
Das hier betrachtete Modell und geeignete Untermodelle sollen analytisch diskutiert und numerisch berechnet werden. Sofern möglich, sind exakte Lösungen zu konstruieren. Von besonderem Interesse sind die Quellterme des Modelles, die chemische Reaktionen und Phasenübergänge beschreiben. Umfangreiche Vergleiche mit anderen Modellen in der Literatur und experimentellen Daten werden durchgeführt. Hierzu soll eine kooperation mit der Arbeitsgruppe von Prof. Thévenin (OvGU Verfahrenstechnik) im Rahmen des Kollegs erfolgen.
An Immersed Boundary Method for Gas Flows around Moving Solids
Laufzeit: 01.01.2016 bis 31.12.2019
This project considers a new diffuse interface model for the numerical simulation of compressible flows round fixed and moving solid bodies of arbitrary shape. The solids are assumed to be moving rigid bodies, without any elastic properties. The mathematical model is a simplified case of the seven-equation Baer-Nunziato model of compressible multi-phase flows. The resulting governing PDE system is a nonlinear system of hyperbolic conservation laws with non-conservative products. The geometry of the solid bodies is simply specified via a scalar field that represents the volume fraction of the fluid present in each control volume. This allows the discretization of arbitrarily complex geometries on simple uniform or adaptive Cartesian meshes. One main goal was to prove that at the material interface, i.e. where the volume fraction jumps from unity to zero, the normal component of the fluid velocity assumes the value of the normal component of the solid velocity. We were able to show that this result can be directly derived from the governing equations, either via Riemann invariants or from the generalized Rankine Hugoniot conditions according to the theory of Dal Maso, Le Floch and Murat.which justifies the use of a path-conservative approach for treating the nonconservative products.
Two phase mixture conservation laws for flows with chemical reactions
Laufzeit: 01.05.2014 bis 30.04.2018
We want to use the system of two mixture conservation laws to model chemical reactions in bubble column reactors. These partial differential equations are complemented by mass balances and reaction kinetics for the chemical reactions. The aim is to develope efficient numerical methods to compute examples which come from specific experiments that are being made by cooperation partners.
Numerical simulation of population balance equations and lime shaft kilns
Laufzeit: 01.06.2013 bis 27.08.2016
The numerical simulation of a one-dimensional mathematical model is developed describing the lime calcination process in different types of shaft kilns. The model comprises a system of ordinary differential equations derived from mass and energy balances. A particle model for the chemical reaction is used and is connected to the energy balance equations for the gas and the solid inside the kiln taking into account the size distribution of solid particles.
This mixed initial value problem leads to a very unstable behavior of the existing numerical methods for boundary value problems. A stable numerical scheme for the solution of the equations is developed and analyzed. With this the influence of several parameters on the lime calcination process can be investigated. The results of this study can be transferred directly to the praxis for design, operation, regulation and optimization of normal shaft kilns.
Numerics of population balance equations in biology
Laufzeit: 01.04.2011 bis 31.12.2014
In my field of research I deal with the evolution of distributed quantities in epidemiology. The underlying mathematical model is complex and consists of ordinary, partial differentials and integral terms. I want to develop a convergent numerical scheme solving a weakly coupled system of those partial integro differential equations approximately. Beginning with a testcase of 2 independent variables / characterics of such an evolution process it will be the aim to deal with a high dimensional model later on.
Discontinuous Galerkin Methods for Reaction-Diffusion Systems: A Case of Intracellular and Intercellular Calcium Dynamics
Laufzeit: 01.10.2010 bis 31.03.2014
Kalzium ist ein wichtiger Botenstoff. Kalziumwellen übermitteln Signale in lebenden Zellen und nehmen an der Kommunikation zwischen Zellen teil. Die Dynamik der Konzentration von Kalziumionen ist durch einen Übergang von lokalen stochastischen Ausstößen aus Puffern zu globalen Wellen und Oszillationen gekennzeichnet. Die Modellierung der Diffusion, der Bindung und des Membrantransports von Kalziumionen führt auf ein System von Reaktions-Diffusions-Gleichungen. Diskontinuierliche Galerkin-Methoden verbinden Eigenschaften der Finite-Element-Methoden und der Finite-Volumen-Methoden. Diese robusten und genauen Methoden finden eine immer stärkere Verbreitung.
Dieses Projekt soll effiziente, zuverlässige, adaptive numerische Lösungen zu Reaktions-Diffusions-Systeme für obige Anwendungen entwickeln.
International Max Planck Research School for Analysis, Design and Optimization in Chemical and Biochemical Process Engineering Magdeburg "Efficient and accurate numerical simulations of non-isothermal nonlinear reactive chromatographic models"
Laufzeit: 01.04.2010 bis 31.07.2013
In this work models capable to describe non-reactive and reactive liquid chromatography were investigated numerically and theoretically. These models have a wide range of industrial applications e.g. to produce pharmaceuticals, food ingredients, and fine chemicals. Two established models of liquid chromatography, the equilibrium dispersive model and the lumped kinetic model, were analyzed using Dirichlet and Robin boundary conditions to solve the column balances. The models consist of systems of convection-diffusion-reaction partial differential equations with dominating convective terms coupled via differential or algebraic equations. The Laplace transformation is used to solve them analytically for the special case of single component linear adsorption. Statistical moments of step responses were calculated and compared with numerical predictions generated by using the methods studied in this thesis for both sets of boundary conditions. For nonlinear adsorption isotherms, only numerical techniques provide solutions. However, the strong nonlinearities of realistic thermodynamic functions and the stiffness of reaction terms pose major difficulties for the
numerical schemes. For this reason, computational efficiency and accuracy of numerical methods are of large relevance and a focus of this work. Another goal is to analyze the influence of temperature gradients on reactive liquid chromatography, which are typically neglected in theoretical studies. By parametric calculations the influence of temperature gradients on conversion and separation processes during reactive liquid chromatography were analyzed systematically. Additionally, the complex coupling of concentration and thermal fronts was illustrated and key parameters that influence the reactor performance were identified. Two numerical schemes, namely the finite volume scheme of Koren and the discontinuous Galerkin finite element method, were applied to numerically approximate the models considered.
These schemes give a high order accuracy on coarse grids, resolve sharp fronts, and avoid numerical diffusion and dispersion. Several case studies to analyze non-reactive and reactive liquid chromatographic processes are carried out. The results of the suggested numerical methods were validated qualitatively and quantitatively against some finite volume schemes from the literature. The results achieved verify that the proposed methods are robust and well suited for dynamic simulations of chromatographic processes.
International Max Planck Research School for Analysis, Design and Optimization in Chemical and Biochemical Process Engineering Magdeburg " The Singular Coagulation and Coagulation-Fragmentation Equations"
Laufzeit: 01.08.2009 bis 30.07.2013
Certain problems in the physical sciences are governed by the coagulation and the coagulation-fragmentation equations. These equations are a type of integro-differential equations which are also known as aggregation and aggregation-breakage equations respectively. The coagulation (aggregation) term describes the kinetics of particle growth where particles can coagulate (aggregate) to form larger particles via binary interaction. On the other side, the fragmentation (breakage) term describes how particles break into two or more fragments. The term aggregation covers two processes, the coagulation and agglomeration process. The coagulation process is when particles aggregate forming a new particle where it is not possible to define them in the new particle. The agglomeration process is when particles aggregate and it is possible to define them in the new particle. The coagulation and agglomeration processes are often found in liquid and solid substance respectively. Mathematically the two processes are described by the same equation, therefore we will refer to it as coagulation.Breakage and fragmentation are also synonyms. In many applications, the size of a particle is considered as the only relevant particle property. If we describe the size of a particle by its mass, we have that during the coagulation process the total number of particles decreases while by the fragmentation process the total number of particles increases. In the coagulation process as well as in the fragmentation process the total mass remains constant. Examples of these processes can be found e.g. in astrophysics , in chemical and process engineering, polymer science, and aerosol science.
The aim of this work was to present some results related to the existences and uniqueness of solutions to the coagulation and the coagulation equation with multifragmentation.
We presented a proof of an existence theorem of solutions to the Smoluchowski coagulation equation for a very general class of kernels. This class of kernels includes singular kernels. The important Smoluchowski coagulation kernel for Brownian motion, the equi-partition of kinetic energy (EKE) kernel, and the granulation kernel are covered by our analysis. Our result is obtained in a suitable weighted Banach space of L^1 functions. We define a sequence of truncated problems from our original problem in order to eliminate the singularities of the kernels. Using the contraction mapping principle, we proved the existence and uniqueness of solutions to them. Using weak compactness theory, we prove that this sequence of solutions converges to a certain function. Then it was shown that the limiting function solves the original problem. The uniqueness result was obtained by taking the difference of two solutions and showing that this difference is equal to zero by appliying Gronwall’s inequality.
Using the same technique we proved the existence and uniqueness of solutions to the singular coagulation equation with multifragmentation in a suitable weighted Banach space of L^1 functions extending the previous result. The Smoluchowski coagulation kernel for Brownian motion, the equi-partition of kinetic energy (EKE) kernel, and the granulation kernel are examples of singular coagulation kernels which are covered in our analysis. It is important to point out that there is no previous existence result mentioned kernels of solution to the coagulation-fragmentation equation with singular kernel.
Discontinuous Galerkin Method for Solving the Shallow Water Equations
Laufzeit: 01.04.2010 bis 31.03.2013
The shallow water equations (SWE) are derived from the incompressible Navier-Stokes equations using the hydrostatic assumption and the Boussinesq approximation. The SWE are a system of coupled nonlinear partial differential equations defined on complex physical domains arising, for example, from irregular land boundaries. The discontinuous Galerkin methdos (DG methods) is are a from of methods for solving partial differential equations. The combine features of the continuous framework and have been succesfully appled to problems arising from a wider range of applications. In this project, we formulate the discontinuous Galerkin methods (DG methods) for solving the shallow water equations (SWE) and study them using methods of numerical analysis
Fluidized Beds
Laufzeit: 01.04.2008 bis 31.03.2013
The traditional importance of heat and mass transfer in physics and engineering have led to many physical interesting and mathematically challenging problems in relation to nonlinear parabolic and hyperbolic equations. From the process engineering point of view, the fabrication and subsequent treatment of disperse products are very important. This is due to the fact that 60% of all products of the chemical industry are particles.The work is on the modeling of heat and mass transfer in gas-solid-fluidized beds with spray injection which are widely used for the formation of particles from liquid solutions or suspensions as well as for the coating of particles with solid layers for the production of functional surfaces to enhance their handling properties, e.g. instant properties, controlled release or protection for chemical reactions.
Such a fluidized bed spray granulation (FBSG) system involves high heat and mass transfer and mixing properties, as well as the coupling of wetting, drying, particle enlargement, homogenization and separation processes. In FBSG, the liquid is sprayed with a nozzle as droplets on solid particles. The droplets are deposited on the particles and distributed through spreading. The solvent evaporates in the hot, unsaturated fluidization gas, thereby the solid grows in layers on the particle surface. This process is called granulation or layering (coating). The process conditions in the injection zone have a strong influence on the local particle volume concentrations, particle velocities, deposition of the liquid droplets and solidfication of the solid content of the liquid and subsequent product qualitiy. Fluidized beds are widely used to achieve either chemical reactions or physical processing that require interfacial contact between gas and particles. Heat transfer is important in many of these applications, either to obtain energy transfer between the solid and gas phases or to obtain energy transfer between the two-phase mixture and a heating/cooling medium.The latter case is particularly important for fluidized bed reactors which require heat addition or extraction in order to achieve thermal control with heats of reaction. The project aims to compute balance laws for fluidized beds with discontinuous Galerkin methods.
GRK 1554 Mikro-Makro-Wechselwirkungen in strukturierten Medien und Partikelsystemen "Exact Riemann solutions to selected resonant hyperbolic systems"
Laufzeit: 01.06.2009 bis 31.03.2013
A variety of phenomena in nature and engineering can be described by the resonant hyperbolic systems, such as the tsunami waves in the ocean, the arterial and venous systems of hemodynamics, the jet engine of aircraft and rocket propulsion systems. The Riemann problem serves as building blocks for the existence and uniqueness of the general Cauchy problem of hyperbolic systems. Hence in this project, we aim to completely solve the Riemann problem for selected resonant hyperbolic systems: the gas dynamic equations in a duct of variable cross–sectional areas and the shallow water equations with a jump in the bottom topography. In the context of the Riemann solutions to the consideration resonant hyperbolic systems, the challenges both for theoretical and numerical studies are here. The first one is to reveal the structure of all resonant waves due to the fact that waves of different families are not well separated and coincide with each other. The second one is to uniformly compute the Riemann problem for any Riemann initial data. The third one is to determine the existence and uniqueness of the weak solutions for the general problem. We solved these problems in [Han et al. 2010, 2012]. The results are summarized in the following.
- The velocity function was introduced to determine the wave curves of the stationary wave. The existence of the stationary waves has been studied for the first time. Specifically, for the gas dynamic equations in a duct of variable cross–sectional areas, on one hand if the duct is expanding monotonic, the stationary wave always exists; on the other hand if the the duct is converging monotonic, the stationary wave exists if and only if the variation of the duct is small enough. To be precise, we defined two critical duct areas to justify that certain stationary waves exist or not. For the shallow water equations, we validated that the water can always spread across a lowered bottom step; But the water can go across an elevated bottom step if and only if a critical step size is larger than the actual jump height of the bottom step. The critical step size is determined by the height and the Froude number of the inflow state. The existence for these two systems provides the methodology for other resonant hyperbolic systems, as well as for the general resonant hyperbolic systems.
- Two basic types of the resonant waves were carefully studied. The first type is due to the coincidence of transonic rarefactions and stationary waves. While the second type is due to the coincidence of stationary waves with 0 speed shocks. The existence and monotonicity of two corresponding composite wave curves were carefully established.
- For simplicity, two combination wave curves in the state space were named L-M and R-M wave curves. They can be classified into different basic cases. The wave configurations and the details of the L-M and R-M wave curves have been completely examined and studied.
- The intersection points of the L–M and R–M curves correspond to the intermediate states of the Riemann solutions. The L-M curve is decreasing and the R-M curve is increasing for most cases. Hence the Riemann solution exists uniquely. However, bifurcations appear in certain cases of L-M and R-M curves. Due to the bifurcations, the L-M and R-M curves are folding in the state space. Therefore, there are more than one intersection points for L–M and R–M curves. In such kind of the case the Riemann solution is nonunique.
- To single out the physically relevant solution among all the possible Riemann solutions, we compared the nonunique Riemann solutions of the gas dynamic equations in ducts with the averaged numerical solutions to compressible axisymmetrical Euler equations computed by the GRP scheme in a cylindrical tube based on unstructured triangle meshes. Here GRP is the abbreviation of the generalized Riemann problem. Andrianov and Warnecke in [1] suggested using the entropy rate admissibility criterion to rule out the unphysical solutions. However, several examples have been found for which the solution picked out does not have the maximum increase in entropy. Moreover, numerous numerical experiments show that the physically relevant solution is always located on a certain branch of the L–M curves. The bifurcation introduces two additional solutions, but the physical relevant solution is still on the original branch [Han et al. 2013].
Untersuchung des Einflusses der Korngrößenverteilung und der Betriebsbedingungen auf die Qualität und den Energieverbrauch beim Brennen von Kalk in Schachtöfen
Laufzeit: 01.07.2010 bis 30.06.2011
Zur Herstellung von Kalk (CaO) wird der Rohstoff Kalkstein (CaCO3) unter Hitze zersetzt, wobei Kohlendioxid (CO2) abgespalten wird. Dieser Kalzinierungsprozess findet bei sehr hohen Temperaturen in einem Schachtofen statt. Der Kalkstein wird von oben in den Ofen eingefüllt und am unteren Ende wird der Kalk abgezogen. Heiße Gase fließen im Gegenstrom von unten nach oben und werden durch die Verbrennung von seitlich zugeführtem Brennstoff erhitzt. Damit wird der Ofen in die folgenden drei Zonen unterteilt: die Vorwärmzone, die Brennzone und die Kühlzone.
Mathematisch kann die chemische Reaktion durch eine Differentialgleichung für den Umsatzgrad beschrieben werden, die numerisch gelöst werden muss. Weiterhin gelten Energiebilanzgleichungen für die Solid- und Gastemperaturen, die den Wärme- und Massentransport beschreiben. Dies sind gekoppelte gewöhnliche Differentialgleichungen in einer räumlichen Variablen mit Anfangsbedingungen von verschiedenen Seiten des Ofens, wodurch ein System von Randwertproblemen gegeben ist.
In einem ersten Schritt wird eine monodisperse Verteilung der Kalksteine angenommen, um das allgemeine Verhalten des Prozesses zu beobachten und einen stabilen numerischen Code bereitzustellen. Hierbei wird auch der Einfluss des Wärmeverlustes durch die Wände und die axiale Wärmeleitung berücksichtigt. Diese Informationen fließen dann in die Simulation des Prozesses mit einer Korngrößenverteilung ein. Durch eine Vielzahl an Parametervariationen soll der Energieverbrauch optimiert werden.
GRK-Mikro-Makro-Wechselwirkungen in strukturierten Medien und Partikelsystemen "Numerical methods for population balance equations with high property space dimension"
Laufzeit: 01.08.2007 bis 31.03.2011
The topic of this project is the numerical analysis and computation of population balance equations (PBEs).
Aggregation and breakage PBEs can be rewritten in mass conservative form whereas growth is number conserving. Therefore, one of our aims is to achieve the coupling of all the particulate processes in such a way that both number and mass are preserved. We investigated mathematically and verified numerically schemes which are both number and mass preserving for the coupled processes. The second aim is to study the existence of approximated solution using the finite volume scheme for binary aggregation and general breakage problem. Further, we explored the stability and the convergence analysis of the method for non-linear aggregation and linear breakage problem. This is an extension of the results given by J.P. Bourgade and F. Filbet. Moreover, we also study the two-dimensional problems by using sectional methods such as the cell average and the fixed pivot techniques. The doctoral thesis was submitted in November 2010.
International Max Planck Research School for Analysis, Design and Optimization in Chemical and Biochemical Process Engineering Magdeburg "Mathematical Theory for the Dynamics of Coagulation-Fragmentation Equations for Process Engineering"
Laufzeit: 01.10.2007 bis 30.09.2010
We are considering coagulation-fragmentation equations which are a type of partial integro-differential equations. For these we are considering typical questions of mathematical and numerical analysis. The coagulation-fragmentation equations model the dynamics of cluster growth and describe the time evolution of a system of clusters under the combined effect of coagulation and fragmentation. Each cluster is identified by its size (or volume) which is assumed to be a positve real number. From a physical point of view the basic mechanisms taken into account are the coalescence of two clusters to form a larger one and the breakage of clusters into smaller ones. These models are of subtantial interest in many areas of science: colloid chemistry, aerosol physics, astrophysics, polymer science, oil recovery dynamics, fluidized bed granulation processes, mathematical biology etc. Several researcher derived existence and uniqueness results for solutions to coagulation equations with binary fragmentation. However, the case of multiple fragmentation was mostly neglected. We established the existence of solutions to coagulation equations with multiple fragmentation for a large class of kernels which relies on the weak L1 compactness methods applied to suitably chosen approximating equations. The question of uniqueness was also considered and a new result was established. Recently, we gave the convergence analysis of the fixed pivot technique given by S. Kumar and Ramkrishna for solving the nonlinear coagulation population balance equations. In a sequel to this work, we also study the convergence analysis of the cell average technique given by J. Kumar et al. for nonlinear coagulation population balance equation and compared the mathematical and numerical observations with those for the fixed pivot technique. It is observed that the cell average technique gives a better performance than the fixed pivot technique on non-uniform grids. The doctorate was successfully completed in November 2010.
International Max Planck Research School for Analysis, Design and Optimization in Chemical and Biochemical Process Engineering Magdeburg "The Dynamics of the Becker-Döring System of Nucleation Theory applied in Process Engineering"
Laufzeit: 01.10.2007 bis 30.09.2010
In this project we study the Becker-Döring model mathematically and numerically. This model describes nucleation process of droplets in gas, crystals in solutions or liquid droplets in a crystalline solid such as Gallium Arsenide (GaAs). It is a special case of the discrete coagulation-fragmentation equations. It has several applications including suspensions, aerosols, enantiomer crystallization etc. One of the objectives is to extend some results on existence and uniqueness of solutions. Furthermore, efficient computation of solutions through metastable phases is a big challenge due to a very large system of equations required to exhibit the metastability. Our aim is to provide a computationally efficient numerical method for solving the model. Regarding efficient computation, one possibility could be model reduction in such a way that over all balances like mass conservation and the total number of aggregates are accurate enough. The model reduction idea relies on considering computation of only a few concentrations. This leads to the inconsistency of the moments, that is, poor prediction of total aggregates and break down of mass conservation. In order to overcome inconsistency of the numerical method one can use the idea of the cell average technique [An efficient numerical technique for solving population balance equation involving aggregation, breakage, growth and nucleation, Powder Technology 182, 2008, Pages 81-104] which is well known for solving a general aggregation-breakage equation. This technique predicts the complete density distribution as well as the moments of the distribution very accurately by considering only a few grid points for the computation.
Numerical methods for multi-phase mixture conservation laws with phase transition
Laufzeit: 20.09.2007 bis 20.09.2010
Multi-phase mixtures occur very commonly in nature and technology. Several mathematical models have been developed to describe the flow of such mixtures. But both the mathematical modelling and numerical computation of multi-phase flows are associated with certain difficulties. The difficulties is modelling concern the physical transfer processes taking places across the interface such as mass, momentum and heat transfer, and phase change. By using averaging technique of the single phase equations results additional terms, which describe those transfer processes. The exact expressions for the transfer terms are usually unknown. Also there appear differential terms that are extracted from the transfer terms that prevent the system from being in divergence form. Therefore, they are referred to as the non-conservative terms. The numerical difficulties arise the resulting model cannot be written in divergence form (conservative form) due to the existence of non-conservative terms. And in this case one cannot define a weak solution for the systems of governing equations in the standard sense of distributions, as it is done for the systems of conservation laws. The primary goal of this project is to improve and validate numerical schemes for the solution of two-phase flow equations concerning non-conservative terms. There exist a large number of numerical methods for conservation laws which use an exact or approximate solution of the local Riemann problem at the cell interfaces. These algorithms belong to the family of Godunov-type methods. To apply these methods to two pase flows we need to improve an efficient and robust Riemann solver for the non-conservative systems. Also we need to improve an accurate methods for the discretization of the non-conservative terms. Another problem in the numerical solution of two-phase flows occurs when pure phases are present in the domain. Then for the other phase, the situation is analogous to the occurence of vacuum in the solution of the usual fluid dynamics equations. For the Euler equations, there are two different ways to attack the problem of vacuum occurrence. One is to track the gas-vacuum interface explicitly. However in multi-D this becomes very complicated due to topological problems, like merging, breaking, and creating of the interfaces. An alternative is to admit a negligible amount of the phase, which is supposed to disappear. It is important to use a positively conservative method for the solution of the interface problems between almost pure phases. Otherwise a smallest numerical inaccuracy would lead to negative pressure or densities. The doctorate was successfully completed in 2010.
Homogenized systems for liquid-vapour transition in unsteady compressible two-phase flow
Laufzeit: 01.01.2005 bis 31.12.2009
In this project, we consider the liquid vapour flow as a homogenized mixture of the two phases. The resulting models pose a major challenge to mathematics, since there are a number of important open questions to be studied. The primary goal is to improve goal is to improve and validate numerical schemes for such models. Numerical solutions are needed in many diverse engineering applications involving phenomena such as liquid sprays of bubbly flows. In order to improve the quality of numerical results we need to address some mathematical issues concerning the modelling and resulting well-posedness of the equations. Also we will have to develop a deeper understanding of the theory and numerical methods for hyperbolic systems of equations containing non-conservative derivatives. Another challenge is phase extinction, which is related to vacuum states in gas dynamics. Further, it will be necessary to encorporate phase transitions into the models and numerical computations. Gefördert von der DFG im Rahmen der DFG-CNRS-Forschergruppe 563 "Micro-Macro Modelling and Simulation of Liquid-Vapour Flows".
Folgeprojekt "Partial Differential Equations and Applications in Geometry and Physics"
Laufzeit: 01.04.2004 bis 31.03.2009
The mathematical theory of systems of time-dependent nonlinear hyperbolic and mixed type partial differential equations, more specifically conservation laws, in more than one space dimension is in a very unsatisfactory state. The basic issue of global in time existence of solutions is still an open problem. Since the 1950s the existence and uniqueness for scalar equations was solved in the seminal work of Oleinik and Kruzkov. For systems in one space dimension there is an existence theorem of Glimm for data with small total variation since 1965. The small data requirement was only relaxed for some $2\times 2$ systems by DiPerna in the early eighties. Uniqueness is not completely understood, even in the one-dimensional case, despite some recent progress by Bressan, T.-P.\ Liu and T.\ Yang. This field offers a wealth of open problems for future research. Shock waves are discontinuous weak solutions of the equations. This generalization of solutions in the sense of distributions leads to a serious non-uniqueness problem which necessitates the use of additional so-called entropy conditions in order to select the physically meaningful solutions. Any approximation has to be checked whether it leads to these meaningful solutions. Wang Jinghua (Beijing) and Warnecke (Magdeburg) started their collaboration by partially proving the entropy consistency of large time step schemes. Later the convergence of finite difference approximations for relaxation systems and the Ruijgrok-Wu model in kinetic theory were proven. Also results on convergence rates and error estimates were achieved, some jointly with Wang"s former student Liu H. Traveling wave solutions for conservation laws with viscous and dispersive perturbations are smooth approximations of shock waves. The existence and stability of solutions that are perturbations of such traveling waves was proven by Pan Jun, Chinese doctoral student of Warnecke (Magdeburg).
GRK Mikro-Makro-Wechselwirkungen in strukturierten Medien und Partikelsystemen "Population Balance Modelling by the Discrete Element Method (DEM) in Fluidized Bed Spray Granulation"
Laufzeit: 01.10.2005 bis 31.01.2009
In a fluidized bed, particle growth is governed by different mechanisms; granulation, coating agglomeration, attrition and breakage. The agglomeration of particles is a process in which particles collide and stick together to form new large particles. This process is described by population balance equations for a time dependent particle size distribution function. The decisive quantities determining the process are integral kernels describing the collision frequency and intensity, adhesion probability and agglomeration rate. The aim of this project was to simulate these quantities using the Discrete Element Method (DEM). From these microscopic simulations the kernels werel be derived by averaging to a coarser scale. The project was completed with doctoral thesis of N.N. Rao.
Development of adaptive methods for the efficient resolution of Navier-Stokes equations and hyperbolic systems with source terms
Laufzeit: 01.01.2005 bis 20.08.2008
The purpose of the project is the mathematical and numerical survey of non linear complex systems derived from problems linked to natural management resources, in particular water management. We will put the emphasis on working out efficient numerical methods that summarize as follows: - The use of self-adaptive methods in finite elements or finite volumes methods , through working out a posteriori error estimations for nonlinear systems derived from conservation laws. - The use of these estimations for automatic adaptation of meshes in an optimal way, by setting "in a better way" the degrees of freedom and developing new strategies of refinement in two or three dimensions. - Working out optimal and efficient solvents, by developing preconditioned methods allowing an efficient resolution at low cost of the large systems obtained after discretization . The numerical schemes should be appropriate for use in engineering, geophysical as well as biomechanical problems. We want to deal with the following types of problems: the Euler and Navier-Stokes equations with source terms, the shallow-water equations with source terms, which are often used in meteorological or geophysical modeling, conservation laws with nonlinear diffusion, which describe, for example, motion of oils, composites, polymers or blood (hemodynamics). In principal, providing usable results is the purpose of a numerical computation for realistic complex flows, but it is eminently desirable to be able to estimate its validity. Hence we will seek to check the efficiency and reliability of computer solution,starting from the computed solution it self and eventually from an auxiliary simple calculation. The a posteriori error estimations constitute a major tool to achieve this task in every numerical simulation and in every adaptable methods. One hould keep in mind that beyond the knowledge of the accuracy of our calculations, we also seek to minimize the cost in order to obtain the precision. A further important component for three-dimensional problems is the development of an iterative solution technique together with appropriate preconditioning. Fundamental to achieving success in any of these aspects are the choice of formulation and the approximation them selves. It is proposed that all these aspects be considered in this project: there are strong relationships and obvious interactions. Stabilized formulations, precondioned iteration and a posteriori error estimation and adaptive gird refinement are all areas which are internationally at the cutting edge research.
Numerische Simulation intrazellulärer Ca 2+ - Dynamik in lebenden Zellen
Laufzeit: 01.12.2004 bis 31.08.2007
Kalzium ist ein wichtiger second messenger in der Zellkommunikation. Die Dynamik intrazelluläen Kalziums ist im wesentlichen Freisetzung und Aufnahme durch Speicher und die Reaktion mit Puffern. Das Projekt hat die detaillierte theoretische Untersuchung der Freisetzung aus dem endoplasmischen Retikulum zum Ziel. Es sollen experimentell unzugängliche Parameter durch Simulationen bestimmt werden. Die Untersuchungen beginnen an lokalen Ereignissen und befassen sich dann mit dem Übergang zu globaler Freisetzung. Die dreidimensionale Geometrie, räumlich diskrete Anordnung der Kanäle und deren stochastisches Verhalten sollen modelliert werden. Die Kenntnis lokaler Parameter wird erlauben, Modelle des ip-Rezeptorkanals qualitativ und quantitativ zu testen. Es sollen flexible adaptive Finite-Element-Methoden mit a posteriori Fehlerschätzern zum Einsatz kommen. Um die in der Zeitintegration auftretenden lokalen Steifigkeiten behandeln zu können, sollen lokale Partitionierungsmethoden für diesen numerisch aufwendigen Anwendungsfall entwickelt werden. Vom Standpunkt der Simulation betrachtet, ist intrazelluläre Kalziumdynamik prototypisch. Daher wird die zu schaffende software auch zur Simulation anderer intrazellulärer Prozesse genutzt werden können.
Mikro-Makro-Wechselwirkungen in strukturierten Medien und Partikelsystemen "Population Balance Modelling and Studies for the Particle Formulation in Fluidized Bed Spray Granulation
Laufzeit: 01.10.2003 bis 30.09.2006
The fluidized bed spray granulation has prevailed as a continuous thermal treatment method for granular solid matter due to its high mass and heat transfer ratio, as well as due to the coupling of the wetting, drying, particle enlarging, shaping, homogenization and separation processes. In a fluidized bed, particle growth is governed by different mechanisms: granulation, coating agglomeration, attrition and breakage. This work focuses on agglomeration especially modelling and computing of population balance balance of particulate systems in connection with heat and mass transfer. Modelling of agglomeration process results in a integral differential equation. Several solution techniques of the integral differential equation were investigated. Nevertheless, it has been observed that the numerical discretized methods are appropriate for the problem and solutions are compared against analytical solution for an ideal case of agglomeration in order to access their accuracy and to give a guideline for the choice of the method. The future aim is to couple the aggregation process with heat and mass transfer phenomena. Moreover, some attrition phenomenon has been observed during the aggregation process. Following this, the aim is to model attrition along with the aggregation process.
Mikro-Makro-Wechselwirkungen in strukturierten Medien und Partikelsystemen "Numerical Computation of Heat and Mass Transfer in Fluidzed beds with spray Injection"
Laufzeit: 01.03.2003 bis 28.02.2006
Fluidized bed spray granulation is a process used for the production of granular high-quality, low-dust, and low-attrition solids originating from liquid products. The modeling of the problem is obtained by the balance of the mass and energy of the air, of the solid as well as of the liquid contained in the fluidized bed. The balance inside the fluidized zone delivers a hyperbolic and parabolic partial differential equation for each balance variable. The balance variables are understood as functions of space and time. The model equations of the problem are a complicated system of partial differential equations. At present we are solving the full system with zero Neumann boundary conditions at the wall surface and Dirichlet boundary conditions at the bottom surface. For the full system we obtained positive results in two dimensions for the temperature and concentration distributions inside the fluidized bed using a standard Galerkin method for the spatial discretization with discrete boundary conditions and using the implicit Euler method for the time discretization. Now we want to compare these results with experimental results. Also we want to optimize the computation by using partitioning methods to compute non-stiff parts of the problem by explicit time stepping. We are studying the construction of invariant rectangles and stability for this problem. Later we are interested in 3D simulations. We want to use different degrees of net depositions for the liquid drops.
Mikro-Makro-Wechselwirkungen in strukturierten Medien und Partikelsystemen "Numerical Study of intraparticle heat and mass transfer during drying"
Laufzeit: 01.03.2003 bis 28.02.2006
The aim of the study is to identify numerical methods that are necessary to provide accurate and efficient computations of the equations governing drying process. Drying of a porous material, i.e., removal of water from the pores by evaporation, is a complex process which involves heat and mass transfer. Porous media may be isotropic or an-isotropic. We are working with isotropic porous media at constant temperature (isothermal drying). The governing equations are strongly nonlinear, coupled diffusion equations with nonlinear boundary conditions. The laws of the variables change with different stages of drying. As an initial step, we reduced the problem by considering only the water balance equation which contains one primary variable and 17 dependent variables. Numerically the finite volume approach with explicit, semi-implicit and implicit discretizations has been studied in one dimension. Explicit scheme is studied in one and two dimensions. It has been observed that semi-implicitness is efficient and sufficient to guarantee the stability. Further we are interested in studying invariant regions and positivity of the solution. As a next step, we also consider the air balance which makes the system strongly coupled. We have results with an explicit finite volume scheme. Work is under progress in studying the implicit and semi-implicit discretizations for the coupled system.
Echt mehrdimensionale Berechnungsverfahren für Systeme hyperbolischer Erhaltungsgleichungen
Laufzeit: 01.10.2000 bis 30.06.2004
In dem Projekt werden echt mehrdimensionale Berechnungsverfahren für nichtlineare Systeme von Erhaltungsgleichungen in zwei oder später drei Raumdimensionen weiterentwickelt und analytisch untersucht. Da die effiziente Approximation einer mehrdimensionalen Evolution mittels Bicharakteristiken für Systeme von Erhaltungsgleichungen ein schwieriges Problem darstellt, wurden derartige Verfahren bisher sehr vernachlässigt. Bei Überwindung dieses Problems wird man sehr nützliche Verfahren zur Auflösung mehrdimensionaler Pänomene, bei denen die derzeit überwiegend verwendeten Riemann-Löser aufgrund der Eindimensionalität ihres Ansatzes weniger adäquat sind, erhalten. Diese Verfahren sollen für ingenieurwissenschaftliche Anwendungen, z.B. bei den Euler-Gleichungen der reibungsfreien Gasdynamik oder den Maxwell-Gleichungen der Elektrodynamik, entwickelt werden. Dabei sollen eine höhere Genauigkeit und eine grössere Effizienz der Verfahren erzielt werden.Da numerische Berechnungen häufig, z.B. bei Problemen der Ingenieurwissenschaften, auf Differentialgleichungen angewandt werden, deren Lösung nicht explizit bekannt ist, können numerische Approximationen irreführende Ergebnisse liefern. Zur Absicherung der Verfahren ist deshalb eine weitere mathematische Analyse der Stabilität und der Genauigkeit der Approximationen wichtig.
Partial Differential Equations and Applications in Geometry and Physics
Laufzeit: 01.04.2001 bis 31.03.2004
The mathematical theory of systems of time-dependent nonlinear hyperbolic and mixed type partial differential equations, more specifically conservation laws, in more than one space dimension is in a very unsatisfactory state. The basic issue of global in time existence of solutions is still an open problem. Since the 1950s the existence and uniqueness for scalar equations was solved in the seminal work of Oleinik and Kruzkov. For systems in one space dimension there is an existence theorem of Glimm for data with small total variation since 1965. The small data requirement was only relaxed for some $2\times 2$ systems by DiPerna in the early eighties. Uniqueness is not completely understood, even in the one-dimensional case, despite some recent progress by Bressan, T.-P.\ Liu and T.\ Yang. This field offers a wealth of open problems for future research. Shock waves are discontinuous weak solutions of the equations. This generalization of solutions in the sense of distributions leads to a serious non-uniqueness problem which necessitates the use of additional so-called entropy conditions in order to select the physically meaningful solutions. Any approximation has to be checked whether it leads to these meaningful solutions. Wang Jinghua (Beijing) and Warnecke (Magdeburg) started their collaboration by partially proving the entropy consistency of large time step schemes. Later the convergence of finite difference approximations for relaxation systems and the Ruijgrok-Wu model in kinetic theory were proven. Also results on convergence rates and error estimates were achieved, some jointly with Wang"s former student Liu H. Traveling wave solutions for conservation laws with viscous and dispersive perturbations are smooth approximations of shock waves. The existence and stability of solutions that are perturbations of such traveling waves was proven by Pan Jun, Chinese doctoral student of Warnecke (Magdeburg).
Numerische Modellierung von komplexen kompressiblen Strömungen mit echt mehrdimensionalen Verfahren
Laufzeit: 01.01.2001 bis 31.12.2003
Ziel des Projektes ist die mathematische Modellierung von komplexen nichtlinearen Systemen von Erhaltungsgleichungen mit Quelltermen und/oder Dissipationstermen. Wir werden klassische, d.h. Newtonische, sowie auch nicht-Newtonische Dissipationsterme betrachten. Das Forschungsvorhaben konzentriert sich auf die Entwicklung von neuen numerischen Verfahren, die mit Hilfe von folgenden numerischen Approximationen von Splitting-Typ konstruiert werden: - eine echt mehrdimensionale Approximation mittels Bicharakteristiken der nichtlinearen Konvektionsterme erster Ordnung - eine stabile Finite-Elemente-/Finite-Differenzen-Approximation der Quellterme, sowie auch der Dissipationsterme. Die numerischen Verfahren sollen für ingenieurwissenschaftliche, geophysikalische oder biomechanische Anwendungen geeignet sein. Wir möchten die folgenden Beispielprobleme studieren: die Euler- und Navier-Stokes-Gleichungen mit Quelltermen, die Flachwasserwellen-Gleichungen mit Quelltermen, die z.B. in der geophysikalischen oder meteorologischen Modellierung verwendet werden, Erhaltungsgleichungen mit nichtlinearer Dissipation, wie z.B. Strömung von Ölen, Komposit-Materialien, Polymeren oder des Blutes, s.g. Hämodynamik. Da numerische Berechnungen häufig, z.B. bei Problemen der Ingenieurwissenschaften, auf Differentialgleichungen angewandt werden, deren Lösung nicht explizit bekannt ist, können numerische Approximationen irreführende Ergebnisse liefern. Zur Absicherung der Verfahren ist eine weitere mathematische Analyse der Stabilität und der Genauigkeit der Approximationen wichtig.
Stabilität in hyperbolischen Systemen mit Relaxation (im DFG-Schwerpunkt: Analysis und Numerik von Erhaltungsgleichungen)
Laufzeit: 01.06.1999 bis 31.12.2003
Hyperbolische Systeme mit steifen Relaxationstermen treten in vielen physikalischen Situationen auf, wie zum Beispiel in einer relaxierten Gasströmung im thermischen und chemischen Ungleichgewicht, in der kinetischen Theorie verdünnter Gase, in Mehrphasenströmungen und Phasenübergängen.Relaxationswerte repräsentieren in einem gewissen Sinn eine detailliertere physikalische Modellierung feinerer Skalen als mittels Erhaltungsgleichungen; als typisches Beispiel sei der hydrodynamische Grenzwert der Boltzmann Gleichung genannt. Im Relaxationsprozess beschreibt das primäre System die physikalische Dynamik genauer als das System von Erhaltungsgleichungen, das man im Grenzübergang erhält. Beim Übergang zum Relaxationsgrenzwert geht die feine Auflösung oft verloren, und wir erhalten die meso- oder makroskopischen hyperbolischen Erhaltungsgleichungen. Ziel dieses Projektes ist ein besseres Verständnins derartiger Relaxationsprozesse durch Untersuchungen der Langzeitstabilität von Relaxationsprofilen und der damit zusammenhängenden Fragen der Stabilität bei hyperbolischen Relaxationsproblemen zu gewinnen. Die nichtlineare Stabilitätsanalyse derartiger Systeme liefert fundamentale Einsichten in das Lösungsverhalten dieser Gleichungssysteme und ist eine Grundlage für die Bewertung numerischer Ergebnisse, die das korrekte Lösungsverhalten widergeben müssten. Mit dem Projekt soll der Beitrag der Analysis zum Schwerpunkt verstärkt werden.
Die numerische Behandlung der nichtlinearen zeitlichen Entwicklung stellarer Instabilitäten und pulsationsgetriebenen stellaren Massenverlusts in mehrdimensionaler Geometrie
Laufzeit: 15.10.2001 bis 15.10.2003
Strange - Mode - Instabilitäten wurden inzwischen in fast allen Modellen leuchtkräftiger Sterne nachgewiesen. Numerische Simulationen ihrer zeitlichen Entwicklung bis in den nichtlinearen Bereich haben ergeben, daß sie für pulsationsgetriebene Winde sowie Variabilität der betreffenden Objekte verantwortlich sein können. Im Hinblick auf die eminente astrophysikalische Bedeutung stellaren Massenverlusts sind verläßliche quantitative Aussagen über die Höhe des so möglicherweise erzeugten mittleren Massenverlusts von großem Interesse. Bisherige Studien waren auf sphärische Geometrie beschränkt und zeigen, daß eine mehrdimensionale Behandlung des Problems unerläßlich ist. Erste Schritte zur Bereitstellung eines entsprechenden numerischen Verfahrens, mit dem die Fragestellung adäquat behandelt werden kann, sind bereits getan.
Ziel des Projekts ist, in Zusammenarbeit von Astrophysik und Numerischer Mathematik, die Weiterentwicklung und Vervollständigung des numerischen Verfahrens, so daß die angestrebten Simulationen mit der neuesten Generation von Höchstleistungsrechnern möglich werden. Darüberhinaus soll das Verfahren mit den Methoden der numerischen Analysis mathematisch abgesichert werden.
Erregungsfronten in der Cyclohexandion-BZ Reaktion auf gekrümmten Oberflächen (in Forschergruppe: Grenzflächendynamik bei Strukturbildungsprozessen)
Laufzeit: 01.08.2000 bis 31.08.2003
Die Kopplung von errebarer Reaktionskinetik mit Diffusion kann zur Ausbildung steiler chemischer Gradienten führen, die als kreis- oder spiralförmige Fronten durch das aktive Medium wandern. Die Ausbreitungseigenschaften solcher autokatalytischer Fronten sollen auf gekrümmten Oberflächen hinsichtlich iher Stabilität und ihrer Krümmungsabhängigkeit in engem Zusammenwirken von Laborexperiment, numerischer Simulation und theoretischer Analyse untersucht werden. Die Relevanz des Projekts liegt insbesondere in der Tatsache, daß Frontausbreitung dieser Art häufig in biologischen Systemen mit kleinen, gekrümmten Geometrien stattfinden.In Fortführung bisheriger Arbeiten sollen weitere Hohlformen mit nichtgleichmäßig gekrümmten Oberflächen entwickelt werden. Diese dienen dann zur exakteren Erforschung z.B. im Projekt gefundener neuer Effekte wie der Ausbreitung von ebenen Wellen auf gekrümmten Oberflächen. Desweiteren sollen theoretisch vorhergesagte Effekte wie die Bewegung von Spiralspitzen auf nichtgleichmäßig gekrümmten Oberflächen, die experimentell noch nicht verifiziert werden konnten, nachgewiesen werden.Im numerischen Projektteil werden Finite-Elemente-Methoden (FEM) für das zugehörige System von Reaktionsdiffusionsgleichungen auf gekrümmten Mannigfaltigkeiten entwickelt. Es werden Verfahren untersucht, die in Raum und Zeit adaptiv sind, insbesondere Zeitschrittverfahren, die lokal explizit-implizit arbeiten.
Schwerpunktprogramm: Analysis und Numerik von Erhaltungsgleichungen (Koordinatorprojekt)
Laufzeit: 01.06.1997 bis 31.07.2003
Die Mittel, die der Schwerpunkt für Koordinationsaufgaben und gemeinsame Aktivitäten benötigt, werden vom Koordinator verwaltet. Die Mittel für Gasteinladungen sowie Forschungs- und Kongressreisen sind in den Projekten begründet worden und wurden bei der Bewilligung im Koordinatorprojekt zusammengefaßt. Weiterhin erhielt der Schwerpunkt Workshopmittel für seine Arbeit.
Langzeitdynamik nichtlinearer hyperbolischer Systeme von Erhaltungsgleichungen und ihre numerische Approximation (im DFG-Schwerpunkt: Ergodentheorie, Analysis und effiziente Simulation dynamischer Systeme
Laufzeit: 01.01.1997 bis 31.05.2003
Thema dieses Forschungsvorhabens sind analytische und numerische Fragestellungen auf dem Gebiet der Langzeitdynamik unendlichdimensionaler dynamischer Systeme, die im Zusammenhang mit nichtlinearen Sytemen hyperbolischer partieller Differentialgleichungen auftreten. Damit werden sowohl das kontinuierliche Evolutionsproblem als auch seine konsistenten numerischen Approximationen als dynamische Systeme aufgefasst und unter diesem Gesichtspunkt verglichen. Es sollen Berechungsverfahren stationärer, periodischer und anderer Lösungen instationärer Systeme von hyperbolischen partiellen Differentialgleichungen, die für die Langzeitdynamik wichtig sind, untersucht und weiterentwickelt werden. Auch dissipative Strömungen dieser Systeme sollen betrachtet werden. Da numerische Berechnungen häufig, z.B. bei Problemen der Ingenieurwissenschaften, auf Differentialgleichungen angewandt werden, deren Lösungen man nicht explizit kennt, können numerische Approximationen irreführende Ergebnisse liefern. Ziel der Untersuchungen sind daher Aussagen über die Genauigkeit der Approximationen und die Entwicklung effizienter Verfahren für die korrekte Berechnung stationärer Zustände.
Konvektionsinduzierte Morphologieübergänge (in Forschergruppe: Grenzflächendynamik bei Strukturbildungsprozessen)
Laufzeit: 01.11.1997 bis 31.10.2002
Das Vorhaben ist Erweiterung und Fortführung des Vorgängerprojekts Morphologische Instabilität beim Kristallwachstum: Einfluß der Konvektion. Ziel des Projekts dieser Antragsperiode ist es, die Untersuchungen von zweidimensionalen Einzelstrukturen unter Konvektion auf ausgedehnte Morphologien (in zwei Dimensionen) und Einzelstrukturen in drei Dimensionen auszudehnen. Bei rein diffusionsbegrenztem Wachstum hängt der Übergangspunkt zwischen der dendritischen und dublonischen Morphologie für eine periodische Anordnung "fingerförmiger" Kristalle von der Wellenlänge und damit der relativen Orientierung von Kristallanisotropie und globaler Wachstumsrichtung ab. Wie sich ein solches System unter der Einwirkung von Konvektionsströmungen verhält, soll untersucht werden. Dabei sind sowohl eingeprägte Strömungen mit gegebener Vorzugsrichtung zu betrachten, was zur Ausbildung zweier konkurrierender Wachstumsrichtungen mit entsprechend interessanter Dynamik führen kann, als auch natürliche Konvektion und deren stabilisierender bzw. destabilisierender Einfluss auf das gesamte dendritische array. Neben freiem Wachstum soll auch gerichtete Erstarrung untersucht werden, die mit dem extern einstellbaren Temperaturgradienten eine weitere gerichtete Größe ins Spiel bringt. Hier ist bekannt, dass der Zell-Dendriten-Übergang von Konvektion beeinflusst wird, es fehlt aber an detaillierten experimentellen Daten. Simulationen können hier genaue Aussagen liefern, die die Voraussetzung für eine analytische Modellierung bilden. Eine besonders interessante Frage ist durch Elektrodepositionsexperimente im Projekt V der letzten Antragsperiode nahegelegt worden: Ist es möglich, durch das Einschalten von Konvektion den Übergang von einer kompakten zu einer fraktalen Struktur zu induzieren? Im Falle des dreidimensionalen Wachstums einzelner Dendriten soll besonders die Frage von Oszillationen der Dendritenspitze untersucht werden. Solche Oszillationen werden in der interfacial wave theory von Xu für kleine Kristallanisotropien vorhergesagt, sind kontrovers und tauchen im Experiment immer wieder als Randnotiz auf. Falls sie existieren, sollten sie mit einem Strömungsfeld rückkoppeln, was ihre Detektion möglicherweise vereinfacht.Gegenstand ist die numerische Untersuchung von Strukturbildungsphänomenen an der Fest-flüssig-Phasengrenze einer erstarrenden Schmelze. Dabei wird von der üblichen Annahme eines rein diffusiven Transports in der flüssigen Phase abgewichen. Es sind numerische Algorithmen für die einzelnen Teilprozesse Wärmeleitung, Grenzflächenbewegung und Strömung zu entwickeln und zu verbinden. Diese sind dann auf Konvergenz und Stabilität zu analysieren. Das Projekt wird gefördert von der DFG und in Kooperation mit K. Kassner, Institut für Theoretische Physik, durchgeführt.Anmerkung: Das Projekt lief bis zum 31.10.2003.
Fehlerschätzungen und Adaption für instationäre hyperbolische Systeme in reaktiven und Mehrphasen-Strömungen (im DFG-Schwerpunkt: Analysis und Numerik von Erhaltungsgleichungen)
Laufzeit: 01.06.1997 bis 30.09.2002
Anhand der im Rahmen des Schwerpunktes zu untersuchenden Gleichungssysteme für reaktive und Mehrphasen-Strömungen sollen die mathematischen Grundlagen der posteriori Fehlerschätzung insbesondere unter Berücksichtigung der Zeitabhängigkeit und des Mehrskalencharakters der Lösungen weiterentwickelt werden. Diese sollen für den Einsatz bei Netzadaptionen, Frontenauffindung, -verfolgung und adaptiven Lösern entwickelt werden, um zu effektiven mathematisch abgesicherten Techniken und einer hohen Auflösung bzw. Genauigkeit in zwei oder drei Raumdimensionen zu gelangen. Gut entwickelt ist die Adaption bisher nur für stationäre Probleme und gewöhnliche Differentialgleichungen (Schrittweitensteuerungen). Allerdings ist die mathematische Absicherung auch für stationäre Strömungen noch unvollständig. Bei Systemen ist die Frage zu untersuchen, wie die einzelnen physikalischen Größen bei der Adaption zu gewichten sind. Dabei spielen Entropievariablen und die Symmetrisierbarkeit eine besondere Rolle.
Echt mehrdimensionale Verfahren in der Elektrodynamik
Laufzeit: 01.04.1998 bis 31.03.2002
Die Bicharakteristiken-basierten echt mehrdimensionalen Verfahren werden parallel zu dem Projekt ,,Echt mehrdimensionale Verfahren für hyperbolische Erhaltungsgleichugen`` im Hinblick auf konkrete Anwendungsprobleme der Elektrodynamik weiterentwickelt. Im Zentrum des Interesses stehen das System zur Wellengleichung und die Maxwell-Gleichungen sowie numerische Randbedingungen und singuläre Quellen.Zusammenarbeit mit der Arbeitsgruppe von Prof. J. Nitsch am Institut Allgemeine Elektrotechnik und Leistungselektronik der Fakultät für Elektrotechnik.
Graduiertenkolleg "Modellierung, Berechnung und Identifikation mechanischer Systeme"
Laufzeit: 01.03.1997 bis 28.02.2001
Aus dem Themenbereich des Graduiertenkollegs arbeiten drei externe Kollegiaten Nikolai Andrianov, Wolfram Heineken und Rüdiger Müller an der Analyse und Entwicklung numerischer Verfahren.
Nichtkonforme Finite Elemente höherer Ordnung
Laufzeit: 01.01.2010 bis 31.12.2013
Im Rahmen dieses Projektes, das gemeinsam in Magdeburg und Dortmund bearbeitet werden soll, sollen Finite Element Techniken und Mehrgitterideen für nichtkonforme Elemente höherer Ordnung weiterentwickelt, analysiert und in der Open Source Software FEATFLOW realisiert werden.
Ziel ist dabei, die von den Antragstellern, die seit mehr als 15 Jahren auf dem Gebiet der nichtkonformen FEM sowie der Anwendung auf CFD-Probleme zusammenarbeiten, in früheren Arbeiten hergeleiteten Techniken zur Diskretisierung, Stabilisierung, Adaptivität und zur schnellen Lösung mittels Mehrgittertechniken sowohl für skalare Probleme als auch für die inkompressiblen Navier-Stokes Gleichungen auf den Fall höherer Ordnung zu übertragen. Durch die Realisierung in FEATFLOW wird gleichzeitig gewährleistet, dass eine ausgereifte numerische Testumgebung vorhanden ist und dass anhand realistischer CFD-Probleme in 2D und 3D die Qualität und numerische Effizienz dieser neuen Elementtypen bewertet werden kann.
Generalizing Riemann Hypothesis to L-functions
Laufzeit: 01.01.2011 bis 31.12.2014
The Riemann Zeta function plays an important role in analytic number theory and has applications in physics, applied statistics and probability theory. While many of the properties of this function have been investigated, there remain important fundamental conjectures, a most notably the Riemann hypothesis: zeta(s)=0 implies Re(s)=1/2 for positive Re(s). In my thesis a functional analytical characterization of the Riemann hypothesis will be generalized to the so called L-functions.
Analytical and Numerical Investigation of the Ultra-Relativistic Euler Equations
Laufzeit: 01.01.2011 bis 09.10.2013
In dieser Arbeit studierten wir die ultrarelativistischen Euler-Gleichungen für ein ideales Gas, ein System nichtlinearer hyperbolischer Erhaltungsgleichungen. Diese sind Gleichungen für den Druck, den räumlichen Anteil, der Vierergeschwindigkeit und der Teilchenzahldichte. Nach dem Studium einzelner Stoßwellen und Verdünnungsfächer lösten wir das Riemannsche Anfangswertproblem explizit. Wir zeigten die Eindeutigkeit der Lösungen.
Wir entwickelten für die Beschreibung von Stoßwellen-Interaktionen eine eigene Parametrisierung, die für verschiedene Familien von Stößen auf eine explizite Druckformel nach der Stoßinteraktion führt.
Wir verwendeten diese Formel, um ein interessantes Beispiel für "non backward uniqueness" der ultrarelativistischen Eulergleichungen anzugeben. Ein vorgestelltes numerisches Kegelschema basiert auf Riemann-Lösungen für dieses System, es ist stabil, erfüllt die CFL-Bedingung und erhält Positivität von Druck und Teilchenzahldichte.
Wir führten eine neue Funktion ein, die die Stärke der elementaren Wellen beschreibt, und leiteten hierzu scharfe Ungleichungen ab. Die Interpretation der Stärke Riemannscher Anfangsdaten ist ebenfalls gegeben. Diese Funktion hat die wichtige Eigenschaft, dass die Stärke auch für beliebige Wellen-Interaktionen unseres Systems monoton fallend mit der Zeit ist. Dieses Studium der Welleninteraktion gestattet auch die Bestimmung des Types der transmittierten Wellen. Es kann dazu verwendet werden, eine natürliche Totalvariation der Lösungen zu jeder Zeit zu definieren.
Wir haben für andere hyperbolische Systeme ein vergleichbares Resultat noch nicht gesehen. In den meisten Arbeiten über hyperbolische Erhaltungsgleichungen ist stattdessen ein eher klassischer Zugang üblich, der Änderungen der Riemann-Invarianten als ein Maß für die Stärke der Wellen verwendet. Weiterhin präsentierten wir eine neue Front-Tracking Methode für die ultrarelativistischen Eulergleichungen in einer Raumdimension. Der wichtigste Baustein hierfür ist ein eigener Riemann-Löser. Der Front-Tracking Riemann-Löser approximiert einen kontinuierlichen Verdünnungsfächer durch eine endliche Anzahl von Verdünngsstößen (non entropy shocks). Während andere
Front-Tracking Methoden auch nicht physikalische Lösungen gestatten, die die Rankine-Hugoniot Gleichungen verletzten, ist dies bei unserem Front-Tracking Riemann-Löser nicht der Fall. Wir erhalten somit exakte schwache Lösungen, deren Entropieverletzung kontrollierbar bleibt.
Wir vergleichen die exakte Riemann-Lösung mit den Lösungen des Kegelschemas und unserer Front-Tracking Methode für die ultrarelativistischen Eulergleichungen in einer Raumdimension. Die CFL-Bedingung ist hierbei sehr einfach, und unabhängig von den Anfangsdaten gegeben durch Delta t = Delta x/2.
Sie kommt aus der Invarianz der Lichtgeschwindigkeit unter Lorentz-Transformationen. Die numerischen Beispiele zeigen sehr gute Übereinstimmung und eine scharfe Auflösung. Schliesslich studierten wir die Welleninteraktionen auch mit verallgemeinerten Stößen, die die Rankine-Hugoniot Gleichungen erfüllen, aber nicht unbedingt die Entropieungleichung.
Kinetische Behandlung von ausgewaehlten Anfangs- und Randwertproblemen
Laufzeit: 01.05.2001 bis 01.05.2005
Diese Studie ist solchen hyperbolischen Erhaltungsgleichungen gewidmet, die sich aus einer darunterliegenden kinetischen Gleichung mittels des Maximum-Entropie-Prinzips gewinnen lassen. Die zu untersuchenden kinetischen Schemata dienen sowohl der Lösung hyperbolischer Erhaltungsgleichungen als auch der Lösung gewisser kinetischer Gleichungen. Behandelt werden
- i) das Euler System für ein einatomiges ideales Gas
- ii) das 4- und 9-Feld System des Phonon-Bose-Gases
- iii) die kinetische Boltzmann-Peierls-Gleichung für das Phonon-Bose-Gas.
Erweiterte Formulierungen in der Kombinatorischen Optimierung
Laufzeit: 01.10.2014 bis 31.12.2018
Die meisten für die kombinatorische Optimierung relevanten Polytope haben exponentiell in der Größe der Probleminstanz viele Facetten, so dass für den linearen Optimierungsansatz exponentiell viele Nebenbedingungen beachtet werden müssen. Das Konzept der erweiterten Formulierungen erlaubt es, Polytope als affine Projektionen höher-dimensionaler, aber wesentlich einfacher zu beschreibender Polyeder darzustellen. Das Ziel dieses Projekts ist, das grundlegende Verständnis des Konzepts der erweiterten Formulierungen signifikant zu verbessern und neue Methoden sowohl für die Konstruktion als auch für die Bestimmung unterer Schranken an die kleinste mögliche Größe solcher Formulierungen zu entwickeln.
Erweiterte Formulierungen in der Kombinatorischen Optimierung
Laufzeit: 01.10.2012 bis 30.09.2013
Die meisten für die kombinatorische Optimierung relevanten Polytope haben exponentiell in der Größe der Probleminstanz viele Facetten, so dass für den linearen Optimierungsansatz exponentiell viele Nebenbedingungen beachtet werden müssen. Das Konzept der erweiterten Formulierungen erlaubt es, Polytope als affine Projektionen höher-dimensionaler, aber wesentlich einfacher zu beschreibender Polyeder darzustellen. Das Ziel dieses Projekts ist, das grundlegende Verständnis des Konzepts der erweiterten Formulierungen signifikant zu verbessern und neue Methoden sowohl für die Konstruktion als auch für die Bestimmung unterer Schranken an die kleinste mögliche Größe solcher Formulierungen zu entwickeln.
Polyedrische Kombinatorik der Symmetriebrechung in der Ganzzahligen Linearen Optimierung
Laufzeit: 01.05.2009 bis 30.04.2012
Im Rahmen dieses Projektes werden grundlegende Fragen zu Symmetrien in der Ganzzahligen Linearen Optimierung untersucht. Insbesondere geht es dabei um die Beschreibung und Analyse von Polytopen, die Symmetrien beschreiben. Optimierungsprobleme, deren Lösungen Symmetrien aufweisen, führen in der Praxis häufig zu Problemen, da sie schlechte Schranken und ein schlechtes Enumerationsverhalten aufweisen. Ein besseres Verständnis der Polytope, die diesem Phänomen zu Grunde liegen, soll daher zu einer besseren Lesbarkeit dieser Probleme führen.
Erweiterte Formulierungen in der Kombinatorischen Optimierung
Laufzeit: 01.01.2010 bis 31.12.2011
Für viele kombinatorische Optimierungsprobleme sind die Beschreibungen der in natürlicher Weise zugeordneten Polytope notwendigerweise sehr kompliziert und groß. In machen Fällen kann man jedoch diese komlizierten Polytope als lineare Projektionen einfach zu beschreibender höher dimensionaler Polyeder darstellen und mit diesen Darstellungen in der gleichen Weise Theorie und Praxis der Linearen Optimierung für das vorliegende kombinatorische Optimierungsproblem nutzbar machen. In diesem Projekt leiten wir zum einen Methoden zum Aufstellen solcher erweiterter Formulierungen her und untersuchen zum andern, welche grundsätzlichen Grenzen dieser Methodik gesetzt sind.
Grundlegende Untersuchungen zu Orbitopen
Laufzeit: 01.01.2010 bis 31.12.2010
Orbitope sind Polyeder, die erfolgreich zur Ausnutzung von speziellen Symmetrien in ganzzahligen linearen Optimierungsproblemen benutzt werden. In diesem Projekt untersuchen wir grundlegende Fragen zu Orbitopen, also zu konvexen Hüllen von 0/1-Matrizen, die lexikographisch maximal in ihrem Orbit unter einer durch Spaltenpermutation operierenden Gruppe sind. Ziel des Projekts ist es, heraus zu finden, welche Einschränkungen an die 0/1-Matrizen die Orbitope so kompliziert werden lassen, dass man unter komplexitätstheoretischen Annahmen keine brauchbaren Beschreibungen erwarten kann, und andererseits für Klassen, bei denen dies nicht der Fall ist, Ungleichungsbeschreibungen herzuleiten.
Symmetrie und Dynamik in der gemischt-ganzzahligen Optimierung für biologische Anwendungen
Laufzeit: 15.05.2008 bis 14.05.2009
Die Einführung von zeitindizierten Variablen in der gemischt-ganzzahligen Optimierung zur Abbildung zeitlicher Dynamik wie zum Beispiel in biologischen Signal-Netzwerken führt zu Modellen, für deren effiziente Lösung eine spezielle Analyse der mathematischen Struktur erforderlich ist. Dabei muss in besonderer Weise die durch die Zeitindizierung in das Modell importierte Symmetrie untersucht und ausgenutzt werden. In diesem Projekt sollen zum Einen für die Symmetriebrechung in der ganzzahligen linearen Optimierung grundlegende Polytope untersucht werden und zum anderen anhand von Modellen für Signal-Netzwerke spezifische Verfahren zur Symmetrie-Ausnutzung in dynamischen gemischt-ganzzahligen Optimierungsproblemen entwickelt werden.
Enummeration und zufälliges Erzeugen
Laufzeit: 01.02.2007 bis 31.01.2008
Teilprojekt der DFG-Forschergruppe "Algorithmen, Struktur, Zufall", in der außerdem Projekte der Arbeitgruppen von Prof. Dr. Günter Ziegler (TU Berlin), Prof. Dr. Martin Grötschel (Zuse-Institut Berlin) und Prof. Dr. Hans-Jürgen Prömel (HU Berlin) gefördert werden. In diesem letzten Jahr der Förderperiode werden insbesondere Beispiele untersucht, die eine Vermutung von Mihail und Vazirani über die Expansionseigenschaften der Graphen von 0/1-Polytopen unterstützen. Ein Beweis dieser Vermutung hätte weitreichende Folgen für das algorithmische Zählen komplexer kombinatorischer Objekte.
Symmetrien in der Ganzzahligen Linearen Optimierung
Laufzeit: 01.07.2006 bis 31.12.2007
Ganzzahlige Lineare Modelle werden für eine Vielzahl von Optimierungsproblemen verwendet. Häufig weisen diese Modelle eine hohe ymmetrie auf, die dazu führt, dass Algorithmen unnötig viel Arbeit verrichten müssen. In diesem Projekt untersuchen wir Möglichkeiten, solche Symmetrien zu brechen und damit die Effizienz von Algorithmen für die zu lösenden Optimierungsprobleme deutlich zu steigern.
Machine Learning for the Design and Control of Power2X Processes with Application to Methanol Synthesis
Laufzeit: 01.10.2021 bis 30.09.2024
Ziele dieses Projektes sind:
- Die Entwicklung neuer numerischer Methoden, welche die Stärken traditioneller Modellierungs- und Optimierungsansätze und des datengetriebenen maschinellen Lernens (ML) kombinieren sowie deren Anwendung zur
- Entwicklung einer neuen Methodik für den Entwurf und die Führung von Power2chemicals Prozessen. Die nichtlineare Dynamik infolge stark veränderlicher Feedzuläufe soll dabei explizit berücksichtigt werden. Die Methanolsynthese wird als herausforderndes Anwendungsbeispiel betrachtet. Das ambitionierte Arbeitsprogramm spiegelt die komplementäre Expertise der drei Antragsteller in den Bereichen experimentelle Analyse, konzeptioneller Prozessentwurf und -führung sowie effiziente Algorithmen wieder. Wir verwenden neuronale Differentialgleichungen und differenzierbare End-zu-End Programmierung. Dies erlaubt uns ML für unbekannte oder teuer auszuwertende Modellteile zu nutzen und Methoden der gemischt-ganzzahligen Optimalsteuerung (MIOC) und der Versuchsplanung für hybride Modelle zu entwickeln. Daraus wird eine Methodik zur hybriden Modellierung entwickelt. Diese kombiniert experimentelle Daten aus Versuchen mit einem gradientenfreien Kinetikreaktor mit verfügbarem physikalisch-chemischem Wissen und effizientem ML. Anschließend werden die hybriden Modelle für den robusten Prozessentwurf verwendet. In der ersten Antragsphase liegt der Schwerpunkt bei ideal durchmischten isothermen und örtlich verteilten nichtisothermen Reaktoren. Zur Erhöhung von Flexibilität und Toleranz gegenüber Änderungen von Durchsatz und Zusammensetzung werden Pufferbehälter eingeführt und neben einstufigen auch verschiedene Typen von mehrstufigen Reaktoren mit variabler Feedverteilung betrachtet. Die optimale Konfiguration und die optimalen nominellen Steuerungsprofile werden mit Hilfe von MIOC und den entwickelten hybriden Modellen für charakteristische Feedverläufe bestimmt. Zusätzlich zum robusten Prozessentwurf wird in einem dritten Schritt eine robuste Regelung zur Kompensation von Modellfehlern und unvorhergesehenen Abweichungen vom obigen nominellen Fall entwickelt. Diese basiert auf einer repetitiven Online-Optimierung und erfordert weitere Modellreduktionen und Erweiterung von Methoden für den Fall hybrider Modelle, um Echtzeitanforderungen einzuhalten. Modellierung, Design und Regelung für einen gradientenfreien Reaktor lehnen sich eng an die experimentellen Untersuchungen an, um eine effiziente Erzeugung von Daten und eine Validierung der entwickelten Konzepte zu gewährleisten. Untersuchung von komplexeren Festbettreaktoren werden zunächst in Silico mit Hilfe verfügbarer mechanistischer Modelle durchgeführt und sollen u.a. in einer möglichen 2. Förderphase experimentell validiert werden. Wir generieren neue Ansätze zur systematischen hybriden Modellierung und der anschließenden Verbindung mit Entscheidungsfindung, die physikalische Gesetze berücksichtigen und durch Robustheit die Sicherheit von ML Anwendungen erhöhen.
Peruvian Competence Center of Scientific Computing Stärkung des wissenschaftlichen Rechnens in der Lehre in Peru
Laufzeit: 01.01.2019 bis 31.12.2022
Die Angewandte Mathematik und das Wissenschaftliche Rechnen mit dem Fokus Modellbildung, Simulation und Optimierung nimmt weltweit einen zentralen und größer werdenden Stellenwert ein. Die numerische Simulation und Optimierung sind - neben dem Experiment - in vielen wissenschaftlichen Anwendungen zunehmend etabliert. Diese Entwicklung wurde in den letzten Jahrzehnten durch die Verfügbarkeit leistungsfähiger Computer und die damit verbundene mathematische Grundlagenforschung beschleunigt. Obwohl die technischen Voraussetzungen auch in Ländern wie Peru gegeben sind, ist die Disziplin Wissenschaftliches Rechnen hier noch nicht vertreten. Dies liegt an einem streng theoretischem Fokus der Mathematik in Peru, der fehlenden Ausbildung von DozentInnen in Bereichen der Angewandten Mathematik und einem resultierenden Mangel an entsprechenden Studienprogrammen.
In diesem Projekt verfolgen wir mehrere, eng verwandte Ziele: an der Universidad Nacional Agraria La Molina unterstützen wir die derzeit geplante Einrichtung eines Studiengangs Angewandte Mathematik, an der Universidad Nacional de Trujillo und der Pontificia Universidad Católica del Perú unterstützen wir die Weiterentwicklung der vorhandenen Studiengänge und die Entwicklung neuer Forschungslinien zur Stärkung des wissenschaftlichen Rechnens und etablieren Austauschprogramme mit deutschen Hochschulen. Begleitend initiieren wir mit diesen und weiteren Partnern die Einrichtung eines transregionalen Kompetenzzentrums Scientific Computing mit dem Arbeitstitel Peruvian Competence Center of Scientific Computing (PeC3), um eine Vernetzung der Player zum Schaffen von Synergien und eine nachhaltige Verstetigung der Maßnahmen zu erreichen.
Die Einrichtung und Weiterentwicklung von Studiengängen erfordert eine Schulung der DozentInnen in modernen Methoden des wissenschaftlichen Rechnens. Wesentliches Instrument hierzu sind Kurse und Workshops in Peru. Eine besondere Bedeutung kommt dem Einzug von praktischen Elementen in Lehr- und Lernformen zu. Weiter erarbeiten wir Kataloge aktueller und bewährter Literatur für die Lehre, aber werden auch geeignete Skripten, Übungsmaterialien und insbesondere gut dokumentierte wissenschaftliche Software bereitstellen. Schließlich ist die Co-Betreuung peruanischer Abschlussarbeiten von deutscher Seite vorgesehen, um eine Internationalisierung und einen gegenseitigen Erfahrungsaustausch zu erreichen. Darüber hinaus planen wir ein Austauschprogramm, um ein gegenseitiges Begleiten und Kennenlernen von Lehrver-
anstaltungen sowie Verwaltungs- und Forschungsstrukturen zu ermöglichen.
Die Maßnahmen werden unter die Schirmherrschaft eines neu zu gründenden Kompetenzverbunds PeC3 gestellt, um so eine Institutionalisierung und eine Identifikation mit den Maßnahmen zu erzeugen. Dabei denken wir an einen ideellen Verbund im Sinne des WIR - Wissenschaftlichen Rechnen in Baden-Württemberg oder des NoKo - Northern German Colloquium on Applied Analysis and Numerical Mathematics, welches identitätsstiftend für das gesamte Projekt wirkt. Dieser Verbund wird weiteren interessierten Partnern in Südamerika, aber auch kooperierenden Partnern in Europa und Nordamerika offen stehen und soll langfristig als Plattform die Aktivitäten im Bereich Wissenschaftliches Rechnen bündeln und vertreten.
Durch bisher vier vom DAAD finanzierte Sommerschulen sowie der Mitarbeit bei der Etablierung von Promotionsprogrammen sind wir in Südamerika, insbesondere in Peru, bestens vernetzt und kennen die Stärken und Schwächen im Universitätssystem. Von diesem Projekt erhoffen wir uns eine strukturelle Stärkung der Lehre auf dem Gebiet des wissenschaftlichen Rechnens in Peru, die langfristig auch auf die Forschung wirkt. Wir profitieren von einer Institutionalisierung des Kontakts, welche auch zu einer Internationalisierung unserer Hochschulen und zu Austauschmöglichkeiten mit entsprechenden Studiengängen in Deutschland führt.
Nichtglatte Verfahren für auf Komplementaritäten basierende Formulierungen geschalteter Advektions-Diffusions-Prozesse
Laufzeit: 01.10.2016 bis 30.09.2022
Teilprojekt innerhalb des Schwerpunktprogrammes 1962 "Nichtglatte Systeme und Komplementaritätsprobleme mit verteilten Parametern: Simulation und mehrstufige Optimierung" der Deutschen Forschungsgemeinschaft. Ziel ist es, in Kooperation mit Christian Kirches (TU Braunschweig) und Sven Leyffer (Forschungszentrum Argonne, USA) neuartige mathematische Optimierungsmethoden zu entwickeln, die die besonderen Strukturen der geschalteten PDE Nebenbedingungen berücksichtigen.
Power to Chemicals (P2Chem)
Laufzeit: 01.04.2018 bis 31.03.2021
Im Rahmen der Energiewende in der Bundesrepublik Deutschland steigt der Anteil erneuerbarer Energien im Versorgungssystem stetig an. Dieses impliziert Herausforderungen und Chancen, insbesondere im Umgang mit Überhängen in der Stromproduktion. Wir betrachten Power-to-Chemicals (P2Chem) Prozesse, die Strom zur Herstellung von hochwertigen Chemikalien nutzen. Hierbei können grundsätzlich verschiedenste Komponenten wie katalytische Reaktoren oder Elektrolysezellen eingesetzt und miteinander kombiniert werden. Als Zielprodukt betrachten wir in diesem Projekt Synthesegas (SG), aus dem man viele wichtige Basischemikalien wie Methanol, Ameisensäure oder Phosgen erzeugen kann, wenn man die H2-zu-CO-Zusammensetzung auf verschiedene Niveaus einstellt. In P2Chem befassen wir uns mit der mathematischen Analyse dieser Prozesse und den treibenden Fragestellungen unserer Industriepartner, der Avacon AG als großem deutschen Energieversorger und der BASF SE als weltgrößtem Chemieunternehmen.
Es gibt eine große Anzahl denkbarer Verschaltungen zwischen Reaktions- und Separationsschritten zur Konversion auftretender stofflicher Gemische. Wir möchten erstmals systematisch und mit Hilfe moderner Mathematik untersuchen, welche Varianten von P2Chem unter welchen Rahmenbedingungen sinnvolle Beiträge zur Nutzung erneuerbarer Energie zur Chemieproduktion leisten können.
Neben der Wirtschaftlichkeit und Ankopplungsmöglichkeiten an Gas- und Stromnetzwerke sind die Sicherheit und die Flexibilität der Prozessführung sehr wichtig. Es geht hier um das schnelle Reagieren auf zeitlich variierende Randbedingungen (Strompreis, Qualität biogener Rohstoffe, Preis von CO2-Emissionszertifikaten, Preis der erzeugten chemischen Produkte).
Dabei müssen rechtliche, ökonomische und ökologische Aspekte sowie sicherheitstechnische Restriktionen der einzelnen Teilprozesse berücksichtigt werden.
ERC Consolidator Grant MODEST: Mathematical Optimization for clinical DEcision Support and Training
Laufzeit: 01.07.2015 bis 30.06.2020
Entwicklung mathematischer Modelle für eine personalisierte Medizin der Zukunft
Im vom Europäischen Forschungsrat (ERC) geförderten Forschungsprojekt Mathematical Optimization for Clinical Decision Support and Training (MODEST) widmen sich Prof. Dr. Sebastian Sager und sein Team aus Mathematikern und Medizinern der Universität Magdeburg der Suche nach mathematischen Lösungen, die Ärzte bei Diagnose- und Therapieentscheidungen unterstützen und eine personalisierte Medizin möglich machen. Ziel des Projektes ist es, prototypische mathematische Modelle und Algorithmen zu entwickeln, die die vielfach erhobenen und vorhandenen individuellen medizinischen Daten integrativ zusammenführen. Die Menge vorhandener Patientendaten soll so automatisch in Vorschläge für Diagnosen und Therapien übersetzt werden können. Mediziner müssen täglich unter Zeitdruck wichtige Entscheidung treffen. Kardiologen anhand eines EKGs in Minuten über mögliche Ursachen von Unstimmigkeiten befinden, Onkologen anhand von Labormarkern Dosis und Behandlungsdauer von Chemotherapien festlegen , so Prof. Sebastian Sager. Diese komplexen Entscheidungen basieren gewöhnlich auf ihrem im Laufe der Jahre angesammelten Expertenwissen, das aber eben nicht allen Patienten zur Verfügung steht und auch nicht ohne weiteres übertragbar ist. Andererseits werden in Kliniken und Arztpraxen Unmengen von Daten erhoben, die aus unserer Sicht nur unzureichend für ärztliche Entscheidungen hinzugezogen werden. Sie in ihrer ganzen Komplexität zu nutzen und gleichzeitig das Wesentliche heraus zu heben, soll durch unsere mathematischen Modelle möglich werden. Wir wollen Software entwickeln, die mit der Fülle der Daten umgehen kann und die die Entscheidungen der Mediziner faktenorientiert und nachvollziehbar unterstützt. So wie ein Flugsimulator Piloten in verschiedenen Szenarien trainiert, könnten dann auch auf individuellen Patientendaten basierende Krankheitssimulatoren sowohl in der Ausbildung eingesetzt werden, als auch im klinischen Alltag ärztliche Diagnosen sicherstellen und Therapieansätze optimieren. Krankheitsverläufe würden vorausberechnet und sichtbar gemacht werden können.
Das Projekt wird gefördert durch den Europäischen Forschungsrat (ERC) im EU-Rahmenprogramm für Forschung und Innovation Horizont 2020 (Grant Agreement Nr. 647573).
Situationsbedingtes und verkehrseffizientes Fahren
Laufzeit: 01.03.2017 bis 28.02.2020
Das Projekt ist eine Auftragsforschung der Volkswagen AG, bei der mathematische und systemtheoretische Forschung im Bereich der Verkehrswissenschaft betrieben wird. Genauer geht es um die Entwicklung neuer Methoden, die die Analyse innerstädtischen Verkehrs und einen Transfer in Fahrerassistenzsysteme erlauben. Diese Methoden sollen zum einen die Situationserkennung (Arbeitsgruppe Findeisen), zum anderen die Betrachtung optimaler Verkehrsflüsse und Verhaltensweisen (Arbeitsgruppe Sager) abdecken.
Ein zentraler Punkt des Forschungsauftrages ist die Entwicklung von mathematischen Modellen, Algorithmen und Maßnahmen zur Steigerung der verkehrlichen Leistung in verschiedenen Verkehrssituationen. Insbesondere werden Algorithmen erarbeitet, die zu einer verkehrlichen Verbesserung an innerstädtischen Ampelkreuzungen führen. Weiterhin sollen Optimierungsprobleme zur Berechnung bestmöglichen Verhaltens der Fahrer und Infrastruktureinheiten bezüglich vorher definierter Größen untersucht werden. Ziel ist die Erstellung mathematischer Modelle und Algorithmen, die möglichst komplexe und realistische Verkehrssituationen abbilden und in vertretbarer Zeit lösen können.
ERC Proof of Concept Grant ISITFLUTTER: diagnosis app for regular aTrial arrhytmia like Flutter
Laufzeit: 01.10.2016 bis 31.03.2018
Optimierung zur Diagnose von Herzrhythmusstörungen
Innerhalb des ERC Grant Projektes MODEST arbeiten wir an einer neuen Methode zur EKG Diagnose, die auf mathematischer Optimierung beruht. So ist es selbst für Experten oftmals schwierig, unregelmäßige EKGs zuverlässig zu diagnostizieren. Dieses ist aber von großer Relevanz, da unterschiedliche Behandlungsstrategien (Ablation oder medikamentös) resultieren. Der von uns patentierte Algorithmus hat dagegen in einer umfangreichen klinischen Studie Bestwerte erzielt.
Er basiert auf einer inversen Fragestellung: wie gut lässt sich ein mathematisches Modell, das ein reguläres Eingangssignal (also gerade kein Vorhofflimmern), dafür aber unregelmäßige Überleitungen im sogenannten AV-Knoten abbildet, an die konkreten Messwerte aus dem EKG anpassen? Wenn dies sehr gut gelingt, dann interpretieren wir dies als eine Indikation dafür, dass kein Vorhofflimmern vorliegt. Ein großer Vorteil unseres Ansatzes ist, dass er allein auf den R-Zacken, also den gut erkennbaren großen Ausschlägen im EKG resultiert. Damit entfällt die Abhängigkeit von den oft verrauschten kleineren Zacken, unter der konkurrierende Ansätze leiden.
Wir haben eine App entwickelt, die die Zeitpunkte der großen Zacken automatisch aus einem fotografierten EKG oder aber aus den Pieptönen eines Herzmonitors rekonstruiert, und aufgrund dieser Zeitreihe eine Diagnose erstellt.
Ziel des Projektes isitFlutter ist es, die Marktfähigkeit dieser App zu evaluieren, die diese innovative Methode zur Entscheidungsunterstützung in die klinische Praxis bringt. Hierzu gehört die Klärung von patentrechtlichen Aspekten, die Zulassung als medizinisches Produkt, die Weiterentwicklung der Benutzeroberfläche, und eine klinische Studie. Beteiligt sind das Universitäts-Spinoff mathe.medical GmbH und die Otto-von-Guericke-Universität Magdeburg.
Das Projekt wird gefördert durch den Europäischen Forschungsrat (ERC) im EU-Rahmenprogramm für Forschung und Innovation Horizont 2020 (Grant Agreement Nr. 727417).
Optimization of car to traffic light communication
Laufzeit: 01.09.2013 bis 31.08.2016
Eine optimierte Kommunikation, Schaltung von Ampelanlagen und Betriebsweise von Automobilen soll zu einem insgesamt verbesserten Verkehrsfluss mit weniger Emissionen führen. Ziel der Kooperation mit VW ist es, mathematische Modelle zu erstellen und zur Optimierung in Echtzeit zu nutzen.
Nichtlineare gemischt-ganzzahlige Optimierung und Optimale Steuerung stark gekoppelter Industrieprozesse
Laufzeit: 01.07.2013 bis 30.06.2016
Ziel des Vorhabens ist es, neue mathematische Verfahren der nichtlinearen, dynamischen, gemischt-ganzzahligen Optimierung und Optimalen Steuerung zu entwickeln und die anspruchsvollen prototypischen Aufgaben der Industriepartner zu lösen. Diese Aufgaben beinhalten optimale An- und Abfahrvorgänge für komplexe verfahrenstechnische Trennanlagen mit geschalteten Eingangsgrößen und dynamischen Verschaltungsänderungen (BASF), effiziente Betriebsweisen von Hybrid-LKW unter Berücksichtigung von Wärmekopplung und -rekuperation (Daimler) und den optimalen Betrieb von innovativen Wärmepumpen in Elektrofahrzeugen (TLK-Thermo). Das Vorhaben trägt damit wesentlich zu mindestens zwei Feldern der Hightech-Strategie der Bundesregierung bei: Klima und Energie sowie Mobilität der Zukunft, letzteres mit besonderer Betonung auf Elektromobilität und innovativen Hybridantrieben. Die Methoden werden in vier eng verzahnten Teilprojekten von Partnern der Universitäten Heidelberg, Magdeburg und Marburg unter Beteiligung von Nachwuchswissenschaftlern gemeinsam mit den Industriepartnern entwickelt und erprobt. Die Ergebnisse der Teilprojekte und die Integration der darin entwickelten Verfahren werden den Industriepartnern zur weiteren Nutzung übergeben. Darüber hinaus haben sie große Bedeutung für andere stark gekoppelte Prozesse, etwa bei der Optimierung komplexer Energienetzwerke. Für die Angewandte Mathematik werden neue Forschungsfelder im Bereich Optimierung und Numerik erschlossen.
Moderne Methoden des Dynamic Pricing
Laufzeit: 01.01.2013 bis 31.12.2015
In vielen Industriezweigen kommt heute zur Festlegung eines Verkaufspreises Revenue Management zum Einsatz. Revenue Management wurde Ende der 80er Jahre in der Airline-Industrie erstmalig angewendet. Dabei ging es darum, zu vorher festgelegten Preisstrukturen die optimalen Absatzmengen zu bestimmen. Mit einfachen Worten: Den richtigen Sitz zum richtigen Zeitpunkt an den richtigen Kunden zum richtigen Preis zu verkaufen. Basis dafür sind Methoden der Statistik zur Nachfrageprognose und die Methoden der Optimierung zur Preis-Mengen-Optimierung.In den letzten Jahren wurden die Methoden sukzessive erweitert. Eine Variante wird als Dynamic Pricing bezeichnet. Dabei wird davon ausgegangen, dass jeweils immer nur zu einem Preis im Markt verkauft werden kann. Aufgabe ist es nun, bei gegebenen Preispunkten die optimalen Zeitpunkte zu bestimmen, an denen diese Preispunkte aktiv sind. Ziel des Projektes ist es, moderne Methoden der Optimierung mit aktueller Statistik so zu verbinden, dass eine verlässliche und effiziente Planung ermöglicht wird.
calcHEAT Vorhofflimmern
Laufzeit: 01.09.2013 bis 31.08.2015
Ziel des Projekts ist die Entwicklung und Kommerzialisierung einer Diagnosesoftware im bedeutenden Wachstumsmarkt der kardiovaskulären Datenauswertung. Dieses Projekt wird von der Klaus-Tschira-Stiftung gefördert.Das globale Marktvolumen in diesem Bereich belief sich im Jahr 2010 auf etwa 1,6 Mrd. Euro. Klinischer Hintergrund des Projekts ist die mangelhafte Erkennung und damit verbundene medizinische Unterversorgung von Patienten mit Vorhoftachykardien. Erst durch den Einsatz intelligenter Computeralgorithmen wird es möglich sein, die Erkennungsrate zu verbessern und diese Patienten einer adäquaten Therapie zuzuführen. Alleinstellungsmerkmal ist eine als Patent angemeldete Verknüpfung medizinischen Wissens und effizienter mathematischer Nicht-Standardmethoden. Als Einsatzort des Algorithmus im Sinne einer Embedded Software eignen sich alle elektronischen Geräte, die elektrokardiographische Daten aufnehmen und verarbeiten. Parallel dazu ist die Entwicklung einer Stand Alone Software bzw. einer Web-Anwendung geplant. Als Vorarbeiten wurden eine umfangreiche Datensammlung angelegt und ein Softwareprototyp erstellt. Dieser wurde erfolgreich als „Proof-of-Concept“ für Literaturbeispiele und ergänzend für erste klinische Fälle in Heidelberg eingesetzt.Das Projektteam rekrutiert sich aus hervorragend ausgebildeten und motivierten Absolventen der Kardiologie des Universitätsklinikums Heidelberg und des Instituts für Mathematische Optimierung in Magdeburg.
EMBOCON
Laufzeit: 15.01.2010 bis 14.07.2013
Moderne mathematische Verfahren sollen weiterentwickelt und über eine offene Softwareplattform an eine Vielzahl von praktisch relevanten Steuerprozessen gekoppelt werden. Besondere Herausforderung ist hierbei, dass einbettete Hardware eingesetzt wird, beispielsweise Steuergeräte in LKWs oder Controller auf Windenergie-erntenden Flugdrachen.
Optimal Control of Periodic Adsorption Processes
Laufzeit: 01.10.2009 bis 30.09.2012
Periodische Adsorptionsprozesse sind in der Verfahrenstechnik ein etabliertes Verfahren zur Separation, beispielsweise für feine Chemikalien oder Pharmazeutika. Neuere Entwicklungen beinhalten die gleichzeitige Betrachtung von Separations- mit Reaktionsprozessen. Die hieraus resultierenden Möglichkeiten zur Optimierung können nur durch einen auf first-principles-Modellierung basierenden Ansatz genutzt werden. Hierzu ist eine Weiterentwicklung mathematischer Methoden zur Behandlung von zeitabhängigen, periodischen und räumlich verteilten Prozessen notwendig.
Moderne Methoden des Dynamic Pricing
Laufzeit: 01.07.2009 bis 30.06.2012
In vielen Industriezweigen kommt heute zur Festlegung eines Verkaufspreises Revenue Management zum Einsatz. Revenue Management wurde Ende der 80er Jahre in der Airline-Industrie erstmalig angewendet. Dabei ging es darum, zu vorher festgelegten Preisstrukturen die optimalen Absatzmengen zu bestimmen. Mit einfachen Worten: Den richtigen Sitz zum richtigen Zeitpunkt an den richtigen Kunden zum richtigen Preis zu verkaufen. Basis dafür sind Methoden der Statistik zur Nachfrageprognose und die Methoden der Optimierung zur Preis-Mengen-Optimierung. In den letzten Jahren wurden die Methoden sukzessive erweitert. Eine Variante wird als Dynamic Pricing bezeichnet. Dabei wird davon ausgegangen, dass jeweils immer nur zu einem Preis im Markt verkauft werden kann. Aufgabe ist es nun, bei gegebenen Preispunkten die optimalen Zeitpunkte zu bestimmen, an denen diese Preispunkte aktiv sind. Ziel des Projektes ist es, moderne Methoden der Optimierung mit aktueller Statistik so zu verbinden, dass eine verlässliche und effiziente Planung ermöglicht wird.
Gitterpunktfreie Polyeder in der Schnittebenentheorie
Laufzeit: 01.01.2011 bis 01.12.2015
Das Einsetzen von gitterpunkfreien Polyeder zur Erzeugung von Schnittebenen im Rahmen von Schnittebenenverfahren zur Lösung von gemischt-ganzzahligen Optimierungsproblemen. In diesem Projekt wurden die 3-dimensionalen inklusionsmaximalen gitterpunktfreie ganzzahlige Polyeder modulo Gittersymmetrien aufgezählt. Des Weiteren untersuchte man die Größe (quantifiziert als Volumen, Asymmetrie, Gitterdurchmesser usw.) der ganzzahligen Polytope mit genau einem inneren Gitterpunkt. In mehreren Fällen wurden die gitterpolytope maximaler Größer bestimmt.
Geometrische Rekonstruktionsprobleme für die Autokorrelation
Laufzeit: 09.12.2010 bis 01.01.2014
Als Ziel der Promotion setzen wir Forschung auf dem Gebiet Geometrische Rekonstruktionsprobleme für die Autokorrelation. Dies ist ein wichtiges Thema mit Anwendungen in der Mathematischen Physik (unter anderem Theorie der Quasikrystalle), Bildverarbeitung, Stochastischen und Konvexgeometrie. Beugungsbilder eines Quasikrystalls liefern die Information über die Autokorrelation des sogenannten Fensters, einer Menge, welche die Struktur des Quasikrystalls (fast) eindeutig bestimmt. Sobald man das Fenster aus seiner Autokorrelation wiederherstellen kann, verfügt man über die Information bezüglich der relativen Lage von Atomen des Quasikrystalls. In der Bildverarbeitung liefert die Autokorrelation relevante qualitative Information über ein Bild. In der Stochastischen und Konvexgeometrie tauchen die Autokorrelation (der charakterischen Funktion einer Menge) und entsprechende Rekonstruktionsaussagen oft als Hilfsmethoden auf. Allerdings sind viele wichtige Aspekte der Rekonstruktion aus der Autokorrelation noch nicht ausreichend verstanden. Im Rahmen des Promotionsvorhabens möchten wir neue Resultate zu diesem Thema erzielen.
Anwendung von Packungsalgorithmen zur Simulation poröser Strukturen
Laufzeit: 01.02.2014 bis 31.01.2015
Die Eigenschaften einer nanostrukturierten durchlässigen Matrix gefüllt mit einer Substanz hängen von der Dichte der Atome in den Nanokanälen an und können als Packung kongruenter Bereiche in einem Zylinder modelliert werden. Drei Zugänge können für solche Packungen genutzt werden: 1) numerische Simulation; 2) Voronoi-Delaunay Netzwerke; 3) mathematische Optimierungsmethoden. Diese Methoden können zum Design verschiedener nanoporöser Strukturen genutzt werden. Das Ziel des Projektes ist die Untersuchung und Analyse dieser Zugänge zur Modellierung verschiedener nanoporöser Matrizen verbunden mit der Entwicklung hierarchisch geordneter Materialien spezifischer Struktur und Eigenschaften.
Das Projekt wird unter der Leitung von Dr. Larisa Burtseva vom Engineering Institute der Autonomous University of Baja Calfornia Mexicali, B.C., Mexico, in Kooperation mit der OvGU Magdeburg sowie der Polytechnical University of Baja California (UPBC), Mexicali, B. C. und dem Centro de Nanociencias y Nanotecnología (CNyN) of the Universidad Nacional Autónoma de Mexico (UNAM), Ensenada, B. C. durchgeführt.
Die Arbeitsgruppe umfasst Dr. Benjamin Valdez, Dr. Felix F. Gonzalez, M. C. Jorge Ibarra, Dr. Brenda Flores, Dr. Gabriel Lopez - UABC; Dr. Rainier Romero -UPBC; Dr. Vitalii Petranovskii CNyN UNAM.
Development of algorithms for single-stage scheduling problems
Laufzeit: 01.08.2011 bis 31.07.2012
In this project, single-stage scheduling problems (i.e,. single and parallel machine problems) are considered. While many of these problems are NP-hard, the development of polynomial algorithms for special cases of such problems is of interest. We investigate
e.g. parallel machine problems, where the maximal processing time is a constant or where the number of possible different processing times is restricted. Parts of this project are supported by DAAD and by CONACyT.
Properties of graphs with special structures and optimal schedules: variable parameters, independency and domination
Laufzeit: 15.04.2008 bis 31.03.2010
In this project, it is intended to investigate graphs with special properties and relationship to optimal schedules for particular classes of scheduling problems. In particular, variable parameters, independency and domination properties will be investigated. This project is realized in cooperation with the United Institute of Informatics Problems and is supported by Belarusian Fund of Fundamental Research.
Investigation of the complexity of sequencing problems and the construction of efficient scheduling problems
Laufzeit: 15.04.2006 bis 31.03.2008
Im Rrojekt wird die Komplexität verschiedener Sequencing Probleme untersucht. In diesem Zusammenhang werden sowohl polynomial lösbare Spezialfälle abgeleitet als auch Lösungsalgorithmen für schwierige Probleme entwickelt. Eine besondere Rolle spielt die Anwendung graphentheoretischer Methoden.
Scheduling for Modern Manufacturing, Logistics and Supply Chains
Laufzeit: 01.03.2004 bis 31.07.2007
Das Ziel besteht in der Behandlung allgemeiner Scheduling Modelle aus den Gebieten Flexible Manufacturing, Logistik und Supply Chains. Teilziele bestehen in der Behandlung hybrider Bearbeitungssysteme, der Koordinierung von Scheduling und Transportentscheidungen, der Kombination von Scheduling und Reverse Logistic, der Behandlung von Scheduling Problemen in Supply Chains. Es werden Scheduling Probleme mit Vorrangbedingungen, Bereitstellungszeiten und Deadlines, steuerbaren Bearbeitungszeiten und festlegbaren Due Dates behandelt.
Komplexe Scheduling-Probleme
Laufzeit: 01.11.1998 bis 01.11.2002
Das Ziel besteht in der Untersuchung solcher Klassen von Scheduling-Problemen, die im Zusammenhang mit der Produktionsplanung and dem Entwurf von Computer-Systemen entstehen. Derartige Probleme sind komplexer als die klassischen, da in vielen Fällen zusätzliche Nebenbedingungen zu beachten sind. Wir formulieren Modelle für diese Probleme und untersuchen grundlegende Lösungsmethoden. Die Teilprojekte lassen sich wie folgt klassifizieren:- Untersuchung von Scheduling Modellen und von der Struktur der Menge der zulässigen Lösungen- Komplexitätsuntersuchungen und die Entwicklung polynomialer Algortihmen für Teilklassen von Problemen- Entwicklung von heuristischen und approximativen Verfahren- Untersuchung der Stabilität von optimalen und approximativen Lösungen.
Entwicklung von Scheduling Modellen und Algorithmen
Laufzeit: 01.11.1996 bis 01.01.2000
Das Ziel besteht in der Untersuchung von Scheduling-Problemen, die im Zusammenhang mit der Produktionsplanung und mit dem Design vom Computer-Systemen entstehen. Diese Probleme sind komplexer als die klassischen Scheduling-Probleme, da eine Reihe zusätzlicher Restriktionen zu beachten sind. Die einzelnen Teilprojekte können wie folgt klassifiziert werden:- Untersuchung von Scheduling-Modellen und der Struktur der Menge der zulässigen Lösungen- Komplexitätsuntersuchungen und Entwicklung polynomialer Algorithmen für Teilklassen von Scheduling-Problemen- Untersuchung der Stabilität von optimalen und Näherungslösungen
Constraint Scheduling
Laufzeit: 01.06.1996 bis 31.05.1998
Das Ziel des Projektes besteht in der Untersuchung von Klassen von Scheduling Problemen, die im Zusammenhang mit der flexiblen Fertigung auftreten. Diese Probleme sind üblicherweise komplexer als klassische Scheduling Probleme, da eine Reihe zusätzlicher Nebenbedingungen auftreten. Für solche Probleme sollen Modelle und elementare Lösungsmethoden untersucht werden.
Unvollständige Instandhaltung in Abnutzungsprozessen
Laufzeit: 01.01.2016 bis 31.12.2018
Es wird ein Wiener Prozess zur Modellierung des Abnutzungsverhaltens betrachtet. Ein Ausfall erfolgt, wenn der Abnutzungsprozess ein vorgegebenes Nivieau erstmalig erreicht.
Zur Vermeidung von Ausfällen werden regelmäßig vorbeugende Instandhaltungsmaßnahmen durchgeführt, die das Abnutzungsniveau verringern. Im Projekt werden folgende Fragestellungen betrachtet;
- Einführung der Konzepte des virtuellen Alters und des Reparaturgrades, die bei der Betrachtung von vorbeugenden Instandhaltungen in der Lebensdaueranalyse von Systemen verwendet werden,
- Einfluß der Instandhaltung auf die Lebensdauerverteilung,
- Definition von Kostenfunktionen der vorbeugenden Instandhaltung in Abhängigkeit vom Reparaturgrad,
- Kostenoptimale Instandhaltung.
Optimale Instandhaltung in Abnutzungsprozessen
Laufzeit: 01.01.2011 bis 30.12.2015
Wir betrachten einen Wiener Prozeß mit Drift als Abnutzungsmodell. Ein Ausfall tritt ein, wenn der Abnutzungsprozess erstmalig ein vorgegebenes Niveau h erreicht. Die zufällige Zeit bis zum Ausfall ist dann invers Gauss-verteilt.
Zur vorbeugenden Instandhaltung wird der Abnutzungsprozess regelmäßig kontrolliert. Wenn zu einem dieser Inspektionszeitpunkte die Abnutzung ein festgelegtes Maß a überschritten hat, wird das Bauteil vorbeugend durch ein neues ersetzt.
Dabei entstehen 3 Arten von Kosten:
- Inspektionskosten,
- Kosten einer vorbeugenden Instandhaltung,
- Ausfallkosten.
Inhalt des Projektes ist es, sowohl optimale Zeitintervalle zwischen den Inspektionen zu bestimmen, als auch eine optimalen Grenze a für die vorbeugenden Instandhaltung festzulegen.
Instandhaltung in Multi-State-Systemen
Laufzeit: 01.09.2010 bis 31.08.2013
Die Reparatur eines komplexen Systems verandert in der Regel dieses System so, daß es zwar nicht neu, jedoch jünger als vor der Reparatur ist. In Systemen mit vielen Zuständen bedeutet das, daß die Instandhaltung das System in einen "jüngeren" Zustand zurückversetzt. Es werden stochastische Modelle für unvollständige Reparaturen angewendet, um optimale Instandhaltungsstrategien für solche Systeme zu bestimmen. Dabei sollen unter Ansatz verschiedener möglicher Kostenfunktionen sowohl der optimale Zustand nach der Instandhaltung, als auch der optimale Zustand, zu dem eine Instandhaltung erfolgt, ermittelt werden.
Optimale Instandhaltung in Modellen mit unvollständiger Reparatur
Laufzeit: 01.09.2007 bis 31.08.2010
Die Reparatur eines komplexen Systems verandert in der Regel dieses System so, daß es zwar nicht neu, jedoch jünger als vor der Reparatur ist. Verschiedene, in der Literatur vorhandene, stochastische Modelle zur Beschreibung dieser allgemeinen Reparatur werden benutzt, um den Ausfall-Reparaturprozeß statistisch zu modellieren und aus den Ausfalldaten sowohl die Ausfallintensität, als auch Parameter des Reparaturgrades zu schätzen. Zusätzlich stellt sich die Aufgabe,optimale Reparaturgrade und optimale Reparaturzeitpunkte zu bestimmen.
Parameterschätzungen in Ausfall-Reparatur-Modellen mit verschiedenen Reparaturgraden
Laufzeit: 01.09.2003 bis 31.08.2007
Die Reparatur eines komplexen Systems verandert in der Regel dieses System so, daß es zwar nicht neu, jedoch jünger als vor der Reparatur ist. Verschiedene, in der Literatur vorhandene, stochastische Modelle zur Beschreibung dieser allgemeinen Reparatur werden benutzt, um den Ausfall-Reparaturprozeß statistisch zu modellieren und aus den Ausfalldaten sowohl die Ausfallintensität, als auch Parameter des Reparaturgrades zu schätzen.
Statistische Modellierung lernabhängiger Aktivitätsveränderungen bei funktionellen Kernspinuntersuchungen
Laufzeit: 01.09.2002 bis 31.08.2006
Statistische Analyse von Daten aus der funktionellen Magnetresonaztomographie (fMRT). Das gemessene fMRT-Signal enthält die neuronale Aktivierung von Gehirnarealen, jedoch auch Beiträge anderer Signale. Ausserdem werden die neuronalen Aktivierungen durch das Lernverhalten des Probanden beeinflußt. Eine kombinierte Analyse des gemessenen Signals und der Verhaltensdaten des Probanden ermöglichen eine gute Analyse der Lernleistung. Diese Lernleistung und die damit zusammenhängende Aktivitätsänderung sollen mathematisch beschrieben und in einem statistischen Modell dargestellt werden.
Entwicklung statistischer Methoden für spezielle Arten von Punktprozessen, die im Zusammenhang mit der mathematischen Beschreibung des Zuverlässigkeitsverhaltens technischer Bauteile auftreten
Laufzeit: 01.07.2000 bis 30.06.2004
Das Abnutzungsverhalten technischer Bauteile wird durch geeignete Klassen von markierten Punktprozessen beschrieben. Ein Ausfall erfolgt, wenn der Abnutzungsprozess eine gewisse Schranke erstmalig erreicht. Die Verteilung dieser Erstpassagenzeit wird bestimmt. Es werden statistische Verfahren fuer die diskrete Beobachtung dieser Prozesse bei unterschiedlichen Datenstrukturen erarbeitet.
Entwicklung statistischer Methoden für spezielle Arten von Punktprozessen, die im Zusammenhang mit der mathematischen Beschreibung des Zuverlässigkeitsverhaltens technischer Bauteile auftreten
Laufzeit: 01.07.1997 bis 30.06.1999
Das Abnutzungsverhalten technischer Bauteile wird durch geeignete Klassen von markierten Punktprozessen beschrieben. Ein Ausfall erfolgt, wenn der Abnutzungsprozess eine gewisse Schranke erstmalig erreicht. Die Verteilung dieser Erstpassagenzeit wird bestimmt. Es werden statistische Verfahren fuer die diskrete Beobachtung dieser Prozesse bei unterschiedlichen Datenstrukturen erarbeitet.
Quasi-Newton algorithmus zum optimalen Design
Laufzeit: 01.10.2020 bis 31.12.2023
Im Rahmen der approximativen Design-Theorie für lineare Regressionsmodelle sollen optimale Designs algorithmisch berechnet werden (insbesondere D-optimale und I-optimale Designs). Ein universell einsetzbarer Algorithmus existiert nicht.
Unsere Quasi-Newton Methoden (s. Gaffke; Schwabe, 2019) sollen auf den Fall eines endlichen Versuchsbereichs angewendet und als R-Programm implementiert werden.
Literatur:
Gaffke, N.; Schwabe, R.: Quasi-Newton algorithm for optimal approximate linear regression design: Optimization in matrix space. Journal of Statistical Planning and Inference 198 (2019), 62-78.
Optimale Planung multi-variabler Accelerated-Degradation-Tests (II)
Laufzeit: 01.04.2022 bis 31.03.2023
Die rasante Entwicklung moderner Fertigungstechniken zusammen mit den Bedürfnissen der Verbraucher nach hochqualitativen Produkten dienen als Motivation für Industrieunternehmen, Produkte zu entwickeln und herzustellen , die ohne Ausfall über Jahre oder gar Jahrzehnte funktionireren können. Für derartig langlebige Produkte ist es jedoch eine nicht einfache Aufgabe, innerhalb kurzer verfügbarer Zeit Zuverlässigkeitsaussagen zu treffen, da nicht genügend Daten für eine akkurate Schätzung der Lebensdauer gewonnen werden können. Dementsprechend ist eine Lebensdauerprüfung unter Normalbedingungen nicht sinnvoll. Daher werden Ermüdungstests mit wiederholte Messungen ("repeated measures accelerated degradation tests") häufig in der produzierenden Industrie angewendet, um Lebensdauerverteilungen hochzuverlässiger Produkte zu bestimmen, die bei traditionellen oder beschleunigten Lebensdauertests nicht ausfallen würden. In diesen Experimenten werden Beobachtungen bei hohen Belastungsstufen (z.B. Temperatur, Stromspannung oder Druck) mit Hilfe eines physikalisch sinnvollen statistischen Modells extrapoliert, um Schätzungen der Lebensdauer für niedrigere Belastungen unter Normalbedingugnen zu erhalten. Zusätzlich ist zu beachten, dass verschiedene Faktoren wie die Häufigkeit der Messungen, die Stichprobengrößen und die dauer des Experiments Einfluss auf die Kosten und die genauigkeit der Schätzung haben.
Im Rahmen dieses Projektes werden verschiedene Systeme bivariater Degradationsprozesse betrachtet, wobei die Korrelationsstruktur durch eine Copula gegeben ist, und hierfür optimale Designs bestimmt.
Sequenziell-adaptives Design
Laufzeit: 01.01.2019 bis 31.03.2020
Nicht-lineare Regression spielt eine wichtige Rolle zur adäquaten statistischen Modellierung von Daten, wenn der Einfluss erklärender Variablen auf die interessierende Zielvariable nicht durch einen einfachen linearen Ursache-Wirkungs-Zusammenhang beschrieben werden kann. In derartigen Modellen hängt die Informationsmatrix eines Versuchsplans (Design) vom Parametervektor ab, dessen wahrer Wert unbekannt ist. Häufig verwendete Ansätze der optimalen Versuchsplanung in dieser Situation sind lokal optimale Designs, Bayes-optimale Designs oder auch Minimax-Designs. Diese Konzepte benötigen und verwenden jedoch a-priori Kenntnisse über den wahren Parameterwert. Sequenziell-adaptive Designs hingegen sind lernende Verfahren. Sie sammeln Informationen über den wahren Parameterwert aus bereits gemachten Beobachtungen in einem sequenziellen Prozess und können daher auf a-priori Informationen verzichten. Dabei werden sequenziell adaptive Updates der Parameterschätzung auf Basis der bereits gemachten Beobachtungen berechnet, und mit Hilfe dieser wird das Design entsprechend um weitere Beobachtungen ergänzt. Ein populärer Algorithmus dieser Art ist der adaptive Wynn-Algorithmus zur asymptotischen Generierung eines D-optimalen Designs. In der gemeinsamen Arbeit von Freise, Gaffke und Schwabe (2019a) ist es gelungen, das seit Langem offene Problem der Konvergenz dieses Algorithmus zumindest für die in den Anwendungen wichtige Klasse der verallgemeinerten linearen Modelle (positiv) zu lösen. In der zweiten Arbeit von Freise, Gaffke und Schwabe (2019b) konnte dies auch auf eine weitere Klasse von nicht-linearen Modellen und auf andere Schätzverfahren erweitert werden. Gegenwärtig arbeiten die Autoren an der Analyse eines neuen Algorithmus zur asymptotischen Generierung D-optimaler Designs, bei dem gleichzeitig mehrere Beobachtungen hinzugefügt werden. Weitere Ziele des Projekts sind zum einen die Ausweitung der Untersuchungen auf weitere Klassen nicht-linearer Modelle sowie auf weitere Optimalitätskriterien. Zum anderen soll das praktische Konvergenzverhalten der Algorithmen erprobt und beurteilt werden.
Freise, F.; Gaffke, N.; Schwabe, R. (2019a). The adaptive Wynn-algorithm in generalized linear models with univariate response. Preprint arXiv:1907.02708
Freise, F.; Gaffke, N.; Schwabe, R. (2019b). Convergence of least squares estimators
in the adaptive Wynn algorithm for a class of nonlinear regression models. Preprint. arXiv:1909.03763
Die Verteilung einer nicht-parametrischen Teststatistik für den Erwartungswert.
Laufzeit: 01.04.2015 bis 31.12.2018
Im nicht-parametrischen Modell mit $n$ i.i.d. nicht negativen Zufallsvariablen wurde von Gaffke (2005) eine Teststatistik vorgeschlagen, die auch die Kontruktion einer unteren Konfidenzschranke für den Erwartungswert erlaubt Immer noch offen ist die Frage, ob das nominelle Konfidenzniveau eingehalten wird. Äquivalent ist die Frage, ob die Verteilung der Teststatistik stochastisch größer (oder gleich) der Standard-Rechteck-Verteilung ist, unter jeder zu Grunde liegenden Verteilung mit Erwartungswert gleich 1. Es besteht einige numerische Evidenz, dass die Antwort positiv ist. Bewiesen ist aber wenig: Nur der Fall $n = 2$ (und der triviale Fall $n = 1$ ), sowie die asymptotische Aussage, dass für $n \to \infty$ die Verteilung der Teststatistik gegen die Standard-Rechteck-Verteilung konvergiert. Das erste Ziel des Projektes ist es, den Fall $ n = 3$ zu beantworten.
Literatur:
Gaffke, N. (2005): Three test statistics for a nonparametric one-sided hypothesis on the mean of a nonnegative random variable.
Mathematical Medthods of Statistics 14, 451-467.
Schätzung der Intensität von Punktprozessen
Laufzeit: 01.01.2011 bis 31.12.2013
Messdaten der Neuronenaktivität auf Grund einer Reizung (z.B. akkustische Reizung) lassen sich als einen stochastischen Punktprozess ansehen: Zu gewissen Zeitpunkten (die zufällig erscheinen) sind Potential-Spikes zu beobachten. Interessant ist die Intensitätsfunktion des Prozesses, die auf Grund der Daten geschätzt werden soll. Hierzu verwenden wir Kernschätzer, wie sie im (anderen) statistischen Problemkreis der Dichteschätzung Verwendung finden. Das zentrale Problem liegt in der Wahl der Bandbreite bei der Glättung, da in den neurobiologischen Anwendungen relativ komplizierte Intensitätsfunktionen auftreten (mehrere Extrema, Bereiche hohe Krümmung). Daher sollen adaptive Bandbreiten eingesetzt werden. Die praktischen wie auch theoretischen Eigenschaften von Kernschätzern mit adaptiven Bandbreiten werden untersucht.
Exakte Konfidenzschranken für den Erwartungswert
Laufzeit: 01.10.2008 bis 30.09.2013
Im nicht-parametrischen Modell mit n unabhängigen, identisch verteilten und nicht-negativen Zufallsvariablen ist der Erwartungswert \mu ein wichtiger Parameter. Obere und untere Konfidenzschranken für \mu sind in Anwendungen von großem Interesse, etwa in der Finanzprüfung (Statistical Auditing). Eine in diesem Bereich oft verwendete Konfidenzschranke ist die Stringer Bound (Stringer (1963), s. auch Bickel (1992)). Zusammenhänge mit der unteren Konfidenzschranke von Gaffke & Zöllner (2003) und Gaffke (2005) existieren und sollen im Einzelnen herausgearbeitet werden. Die zentrale (aber sehr schwierige) Frage nach dem exakten Konfidenzniveau der Schranken soll bearbeitet werden. Daneben werden eine Reihe weiterer Konfidenzschranken untersucht, z.B. die in Swinamer et. al. (2004) zusammengestellten Schranken.Literatur Bickel, P.J. (1992): Inference and Auditing: The Stringer Bound. International Statistical Review 60, 197-209. Gaffke, N. (2005): Three test statistics for a nonparametric one-sided hypothesis on the mean of a nonnegative variable. Mathematical Methods of Statistics 14, 451-467. Gaffke, N.; Zöllner, A. (2003): A Resampling Approach for Under-estimating a Finite Population Total from a Censored Sample. Communication in Statistics, Theory and Methods 32, 2305-2320. Stringer, K.W. (1963): Practical aspects of statistical sampling in auditing. Proceedings of Business and Economic Statistics Section, American Statistical Association.
Isotrope diskrete Orientierungsverteilungen
Laufzeit: 01.10.2002 bis 30.09.2007
Um mit Homogenisierungs-Methoden das Verhalten von Polykristallen simulieren zu können, werden zunächst Anfangsorientierungen der Kristallite sowie initiale Kornstrukturen benötigt, die die Anfangstextur hinreichend abbilden. Geht man von anfänglicher Isotropie aus, so sind isotrope Kornverteilungen zu bestimmen. Dieses Problem ist erst für linear-elastische Anwendungen unter speziellen Annahmen gelöst(z.B. für kubische Kristalle). Offen ist dies im Rahmen der Plastizität und der Viskoplastizität. In diesem Zusammenhang sind Darstellungen invarianter Tensorfunktionen zu studieren. Hierzu liegen einerseits Resultate in der Mechanik und andererseits verwandte Resultate in der mathematischen Statistik vor. Diese sollen zusammengeführt, ggf. erweitert und auf die spezifischen Klassen von Mikrostrukturen angewendet werden.
Biproportionale Rundungen
Laufzeit: 01.05.2004 bis 31.12.2006
Bei der Besetzung von Gremien soll oft eine Proportionalität hinsichtlich zweier Kategorien erfolgen, z.B. Parteien (proportional zu ihren Wahlergebnissen) und Regionen (proportional zur Einwohnerzahl). Die Sitze im Gremium können natürlich nur in ganzen Einheiten zugeordnet werden. Das führt zum Problem der biproportionalen (ganzzahligen) Rundung einer nicht-negativen Matrix. Kombinatorische Algorithmen sowie der sehr einfache BAZI-Algorihmus sollen untersucht und verglichen werden. Eine guter Ansatzpunkt ist eine Formulierung des Problems als ein ganzzahliges Optimierungsproblem, was in die Richtung der Minimierung einer konvexen (nicht-linearen) Kostenfunktion über einem Transportpolytop (evtl. mit Kapazitätsbeschränkungen) geht.
Nicht-parametrische Konfidenzschranken für den Erwartungswert
Laufzeit: 01.10.2003 bis 30.09.2006
Bei einer statistischen Hochrechnung von stichprobenweise erfassten Merkmalswerten (Schadenswerte in Geldeinheiten) haben wir eine sehr plausibel erscheinende untere Konfidenzschranke für das Population Total (Gesamtschaden) vorgeschlagen. Diese beruht auf einem Resampling , d.h. das verwendete Stichprobenverfahren wird durch Computersimulation nachgebildet. Es lassen sich damit "begründete Spekulationen" über die Ränge der gezogenen Merkmalswerte innerhalb der (endlichen) Population anstellen.Das Ziel des Projektes ist es, über die Plausibilität hinaus zu gehen und das tatsächliche Niveau der Konfidenzschranke zu bestimmen. Zunächst wird als mathematische Idealisierung der Fall einer unendlich großen Population betrachtet. Das führt zumnicht-parametrischen Modell mit unabhängigen und identisch verteilten nicht-negativen Zufallsvariablen und dem Erwartungswert. Die untere Konfidenzschranke für den Erwartungswert wird hinsichtlich ihres tatsächlichen Niveaus untersucht. Im Licht der erhaltenen Resultate ist dann die technisch schwierigere Situation einer endlichen Population zu untersuchen.
Testen statistischer Hypothesen mit geometrischen Singularitäten
Laufzeit: 01.02.2001 bis 31.12.2005
Bei der Modellierung einer regressiven Abhängigkeit ist zu entscheiden, welche potenziellen Einflussvariablen einbezogen werden sollen. Insbesondere in der empirischen Psychologie gibt es oft neben den als wesentlich einzuschätzenden Variablen eine Reihe potenzieller Störvariablen. Zur praktischen Anwendbarkeit des Modells ist anzustreben, möglichst wenige solcher Störvariablen explizit in das Modell aufzunehmen. Der Begriff der Unkonfundiertheit bzw. Konfundiertheit kann hierfür als Kriterium dienen. Bei der Entwicklung statistischer Tests zur Prüfung der Unkonfundiertheit aufgrund von Beobachtungsdaten stellt sich heraus, dass die Nullhypothese (der Unkonfundiertheit) singuläre Parameterpunkte aufweist. Hier bricht die Standard-Asymptotik klassischer Tests zusammen (Wald-Test, Lagrange-Multiplier-Test, evtl. auch Likelihood-Ratio Test). Das Projekt ist der Asymptotik klassischer Tests in singulären Punkten gewidmet. Eine Förderung durch die DFG erfolgte bis November 2003.
Statistische Methoden der Parameteridentifikation in strukturmechanischen Modellen.
Laufzeit: 01.04.1997 bis 28.02.2001
Bei der Parameteridentifizierung eines strukturmechanischen Modells (z.B. eines Finite Elemente Modells) aufgrund experimenteller Daten ist zu berücksichtigen, dass die Messungen fehlerbehaftet sind. Typischerweise hängen die gemessenen Zustandsvariablen nicht-linear von den Modellparametern ab. Meistens ist die Abhängigkeit nur implizit gegeben, etwa durch Eigenwertprobleme oder diskretisierte Randwertprobleme. Die Güte der bisher verwendeten statistischen Schätzmethoden (Iterative Least Squares, Bayes-Schätzer) wird untersucht. Darüberhinaus werden alternative Methoden (z.B. Empirical Bayes) betrachtet.
Optimales Sampling Design für Big Data
Laufzeit: 01.04.2020 bis 31.03.2024
Dank moderner Informationstechnologie besteht heutzutage die Möglichkeit, riesige Datenmengen zu sammeln, die sowohl im Hinblick auf die Anzahl der Beobachtungseinheiten (Umfang des Datensatzes) als auch hinsichtlich der Anzahl der Merkmale (multivariate Beobachtungen) von immenser Dimension sind und die häufig als massive Daten oder "Big Data” bezeichnet werden. Die reine Verfügbarkeit derartiger Big Data führt jedoch nicht zwangsläufig zu neuen Erkenntnissen über kausale Zusammenhänge innerhalb der Daten. Stattdessen kann die schiere Masse an Daten ernsthafte Probleme bei der statistischen Analyse verursachen. Zudem sind in vielen Situationen Teile (gewisse Merkmale) in den Daten einfach oder kostengünstig zu beobachten, während die Ausprägungen anderer, besonders interessierender Merkmale nur schwierig oder mit großen Kosten zu erhalten sind. Daher sind Vorhersagen für die Ausprägungen kostenintensiver Merkmale wünschenswert. Dieses kann mit klassischen statistischen Methoden erreicht werden, wenn für eine geeignete Teilstichprobe sowohl die Ausprägungen für die einfach als auch für die schwierig zu beobachtenden Merkmale verfügbar sind. Um Kosten zu reduzieren und/oder die Genauigkeit der Vorhersage zu verbessern, besteht ein Bedarf an optimalen Auswahlverfahren für Stichproben. In diesem Kontext können Konzepte aus der ursprünglich für technische Experimente entworfenen Theorie optimaler Designs unkonventionell genutzt werden, um effiziente Strategien für die Stichprobenauswahl zu entwickeln. Grundlegende Konzepte wie Relaxation auf stetige Verteilungen der Daten und Symmetrieeigenschaften können dabei zu einer wesentlichen Reduktion der Komplexität und somit zu praktikablen Lösungen führen. Ziel des vorliegenden Projekts ist es, diese allgemeinen Ideen zu konkretisieren und sie auf ein solides theoretisches Fundament zu stellen, um sie somit für die Auswertung realer Datensätze verwertbar zu machen.
Analyse rekurrenter Ereignisprozesse mit einem terminalen Ereignis (informative Zensierung) - Überlegungen zum Studiendesign
Laufzeit: 01.04.2018 bis 31.03.2023
Das Konzept rekurrenter Ereignisse bezieht das wiederholte zeitliche Auftreten von Erieignissen ein und derselben Art im Kontext klinischer Studien ein. Beispiele umfassen das Auftreten von Anfällen in Eilepsiestudien, Aufflammen in Gichtstudien oder Hospitalisierung bei Patienten mit chronischen Herzleiden.
Eine wichtige Herausforderung bei der Analyse rekurrenter Ereignisse tritt auf, wenn informative Zensierung vorliegt. In klinischen Studien können beispielsweise Patienten aus einer Behandlung ausscheiden, weil sich ihre Verfassung so verschlechtert hat. dass eine alternative Behanslung notwendig wird. In dieser Situation kann die reine Tatsache, dass ein Patient ausscheidet, anzeigen, dass das interssierende Ereignis voraussichtlich eher oder häufiger auftritt, als unter der Annahme unabhängiger Zensierung zu erwarten wäre. Informative Zensierung kann dabei auch in Kombination mit einem terminalen Ereignis auftreten, dass den rekurrenten Ereignisprozcess beendet. Zum Beispiel kann in einer Studie zu chronischen Herzerkrankungen das Eintreten des Todes dne Prozess der Hospitalisierung abbrechen. Da die Einflussfaktoren für Hospitalisierung bei Herzerkrankungen mit den Risikofakoren für das Einterten des Todes einhergehen, darf dieser Zusammenhang nicht vernachlässigt werden, da die resultierende Datenanalyse andernfalls verfälscht werden kann.
Zur Planung von Studien zur Aufdeckung und Bestimmung von Behandlungseffekten bei derartigen Endpunkten gibt es eine Reihe von Erweiterungen klassischer Überlebenszeitmodelle. Von besonderem Interesse ist dabei das Modell gemeinsamer Schwächung mit korrelierten Schwächungen, wobei separate marginale Modelle für die Intensität der beiden Ereignisprozesse unter Berücksichtigung korrelierter zufälliger Effekte. die subjektspezifische Schwächungen untersucht werden können.
Dieses Projekt umfasst sowohl methodologische Aspekte als auch Simulationsstudien und die Analyse realer Daten.
Quasi-Likelihood und Quasi-Information für nicht-lineare und verallgemeinert lineare gemischte Modelle (II)
Laufzeit: 01.01.2023 bis 31.03.2023
Nicht-lineare und verallgemeinert lineare gemischte Modelle werden effizient in der statistischen Datenanalyse in einem weiten Feld von Anwendungen in Bio- oder Sozialwissenschaften eingesetzt, wenn die grundlegenden Annahmen eines üblicherweise angesetzten linearen Modells nicht erfüllt sind. Derartige Situationen treten dann auf, wenn die Daten entweder aus einem intrinsisch nicht-linearen Zusammenhang stammen wie beispielsweise in der Pharmakokinetik, bei Wachstums- und Dosis-Wirkungs-Kurvens oder die Zielvariable auf einer nicht-metrischen Skala gemessen wird wie beispielsweise Zähldaten und nominale oder ordinale Antworten. Zusätzlich treten gemischte Effekte auf, wenn Messwiederholungen an ein und denselben statistischen Einheiten beobachtet werden. Dies führt zu einer Verletzung der üblichen Annahme statistisch unabhängiger Beobachtungen. Die Nicht-linearität in Kombination mit der Modellierung mit gemischten Effekten macht eine explizite Berechnung der Likelihood und damit der Fisher-Information unmöglich. Als Ersatz kann die Quasi-Likelihood und die daraus resultierende Quasi-Information genutzt werden, die einfacher zu bestimmen sind und zu ausrechenbaren Schätzungen und deren Unsicherheitsquantifizierung führen. Dieser Ansatz erlaubt zudem die Konstruktion zuverlässiger Experimentaldesigns, die die Qualität der durchzuführenden Experimente im Vorhinein optimiert. In diesem Sinne vereinfacht dieser Ansatz die Komplexität des vorliegenden Schätz- und Planungsproblems und kann einfach mit anderen, häufig in der Statistik verwendeten Reduktionsprinzipien wie Invarianz und Äquivarianz kombiniert werden. Ziel des vorliegenden Projekts ist es, handhabbare Lösungen für die zuvor beschriebene Problemstellung zu entwickeln und diese in praktischen Situationen umzusetzen.
Sequenziell-adaptives Design (II)
Laufzeit: 01.04.2020 bis 31.03.2023
Nicht-lineare Regression spielt eine wichtige Rolle zur adäquaten statistischen Modellierung von Daten, wenn der Einfluss erklärender Variablen auf die interessierende Zielvariable nicht durch einen einfachen linearen Ursache-Wirkungs-Zusammenhang beschrieben werden kann. In derartigen Modellen hängt die Informationsmatrix eines Versuchsplans (Design) vom Parametervektor ab, dessen wahrer Wert unbekannt ist. Häufig verwendete Ansätze der optimalen Versuchsplanung in dieser Situation sind lokal optimale Designs, Bayes-optimale Designs oder auch Minimax-Designs. Diese Konzepte benötigen und verwenden jedoch a-priori Kenntnisse über den wahren Parameterwert. Sequenziell-adaptive Designs hingegen sind lernende Verfahren. Sie sammeln Informationen über den wahren Parameterwert aus bereits gemachten Beobachtungen in einem sequenziellen Prozess und können daher auf a-priori Informationen verzichten. Dabei werden sequenziell adaptive Updates der Parameterschätzung auf Basis der bereits gemachten Beobachtungen berechnet, und mit Hilfe dieser wird das Design entsprechend um weitere Beobachtungen ergänzt. Ein populärer Algorithmus dieser Art ist der adaptive Wynn-Algorithmus zur asymptotischen Generierung eines D-optimalen Designs. In der gemeinsamen Arbeit von Freise, Gaffke und Schwabe (2019a) ist es gelungen, das seit Langem offene Problem der Konvergenz dieses Algorithmus zumindest für die in den Anwendungen wichtige Klasse der verallgemeinerten linearen Modelle (positiv) zu lösen. In der zweiten Arbeit von Freise, Gaffke und Schwabe (2019b) konnte dies auch auf eine weitere Klasse von nicht-linearen Modellen und auf andere Schätzverfahren erweitert werden. Gegenwärtig arbeiten die Autoren an der Analyse eines neuen Algorithmus zur asymptotischen Generierung D-optimaler Designs, bei dem gleichzeitig mehrere Beobachtungen hinzugefügt werden. Weitere Ziele des Projekts sind zum einen die Ausweitung der Untersuchungen auf weitere Klassen nicht-linearer Modelle sowie auf weitere Optimalitätskriterien. Zum anderen soll das praktische Konvergenzverhalten der Algorithmen erprobt und beurteilt werden.
Freise, F.; Gaffke, N.; Schwabe, R. (2019a). The adaptive Wynn-algorithm in generalized linear models with univariate response. Preprint arXiv:1907.02708
Freise, F.; Gaffke, N.; Schwabe, R. (2019b). Convergence of least squares estimators
in the adaptive Wynn algorithm for a class of nonlinear regression models. Preprint. arXiv:1909.03763
Quasi-Likelihood und Quasi-Information für nicht-lineare und verallgemeinert lineare gemischte Modelle
Laufzeit: 01.07.2019 bis 31.12.2022
Nicht-lineare und verallgemeinert lineare gemischte Modelle werden effizient in der statistischen Datenanalyse in einem weiten Feld von Anwendungen in Bio- oder Sozialwissenschaften eingesetzt, wenn die grundlegenden Annahmen eines üblicherweise angesetzten linearen Modells nicht erfüllt sind. Derartige Situationen treten dann auf, wenn die Daten entweder aus einem intrinsisch nicht-linearen Zusammenhang stammen wie beispielsweise in der Pharmakokinetik, bei Wachstums- und Dosis-Wirkungs-Kurvens oder die Zielvariable auf einer nicht-metrischen Skala gemessen wird wie beispielsweise Zähldaten und nominale oder ordinale Antworten. Zusätzlich treten gemischte Effekte auf, wenn Messwiederholungen an ein und denselben statistischen Einheiten beobachtet werden. Dies führt zu einer Verletzung der üblichen Annahme statistisch unabhängiger Beobachtungen. Die Nicht-linearität in Kombination mit der Modellierung mit gemischten Effekten macht eine explizite Berechnung der Likelihood und damit der Fisher-Information unmöglich. Als Ersatz kann die Quasi-Likelihood und die daraus resultierende Quasi-Information genutzt werden, die einfacher zu bestimmen sind und zu ausrechenbaren Schätzungen und deren Unsicherheitsquantifizierung führen. Dieser Ansatz erlaubt zudem die Konstruktion zuverlässiger Experimentaldesigns, die die Qualität der durchzuführenden Experimente im Vorhinein optimiert. In diesem Sinne vereinfacht dieser Ansatz die Komplexität des vorliegenden Schätz- und Planungsproblems und kann einfach mit anderen, häufig in der Statistik verwendeten Reduktionsprinzipien wie Invarianz und Äquivarianz kombiniert werden. Ziel des vorliegenden Projekts ist es, handhabbare Lösungen für die zuvor beschriebene Problemstellung zu entwickeln und diese in praktischen Situationen umzusetzen.
Optimale Planung multi-variabler Accelerated-Degradation-Tests
Laufzeit: 01.10.2017 bis 31.03.2022
Die rasante Entwicklung moderner Fertigungstechniken zusammen mit den Bedürfnissen der Verbraucher nach hochqualitativen Produkten dienen als Motivation für Industrieunternehmen, Produkte zu entwickeln und herzustellen , die ohne Ausfall über Jahre oder gar Jahrzehnte funktionireren können. Für derartig langlebige Produkte ist es jedoch eine nicht einfache Aufgabe, innerhalb kurzer verfügbarer Zeit Zuverlässigkeitsaussagen zu treffen, da nicht genügend Daten für eine akkurate Schätzung der Lebensdauer gewonnen werden können. Dementsprechend ist eine Lebensdauerprüfung unter Normalbedingungen nicht sinnvoll. Daher werden Ermüdungstests mit wiederholte Messungen ("repeated measures accelerated degradation tests") häufig in der produzierenden Industrie angewendet, um Lebensdauerverteilungen hochzuverlässiger Produkte zu bestimmen, die bei traditionellen oder beschleunigten Lebensdauertests nicht ausfallen würden. In diesen Experimenten werden Beobachtungen bei hohen Belastungsstufen (z.B. Temperatur, Stromspannung oder Druck) mit Hilfe eines physikalisch sinnvollen statistischen Modells extrapoliert, um Schätzungen der Lebensdauer für niedrigere Belastungen unter Normalbedingugnen zu erhalten. Zusätzlich ist zu beachten, dass verschiedene Faktoren wie die Häufigkeit der Messungen, die Stichprobengrößen und die dauer des Experiments Einfluss auf die Kosten und die genauigkeit der Schätzung haben.
Im Rahmen dieses Projektes werden zuerst adäquate und relevante Computerexperimente identifiziert und robuste Methoden der Regressionsanalyse entwickelt. Danach werden Optimalitätskriterien für experimentelle Designs definiert, die auf der Qualität der ausgewählten robusten Methoden basieren, und Simulationsbasierte Designs werden entwickelt, um einen einheitlichen Zugang zur Generierung optimaler oder zumindest effizienter Designs für die robuste Analyse in Computerexperimenten zu erhalten.
Generierung optimaler und effizienter Experimentaldesigns zur individualisierten Vorhersage in hierarchischen Modellen (II)
Laufzeit: 16.02.2019 bis 15.03.2022
Das Ziel des vorliegenden Projektes ist die Entwicklung analytischer Ansätze zur Gewinnung optimaler Designs für die Vorhersage in hierarchischen linearen Modellen sowie in verallgemeinerten linearen und nichtlinearen gemischten Modellen mit zufälligen Parametern. Derartige Modelle wurden ursprünglich in den Bio- und Agrarwissenschaften entwickelt und werden heutzutage in den unterschiedlichsten statistischen Anwendungsgebieten vielfältig eingesetzt.
Äquivarianz und IMSE-Optimalität für Designs in verallgemeinert linearen Modellen mit stetigen Zielfunktionen (II)
Laufzeit: 01.10.2020 bis 31.08.2021
In vielen Anwendungssituationen, in denen Daten gesammelt werden, ist die Annahme der Normalverteilung nicht angebracht, insbesondere wenn die beobachteten Merkmale nicht stetig sind. Für diese Situationen ist das Konzept der verallgemeinerten linearen Modelle entwickelt worden, die sich speziell bei binären Daten (z.B. logistische Regression) oder Zähldaten (z.B. Poisson-Regression) bewährt haben. Jedoch kann auch bei stetigen Merkmalen statt der Normalverteilungsannahme eine andere Verteilungsannahme angemessener sein, die sich über ein verallgemeinertes lineares Modell mit nichtlinearer Linkfunktion beschreiben lässt. Ziel des Projektes ist es, für derartige Modelle unter Verwendung von Symmetrieeigenschaften dieser Modelle optimale Designs zu generieren, die zu einer Verbesserung der Datenanalyse führen.
Äquivarianz und IMSE-Optimalität für Designs in verallgemeinert linearen Modellen mit stetigen Zielfunktionen
Laufzeit: 01.04.2020 bis 30.09.2020
In vielen Anwendungssituationen, in denen Daten gesammelt werden, ist die Annahme der Normalverteilung nicht angebracht, insbesondere wenn die beobachteten Merkmale nicht stetig sind. Für diese Situationen ist das Konzept der verallgemeinerten linearen Modelle entwickelt worden, die sich speziell bei binären Daten (z.B. logistische Regression) oder Zähldaten (z.B. Poisson-Regression) bewährt haben. Jedoch kann auch bei stetigen Merkmalen statt der Normalverteilungsannahme eine andere Verteilungsannahme angemessener sein, die sich über ein verallgemeinertes lineares Modell mit nichtlinearer Linkfunktion beschreiben lässt. Ziel des Projektes ist es, für derartige Modelle unter Verwendung von Symmetrieeigenschaften dieser Modelle optimale Designs zu generieren, die zu einer Verbesserung der Datenanalyse führen.
Geometrie optimaler Designs für nichtlineare Modelle in der Statistik
Laufzeit: 01.04.2017 bis 31.03.2020
Geometrische Beschreibungen optimaler Designbereiche sind in Zeiten zunehmender Komplexität statistischer Modelle von wachsendem Interesse. Das Ziel dieses Projektes besteht in der Suche von Optimalitätsbereichen von experimentellen Designs für derartige statistische Modelle, insbesondere für verallgemeinerte lineare Modelle mit Poisson- oder logistisch verteilten Zielvariablen. Diese Bereiche können durch Systeme von polynomialen Ungleichungen im Parameterraum beschrieben werden, was bedeutet, dass sie nichts anderes als semialgebraische Mengen sind. Somit können Methoden der algebraischen Geometrie benutzt werden, um die Eigenschaften dieser Optimalitätsbereiche zu studieren. Als Beispiel können im Paarvergleichsmodell nach Bradley-Terry, das ein statistisches Modell für den Vergleich verschiedener Alternativen auf der Basis logistischen Antwortverhaltens ist, die Optimalitätsbereiche für sogenannte saturierte Designs, d.h. Designs mit einer minimalen Anzahl von Trägerpunkten, bestimmt werden.
Optimales Design für multivariate verallgemeinerte lineare Modelle mit stetigen Zielfunktionen (II)
Laufzeit: 01.10.2019 bis 31.03.2020
In vielen Anwendungssituationen, in denen Daten gesammelt werden, werden nicht nur eine einzelne, sondern mehrere Zielvariablen gleichzeitig beobachtet, die miteinander korreliert sein können. Derartige multivariate Beobachtungen werden oft mit einer multivariaten Normalverteilung modelliert. In einigen Situationen ist dies jedoch nicht angebracht, insbesondere wenn die beobachteten Merkmale nicht stetig sind. Für diese Situationen ist das Konzept der verallgemeinerten linearen Modelle entwickelt worden, die sich speziell bei binären Daten (z.B. logistische Regression) oder Zähldaten (z.B. Poisson-Regression) bewährt haben. Jedoch kann auch bei stetigen Merkmalen statt der Normalverteilungsannahme eine andere Verteilungsannahme angemessener sein, die sich über ein verallgemeinertes lineares Modell mit nichtlinearer Linkfunktion beschreiben lässt. Ziel des Projektes ist es, für derartige Modelle asymptotische Eigenschaften unter verschiedenen Korrelationsstrukturen zu bestimmen und auf dieser Basis optimale Designs zu generieren, die zu einer Verbesserung der Datenanalyse führen.
Optimales Design für verallgemeinerte lineare gemischte Modelle (II)
Laufzeit: 01.10.2019 bis 31.01.2020
Gemischte Modelle spielen zunehmend eine wichtige Rolle nicht nur in Biowissenschaften sondern auch bei wirtschafts- und sozialwissenschaftlichen Fragestellungen, um individuelle Effekte der verschiedenen Beobachtungseinheiten als Repräsentanten einer größeren Grundgesamtheit bei der statistischen Datenanalyse berücksichtigen und erfassen zu können. Mit verallgemeinerten linearen gemischten Modellen werden Zusammenhänge für binäre ("Erfolg - Misserfolg") und diskrete Zielgrößen ("Anzahlen") beschrieben, die nicht sinnvoll durch standardmäßige lineare gemischte Modelle für metrische Daten dargestellt werden können. Für die zufälligen Effekte können dann neben normalverteilten individuellen Einflüssen auch solche aus konjugierten Familien angenommen werden, die eine explizitere Analyse erlauben. Wie in allen statistischen Analysen hängt auch hier die Qualität der Ergebnisse wesentlich vom Beobachtungs- oder Experimentaldesign, d.h. der Wahl der Beobachtungseinheiten und Beobachtungszeitpunkte, ab. Ziel dieses Projektes ist es, optimale oder zumindest effiziente Designs für verallgemeinerte lineare gemischte Modelle zu entwickeln, die sowohl normalvertreilte als auch Effekte aus konjugierten Verteilungen beinhalten können, und diese zu validieren.
Optimales Design in der Discrete-Choice-Analyse bei Vorliegen von Wechselwirkungen
Laufzeit: 01.10.2019 bis 31.12.2019
Die Discrete-Choice-Analyse ist ein häufig angewendetes Verfahren der Marktforschung. Sie wird verwendet, um das Präferenzverhalten von Konsumenten zu untersuchen und den Nutzen zu ermitteln, den die verschiedenen Attribute eines Produktes besitzen. Die den Konsumenten dabei vorgelegten Auswahlfragen erfordern den Vergleich von Produktbeschreibungen, welche unter Verwendung eines experimentellen Designs zusammengestellt werden. Die Qualität der Ergebnisse eines solchen Experiments hängt folglich stark vom verwendeten Design ab. Bei der Modellierung der Daten und der Wahl des Designs werden häufig jedoch keine Wechselwirkungen höherer Ordnung berücksichtigt, die Synergieeefekte zwischen verschiedenen Attributen beschreiben können.. Ziel des vorliegenden Projektes ist es, optimale und effiziente Designs unter Berücksichtigung von Wechselwirkungen höherer Ordnungzur Modellierung dieser potenziellen Zusammenhänge zu entwickeln und zu validieren.
Optimales Design für multivariate verallgemeinerte lineare Modelle mit stetigen Zielfunktionen
Laufzeit: 01.10.2016 bis 30.09.2019
In vielen Anwendungssituationen, in denen Daten gesammelt werden, werden nicht nur eine einzelne, sondern mehrere Zielvariablen gleichzeitig beobachtet, die miteinander korreliert sein können. Derartige multivariate Beobachtungen werden oft mit einer multivariaten Normalverteilung modelliert. In einigen Situationen ist dies jedoch nicht angebracht, insbesondere wenn die beobachteten Merkmale nicht stetig sind. Für diese Situationen ist das Konzept der verallgemeinerten linearen Modelle entwickelt worden, die sich speziell bei binären Daten (z.B. logistische Regression) oder Zähldaten (z.B. Poisson-Regression) bewährt haben. Jedoch kann auch bei stetigen Merkmalen statt der Normalverteilungsannahme eine andere Verteilungsannahme angemessener sein, die sich über ein verallgemeinertes lineares Modell mit nichtlinearer Linkfunktion beschreiben lässt. Ziel des Projektes ist es, für derartige Modelle asymptotische Eigenschaften unter verschiedenen Korrelationsstrukturen zu bestimmen und auf dieser Basis optimale Designs zu generieren, die zu einer Verbesserung der Datenanalyse führen.
Optimales Design für Sphärische Versuchsbereiche
Laufzeit: 01.01.2017 bis 30.09.2019
Die Gültigkeit statischer Modelle ist oft auf einen lokalen Bereich der eklärenden Variablen beschränkt. Dieser wird in vielen Anwendungsbereichen als rechteckig angenommen, d.h. die erklärenden Variablen können unabhängig voneinander variieren. In manchen Situationen sind jedoch sphärische Bereiche sinnvoller, die durch einen beschränkten Euklidischen oder Mahalanobis-Abstand zu einem zentralen Punkt für die Versuchseinstellungen beschrieben werden können.
Ziel der Versuchsplanung ist es, optimale oder zumindest effiziente Einstellungen für die erklärenden Variablen zu bestimmen, um die Qualität der statistischen Analyse zu optimieren. Beim Vorliegen klassischer linearer Regressionsmodelle sind Charakterisierungen optimaler Designs für sphärische Versuchsbereiche mit Hilfe von Invarianzen und Symmetrien schon seit längerem bekannt. Fragestellung dieses Projekts ist es, für die in der statistischen Praxis zunehmend verwendeten verallgemeinerten linearen Modelle bzw. nichtlinearen Modelle optimale Designs auf derartigen sphärischen Versuchsbereichen zu bestimmen. Erste Ergebnisse für Poisson-verteilte Zähldaten zeigen deutliche Abweichungen der hierfür benötigten optimalen Designs von denjenigen für klassische lineare Modelle.
Optimales Design für verallgemeinerte lineare gemischte Modelle
Laufzeit: 01.10.2013 bis 30.09.2019
Gemischte Modelle spielen zunehmend eine wichtige Rolle nicht nur in Biowissenschaften sondern auch bei wirtschafts- und sozialwissenschaftlichen Fragestellungen, um individuelle Effekte der verschiedenen Beobachtungseinheiten als Repräsentanten einer größeren Grundgesamtheit bei der statistischen Datenanalyse berücksichtigen und erfassen zu können. Mit verallgemeinerten linearen gemischten Modellen werden Zusammenhänge für binäre ("Erfolg - Misserfolg") und diskrete Zielgrößen ("Anzahlen") beschrieben, die nicht sinnvoll durch standardmäßige lineare gemischte Modelle für metrische Daten dargestellt werden können. Für die zufälligen Effekte können dann neben normalverteilten individuellen Einflüssen auch solche aus konjugierten Familien angenommen werden, die eine explizitere Analyse erlauben. Wie in allen statistischen Analysen hängt auch hier die Qualität der Ergebnisse wesentlich vom Beobachtungs- oder Experimentaldesign, d.h. der Wahl der Beobachtungseinheiten und Beobachtungszeitpunkte, ab. Ziel dieses Projektes ist es, optimale oder zumindest effiziente Designs für verallgemeinerte lineare gemischte Modelle zu entwickeln, die sowohl normalvertreilte als auch Effekte aus konjugierten Verteilungen beinhalten können, und diese zu validieren.
Optimales Design in der Discrete-Choice-Analyse bei geblockten Beobachtungen
Laufzeit: 01.10.2016 bis 30.09.2019
Die Discrete-Choice-Analyse ist ein häufig angewendetes Verfahren der Marktforschung. Sie wird verwendet, um das Präferenzverhalten von Konsumenten zu untersuchen und den Nutzen zu ermitteln, den die verschiedenen Attribute eines Produktes besitzen. Die den Konsumenten dabei vorgelegten Auswahlfragen erfordern den Vergleich von Produktbeschreibungen, welche unter Verwendung eines experimentellen Designs zusammengestellt werden. Die Qualität der Ergebnisse eines solchen Experiments hängt folglich stark vom verwendeten Design ab. Bei der Modellierung der Daten und der Wahl des Designs wird häufig jedoch nicht berücksichtigt, dass den teilnehmenden Personen mehrere Fragen gestellt werden und die resultierenden Antworten daher korreliert sein können. Ziel des vorliegenden Projektes ist es, optimale und effiziente Designs unter Berücksichtigung von Blockeffekten zur Modellierung dieser potenziellen Abhängigkeiten zu entwickeln und zu validieren.
Optimales Design für online generierte adaptive Intelligenztestverfahren (IV)
Laufzeit: 01.09.2018 bis 31.05.2019
In diesem Projekt sollen adaptive Intelligenztests zur Messung der allgemeinen Intelligenz entwickelt werden. Die Items werden durch einen automatischen Itemgenerator regelbasiert und online generiert und adaptiv dargeboten. Selektiert werden die Items anhand der Parameterschätzungen für erweiterte linear-logistische Testmodelle. Die Parameterschätzungen erfolgen anhand optimaler Designs, so dass mit einem Minimum an darzubietenden Items ein Maximum an Präzision bei der Intelligenzmessung erzielt werden kann. Konkret sollen vier Arten regelgeleiteter Testverfahren zur Messung von allgemeiner Intelligenz konstruiert und hierfür die erforderlichen statistischen Grundlagen entwickelt werden.
In der ersten Phase wurden Items zur Verarbeitungskapazität regelbasiert entworfen und empirisch anhand D-optimaler Versuchspläne mittels linear-logistischer Testmodelle kalibriert. Dazu wurden optimale Versuchspläne für linear-logistische Testmodelle mit festen und zufälligen Faktoren entwickelt. Weiterhin entstand ein Programmsystem zur automatischen
Generierung dieser Items, ihrer adaptiven Darbietung und Personenparameterschätzung.
In der zweiten Phase wurden die Arbeiten aus der ersten Phase fortgesetzt. Dazu wurden analog zu den in der ersten Phase entwickelten Items zur Verarbeitungskapazität regelbasierte Items zur Bearbeitungsgeschwindigkeit konstruiert, die sich für eine adaptive Testung dieser Intelligenzkomponente eignen. Da es sich hier um Speed-Tests handelt, war es erforderlich, anstelle des logistischen Rasch-Modells erweiterte Formen des Rasch Poisson Count-Modells als statistische Grundlage heranzuziehen. Für diese Modelle wurden optimale Versuchspläne zur Itemkalibrierung und adaptiven Testung entwickelt.
Ziel der dritten Phase ist es, in Fortsetzung und Ergänzung der Arbeit in den ersten beiden Phasen bei der Modellierung der Intelligenzkomponenten zeitliche, zumeist nichtlineare Trends in longitudinalen Studien zu berücksichtigen und hierfür optimale Designs zu entwickeln, die adaptiv eingesetzt werden können. Darüber hinaus werden Designs für Itempools unter Nebenbedingungen an die Anzahl der verwendeten Regeln bereitgestellt.
Generierung optimaler und effizienter Experimentaldesigns zur individualisierten Vorhersage in hierarchischen Modellen
Laufzeit: 16.02.2017 bis 15.02.2019
Das Ziel des vorliegenden Projektes ist die Entwicklung analytischer Ansätze zur Gewinnung optimaler Designs für die Vorhersage in hierarchischen linearen Modellen sowie in verallgemeinerten linearen und nichtlinearen gemischten Modellen mit zufälligen Parametern. Derartige Modelle wurden ursprünglich in den Bio- und Agrarwissenschaften entwickelt und werden heutzutage in den unterschiedlichsten statistischen Anwendungsgebieten vielfältig eingesetzt.
Optimales Design für online generierte adaptive Intelligenztestverfahren (III)
Laufzeit: 01.01.2016 bis 31.12.2017
In diesem Projekt sollen adaptive Intelligenztests zur Messung der allgemeinen Intelligenz entwickelt werden. Die Items werden durch einen automatischen Itemgenerator regelbasiert und online generiert und adaptiv dargeboten. Selektiert werden die Items anhand der Parameterschätzungen für erweiterte linear-logistische Testmodelle. Die Parameterschätzungen erfolgen anhand optimaler Designs, so dass mit einem Minimum an darzubietenden Items ein Maximum an Präzision bei der Intelligenzmessung erzielt werden kann. Konkret sollen vier Arten regelgeleiteter Testverfahren zur Messung von allgemeiner Intelligenz konstruiert und hierfür die erforderlichen statistischen Grundlagen entwickelt werden.
In der ersten Phase wurden Items zur Verarbeitungskapazität regelbasiert entworfen und empirisch anhand D-optimaler Versuchspläne mittels linear-logistischer Testmodelle kalibriert. Dazu wurden optimale Versuchspläne für linear-logistische Testmodelle mit festen und zufälligen Faktoren entwickelt. Weiterhin entstand ein Programmsystem zur automatischen
Generierung dieser Items, ihrer adaptiven Darbietung und Personenparameterschätzung.
In der zweiten Phase wurden die Arbeiten aus der ersten Phase fortgesetzt. Dazu wurden analog zu den in der ersten Phase entwickelten Items zur Verarbeitungskapazität regelbasierte Items zur Bearbeitungsgeschwindigkeit konstruiert, die sich für eine adaptive Testung dieser Intelligenzkomponente eignen. Da es sich hier um Speed-Tests handelt, war es erforderlich, anstelle des logistischen Rasch-Modells erweiterte Formen des Rasch Poisson Count-Modells als statistische Grundlage heranzuziehen. Für diese Modelle wurden optimale Versuchspläne zur Itemkalibrierung und adaptiven Testung entwickelt.
Ziel der dritten Phase ist es, in Fortsetzung und Ergänzung der Arbeit in den ersten beiden Phasen bei der Modellierung der Intelligenzkomponenten zeitliche, zumeist nichtlineare Trends in longitudinalen Studien zu berücksichtigen und hierfür optimale Designs zu entwickeln, die adaptiv eingesetzt werden können. Darüber hinaus werden Designs für Itempools unter Nebenbedingungen an die Anzahl der verwendeten Regeln bereitgestellt.
Metaanalyse von unerwünschten Ereignissen in klinischen Studien basierend auf Aggregatdaten
Laufzeit: 01.02.2015 bis 20.10.2017
Zur Charakterisierung der Nebenwirkungen von medizinischen Behandlungen ist es von Interesse, die Evidenz aus mehreren klinischen Studien zu kombinieren und auch historische Daten über die Kontrollgruppe zu berücksichtigen, weil in jeder einzelnen Studie oft nur wenige unerwünschte medizinische Ereignisse auftreten. Wenn für alle Studien detaillierte Patientendaten verfügbar sind, werden üblicherweise Überlebenszeitmethoden angewandt, um das Auftreten von unerwünschten Ereignissen unter Berücksichtigung der Dauer des Beobachtungszeitraums zu analysieren. Dies ist besonders dann wichtig, falls die Beobachtungsdauer sich zwischen Behandlungsgruppen unterscheidet oder falls die Austauschbarkeit von Modellparametern zwischen Studien von verschiedener Länge angenommen wird. Traditionelle Überlebenszeitmethoden können allerdings nicht angewandt werden, wenn für einige Studien lediglich Aggregatdaten verfügbar sind. Dies stellt ein Problem in der Metaanalyse dar, da Metanalysen meist auf Veröffentlichungen in medizinischen Fachzeitschriften beruhen, welche in aller Regel keine individuellen Patientendaten enthalten.
Ziel dieses Projektes ist es, statistische Methoden zu entwickeln und zu evaluieren, die Überlebenszeitmetaanalysen unter Berücksichtigung historischer Studien basierend auf Aggregatdaten ermöglichen.
Empirisch und hierarchisch Bayes-optimale Designs für logistische Regressionsmodelle mit zufälligen Effekten
Laufzeit: 15.03.2017 bis 15.09.2017
Binäre Beobachtungen werden statistisch oft mit Hilfe logistischer Regressionsmodelle analysiert. Um die Qualität dieser Analyse zu verbessern, ist das Design des zugrundeliegenden Experiments zu optimieren. Wegen der Nichtlinearität der Modellierung hängen die optimalen Designs von unbekannten Parametern ab. Um dieses Problem zu umgehen, kann Bayessche a-priori-Information eingeführt werden, die ihrerseits hierarchisch modelliert und mit empirischer Vorinformation validiert werden kann. Zusätzlich ist beim Vorliegen von Messwiederholungen interindividuelle Variabilität zu berücksichtigen. Alle diese Konzepte sollen in einem einheitlichen Ansatz zusammengefasst werden.
Optimales Design für statistische Modelle mit zensierten Daten
Laufzeit: 01.04.2013 bis 30.06.2017
In vielen technischen und biologischen Bereichen spielt die statistische Analyse zensierter Daten eine zunehmende Rolle. Diese Zensierungen können deterministisch (feste Studiendauer, Nachweisgrenzen) oder zufallsgesteuert (zufällige Studiendauer, zufälliges Ausscheiden aus der Studie) sein. Die beobachteten, teilweise zensierten Größen können zusätzlich von weiteren Einflussfaktoren (Behandlungen und Kovariablen) abhängen, was beispielsweise über ein "proportional hazards"-Modell beschrieben werden kann.
Während die statistische Analyse derartiger Daten schon relativ weit entwickelt ist, gibt es relativ wenig Resultate zur effizienten Planung derartiger Studien oder Experimente. Ziel des vorliegenden Projekts ist es, für eine Reihe von relevanten Modellsituationen optimale oder zumindest effiziente Designs zu charakterisieren und analytisch zu bestimmen, um Anleitungen für eine möglichst effektive Ausnutzung der vorhandenen Ressourcen beim Vorliegen zensierter Daten bereit zu stellen.
Optimales Design für die Vorhersage zufälliger individueller Effekte in Mehrgruppenmodellen
Laufzeit: 16.06.2016 bis 15.02.2017
In der statistischen Datenanalyse werden Modelle mit zufälligen Parametern in verschiedenen Anwendungsbereichen, insbesondere in den Biowissenschaften und der individualisierten Medizinforschung, häufig verwendet. In diesen Modellen ist neben der Schätzung des Populationsparameters die Vorhersage individueller zufälliger Effekte von Interesse. Der individualisierte Ansatz ist vor allem für die Studien, in denen nur wenige Beobachtungen pro Individuum möglich sind, z.B. in der Onkologie, von großer Bedeutung. Ziel dieses Projektes ist es, optimale oder zumindest effiziente und anwendbare Versuchspläne (Designs) für die Vorhersage von individuellen zufälligen Effekten für solche Experimentalsituationen zu konstruieren und zu validieren, in denen in unterschiedlichen Gruppen nur Querschnittsdesigns angewendet werden können.
Optimales Design für Dynamische Systeme
Laufzeit: 01.10.2013 bis 31.12.2016
Viele Wirkungszusammenhänge können auch in technischen Anwendungen nur mit statistischen, d.h. zufälligen Abweichungen beobachtet werden. Diese Wirkungszusammenhänge sind oft nicht explizit darstellbar, sondern nur durch eine oder mehrere Differentialgleichungen gegeben, bei denen einige Modellparameter unbekannt sind. Anhand von beobachteten Daten sollen diese Modellparameter vermittels geeigneter Schätzverfahren bestimmt werden. Die Qualität dieser Schätzung hängt im Wesentlichen auch vom Design, d.h. von der Wahl der Versuchseinstellungen und der Messzeitpunkte ab. Ziel dieses Projektes ist es, Strategien zur Bestimmung optimaler oder zumindest effizienter Designs zu entwickeln und diese zu validieren.
Optimales Design für die individuelle Vorhersage von Inter- und Extrapolation in Regressionsmodellen mit zufälligen Parametern
Laufzeit: 15.10.2015 bis 15.06.2016
Regressionsmodelle mit zufälligen Parametern werden in statistischen Anwendungsbereichen, insbesondere in den Biowissenschaften, sowie in individualisierter Medizinforschung häufig verwendet. In diesen Modellen ist neben der Schätzung des Populationsparameters die Vorhersage individueller zufälliger Parameter von Interesse. Der individualisierte Ansatz ist vor allem für die Studien, in denen nur wenige Beobachtungen pro Individuum möglich sind, von großer Bedeutung. Letzteres ist für medizinische Fragestellungen, z.B. bei Untersuchungen von Blutentnahmen bei Patienten, besonders relevant. Ziel dieses Projektes ist es, optimale oder zumindest effiziente und anwendbare Versuchspläne (Designs) für die Vorhersage von Inter- und Extrapolation individueller Wirkungsfunktionen in Regressionsmodellen mit zufälligen Parametern zu entwickeln.
Adaptives Design II
Laufzeit: 01.04.2014 bis 31.01.2016
Durch eine geeigente Wahl der Versuchsbedingungen kann in vielen statistischen Experimenten eine wesentliche Verbesserung der Analyseergebnisse bzw.\ eine deutliche Verringerung der Kosten für die Durchführung des Experiments erzielt werden. Liegen nichtlineare Wirkungszusammenhänge zwischen den Versuchsbedingungen und der die Zielvariable beschreibenden Wirkungsfunktion vor, ergibt sich dabei das Problem, dass die optimalen Versuchspläne, d.h.\ die optimale Wahl der Versuchseinstellungen, in der Regel von den unbekannten und zu schätzenden Parametern abhängen. Während dies bei einstufig geplanten Experimenten ein schier unlösbares Problem darstellt, bieten adaptive und sequenzielle Verfahren, die "on-line" die Information zuvor gemachter Beobachtungen ausnutzen, einen vielversprechenden Ansatz, um auch in solchen Situationen mit möglichst wenigen Messungen zu möglichst genauen Schätzungen zu gelangen.Derartige Verfahren sollen im Rahmen des vorliegenden Projektes entwickelt und auf ihre Eigenschaften unter realen Versuchsbedingungen untersucht werden, wobei der Schwerpunkt auf Anwendungen in sogenannten Dosis-Wirkungs-Modellen liegt, bei denen eine binäre Zielvariable, die den Erfolg oder Misserfolg einer Behandlung beschreibt und daher nur zwei Ausprägungen annehmen kann, in Abhängigkeit von der Größe ("Dosis") einer oder mehrerer erklärenden Variablen untersucht wird.Neben Experimenten in der Psychophysik stellen adaptive Intelligenztests, wie sie im Projekt "Optimales Design für online generierte adaptive Intelligenztestverfahren" untersucht und weiterentwickelt werden, ein wichtiges Anwendungsgebiet dar.
Optimales Design zur indivduellen Anpassung in gemischten Modellen
Laufzeit: 01.01.2011 bis 30.09.2015
In der Arzneimittelentwicklung besteht vorrangiges Interesse an Charakteristika einer Zielpopulation, um ein möglichst allgemein wirkendes Präparat auf den Markt bringen zu können. Neuere Entwicklungen zielen jedoch auch auf einen individualisierten Ansatz. Hierzu ist es notwendig die Charakteristika einzelner Individuen basierend sowohl auf den individualspezifischen Beobachtungen als auch auf den Populationseigenschaften möglichst genau zu spezifizieren. Letzteres ist insbesondere dann von Bedeutung, wenn aus ethischen oder technischen Gründen nur sehr wenig (invasive) Beobachtungen je Individuum gemacht werden können. Für diese Fragestellung sollen optimale Designs generiert werden, die eine effiziente Auswertung der Beobachtungen ermöglicht.
Theoretische Grundlagen der statistischen Datenanalyse mit "Partial Least Squares"
Laufzeit: 01.02.2012 bis 06.06.2014
"Partial Least Squares" ist eine modernes Verfahren zur Dimensionsreduktion in hochdimensionalen Datensätzen, wie sie z.B. in den Neurowissenschaften bei MRT-Daten zur Analyse von Hirnaktivitäten oder bei der Bildanalyse anfallen. Ziel des vorliegenden Projektes ist es, geeignete theoretische Grundlagen und Modelle für die den Daten zu Grunde liegenden Strukturen zu entwickeln und zu validieren.
Adaptives Design
Laufzeit: 01.04.2013 bis 31.03.2014
Durch eine geeigente Wahl der Versuchsbedingungen kann in vielen statistischen Experimenten eine wesentliche Verbesserung der Analyseergebnisse bzw.\ eine deutliche Verringerung der Kosten für die Durchführung des Experiments erzielt werden. Liegen nichtlineare Wirkungszusammenhänge zwischen den Versuchsbedingungen und der die Zielvariable beschreibenden Wirkungsfunktion vor, ergibt sich dabei das Problem, dass die optimalen Versuchspläne, d.h.\ die optimale Wahl der Versuchseinstellungen, in der Regel von den unbekannten und zu schätzenden Parametern abhängen. Während dies bei einstufig geplanten Experimenten ein schier unlösbares Problem darstellt, bieten adaptive und sequenzielle Verfahren, die "on-line" die Information zuvor gemachter Beobachtungen ausnutzen, einen vielversprechenden Ansatz, um auch in solchen Situationen mit möglichst wenigen Messungen zu möglichst genauen Schätzungen zu gelangen.Derartige Verfahren sollen im Rahmen des vorliegenden Projektes entwickelt und auf ihre Eigenschaften unter realen Versuchsbedingungen untersucht werden, wobei der Schwerpunkt auf Anwendungen in sogenannten Dosis-Wirkungs-Modellen liegt, bei denen eine binäre Zielvariable, die den Erfolg oder Misserfolg einer Behandlung beschreibt und daher nur zwei Ausprägungen annehmen kann, in Abhängigkeit von der Größe ("Dosis") einer oder mehrerer erklärenden Variablen untersucht wird.Neben Experimenten in der Psychophysik stellen adaptive Intelligenztests, wie sie im Projekt "Optimales Design für online generierte adaptive Intelligenztestverfahren" untersucht und weiterentwickelt werden, ein wichtiges Anwendungsgebiet dar.
Optimales Design bei zufälligen und festen Blockeffekten II
Laufzeit: 01.10.2012 bis 15.02.2014
Auf Grund ökonomischer und ethischer Gründe besteht ein bedeutender Bedarf für optimale bzw. zumindest effiziente Designs in statistischen Experimenten. Dies bedeutet, dass experimentelle Einstellungen derart gewählt werden sollten, dass unter Verwendung möglichst weniger Ressourcen maximale Information erzielt werden kann.
In der Literatur gibt es im Wesentlichen zwei konkurrierende Ansätze: Der eine basiert auf kombinatorischen Überlegungen, die am besten für statistische Modelle der Varianzanalyse geeignet sind, bei denen die experimentellen Einstellungen nur wenige Faktor-Kombinationen annehmen können. der andere basiert auf analytschen Methoden und verwendet Methoden der konvexen Optimierung in einer quantitativ-stetigen Umgebung.
Das Ziel des vorliegenden Projektes ist es, diese beiden Konzepte zusammenzubringen in dem Sinnen, dass wir (stetige) analytische Methoden auf Modelle der Varianzanalyse mit typischerweise diskreter Struktur wie Block-Effekten übertragen wollen. Darüber hinaus wollen wir die analytischen Methoden, die für Modelle mit reinen festen Effekten entwickelt wurden, auf die praktisch relevanteren übertragen, bei denen individuelle Effekte der sogenannten Blöcke durch Randomisierung entstehen, was in der Literatur oft vernachlässigt wird.
MÄQNU: Multivariate Äquivalenztests und Tests auf Nichtunterlegenheit für hochdimensionale Endpunkte
Laufzeit: 01.07.2010 bis 31.12.2013
Das Verbundprojekt untersucht statistische Tests auf Äquivalenz oder Nichtunterlegenheit. Während bislang meist nur Tests für einzelne Endpunkte durchgeführt und bei Bedarf konservativ über verschiedene Endpunkte gekoppelt werden, berücksichtigen wir die multivariate Verteilung und erhalten so effektivere Methoden, die auch die Analyse hochdimensionaler Endpunkte ermöglichen. Die Verfahren werden zusammen mit Industriepartnern zum Vergleich von Arzneimitteln und zur Untersuchung des Einflusses von Kulturpflanzen auf die mikrobielle Bodenflora angewendet. Im vorliegenden Teilprojekt wird analytisch das asymptotische Verhalten der in den anderen Teilbereichen vorgeschlagenen Testverfahren untersucht bzw. das Verhalten für kleine bis moderate Stichprobenumfänge durch Simulationen validiert. Neben mathematischen Entwicklungen zu den Grundlagen der Verfahren sind Untersuchungen zur Versuchsplanung durchzuführen und ein entsprechendes benutzerfreundliches Programm zu entwickeln.
Optimales Design für multivariate statistische Modelle mit scheinbar unzusammenhängenden Wirkungsfunktionen
Laufzeit: 01.03.2013 bis 30.11.2013
In der statistischen Datenanalyse gewinnen multivariate lineare Modelle mit einer Vielzahl von Zielvariablen zunehmend an Bedeutung, da auf Grund der Entwicklung von Computer-Soft- und -Hardware mittlerweile gute Approximationen für die Auswertung derartiger, strukturierter Daten berechenbar sind. Ziel dieses Projektes ist es, optimale und effiziente Designs für statistische Experimeten bei verschiedenen zu Grunde liegenden multivariaten linearen Modellen zu bestimmen und zu validieren. Insbesondere stehen hier Modelle vom Typ der "Seemingly Unrelated Regression" (SUR), d.h. Modelle mit scheinbar unzusammenhängenden Wirkungen im Vordergrund.
Optimales Design für online generierte adaptive Intelligenztestverfahren (II)
Laufzeit: 01.09.2011 bis 30.11.2013
In diesem Projekt sollen adaptive Intelligenztests zur Messung der allgemeinen Intelligenz entwickelt werden. Die Items werden durch einen automatischen Itemgenerator regelbasiert und online generiert und adaptiv dargeboten. Selektiert werden die Items anhand der Parameterschätzungen für erweitete linear-logistische Testmodelle. Die Parameterschätzungen erfolgen anhand optimaler Designs, so dass mit einem Minimum an darzubietenden Items ein Maximum an Präzision bei der Intelligenzmessung erzielt werden kann. Konkret sollen vier Arten regelgeleiteter Testverfahren zur Messung von allgemeiner Intelligenz konstruiert und hierfür die erforderlichen statistischen Grundlagen entwickelt werden.
In der ersten Phase wurden Items zur Verarbeitungskapazität regelbasiert entworfen und empirisch anhand D-optimaler Versuchspläne mittels linear-logistischer Testmodelle kalibriert. Dazu wurden optimale Versuchspläne für linear-logistische Testmodelle mit festen und zufälligen Faktoren entwickelt. Weiterhin entstand ein Programmsystem zur automatischen Generierung dieser Items, ihrer adaptiven Darbietung und Personenparameterschätzung.
Ziel der zweiten Phase ist es, die Arbeiten aus der ersten Phase fortzusetzen. Dazu sollen analog zu den in der ersten Phase entwickelten Items zur Verarbeitungskapazität regelbasierte Items zur Bearbeitungsgeschwindigkeit konstruiert werden, die sich für eine adaptive Testung dieser Intelligenzkomponente eignen. Da es sich hier um Speed-Tests handelt, ist es erforderlich, anstelle des logistischen Rasch-Modells erweiterte Formen des Rasch Poisson Count-Modells als statistische Grundlage heranzuziehen. Für diese Modelle sollen wiederum optimale Versuchspläne zur Itemkalibrierung und adaptiven Testung entwickelt werden.
Adaptive Verfahren in der Planung und Auswertung statistischer Experimente
Laufzeit: 01.04.2008 bis 31.03.2013
Durch eine geeigente Wahl der Versuchsbedingungen kann in vielen statistischen Experimenten eine wesentliche Verbesserung der Analyseergebnisse bzw.\ eine deutliche Verringerung der Kosten für die Durchführung des Experiments erzielt werden. Liegen nichtlineare Wirkungszusammenhänge zwischen den Versuchsbedingungen und der die Zielvariable beschreibenden Wirkungsfunktion vor, ergibt sich dabei das Problem, dass die optimalen Versuchspläne, d.h.\ die optimale Wahl der Versuchseinstellungen, in der Regel von den unbekannten und zu schätzenden Parametern abhängen. Während dies bei einstufig geplanten Experimenten ein schier unlösbares Problem darstellt, bieten adaptive und sequenzielle Verfahren, die "on-line" die Information zuvor gemachter Beobachtungen ausnutzen, einen vielversprechenden Ansatz, um auch in solchen Situationen mit möglichst wenigen Messungen zu möglichst genauen Schätzungen zu gelangen.Derartige Verfahren sollen im Rahmen des vorliegenden Projektes entwickelt und auf ihre Eigenschaften unter realen Versuchsbedingungen untersucht werden, wobei der Schwerpunkt auf Anwendungen in sogenannten Dosis-Wirkungs-Modellen liegt, bei denen eine binäre Zielvariable, die den Erfolg oder Misserfolg einer Behandlung beschreibt und daher nur zwei Ausprägungen annehmen kann, in Abhängigkeit von der Größe ("Dosis") einer oder mehrerer erklärenden Variablen untersucht wird.Neben Experimenten in der Psychophysik stellen adaptive Intelligenztests, wie sie im Projekt "Optimales Design für online generierte adaptive Intelligenztestverfahren" untersucht und weiterentwickelt werden, ein wichtiges Anwendungsgebiet dar.
Optimales Design für multivariate lineare statistische Modelle
Laufzeit: 01.03.2008 bis 28.02.2013
In der statistischen Datenanalyse gewinnen multivariate lineare Modelle mit einer Vielzahl von Zielvariablen zunehmend an Bedeutung, da auf Grund der Entwicklung von Computer-Soft- und -Hardware mittlerweile gute Approximationen für die Auswertung derartiger, strukturierter Daten berechenbar sind. Ziel dieses Projektes ist es, optimale und effiziente Designs für statistische Experimeten bei verschiedenen zu Grunde liegenden multivariaten linearen Modellen zu bestimmen und zu validieren.
Optimales Design bei zufälligen und festen Blockeffekten
Laufzeit: 01.10.2009 bis 30.09.2012
Auf Grund ökonomischer und ethischer Gründe besteht ein bedeutender Bedarf für optimale bzw. zumindest effiziente Designs in statistischen Experimenten. Dies bedeutet, dass experimentelle Einstellungen derart gewählt werden sollten, dass unter Verwendung möglichst weniger Ressourcen maximale Information erzielt werden kann. In der Literatur gibt es im Wesentlichen zwei konkurrierende Ansätze: Der eine basiert auf kombinatorischen Überlegungen, die am besten für statistische Modelle der Varianzanalyse geeignet sind, bei denen die experimentellen Einstellungen nur wenige Faktor-Kombinationen annehmen können. der andere basiert auf analytschen Methoden und verwendet Methoden der konvexen Optimierung in einer quantitativ-stetigen Umgebung. Das Ziel des vorliegenden Projektes ist es, diese beiden Konzepte zusammenzubringen in dem Sinnen, dass wir (stetige) analytische Methoden auf Modelle der Varianzanalyse mit typischerweise diskreter Struktur wie Block-Effekten übertragen wollen. Darüber hinaus wollen wir die analytischen Methoden, die für Modelle mit reinen festen Effekten entwickelt wurden, auf die praktisch relevanteren übertragen, bei denen individuelle Effekte der sogenannten Blöcke durch Randomisierung entstehen, was in der Literatur oft vernachlässigt wird.
Approximation statistischer Information in nichtlinearen Modellen mit zufälligen Effekten
Laufzeit: 01.01.2011 bis 31.03.2012
Die statistische Information spielt eine wichtige Rolle in der Bewertung der Qualität von statistischen Analyseverfahren. Während die Theorie für lineare Modelle mit und ohne zufällige Effekte und für nichtlineare Modelle ohne zufällige Effekte weit entwickelt ist, gibt es für nichtlineare Modelle mit zufälligen Effekten nur mehr oder minder gute Näherungen in der Literatur. Ziel des Projektes ist es, die bestehenden Näherungsverfahren auf ihre Praxistauglichkeit zu untersuchen und neue Approximationen zu entwickeln. Diese können dann zur effizienten Planung von Experimenten z.B. in der Pharmakokinetik eingesetzt werden.
Statistische Datenanalyse mit "Partial Least Squares"
Laufzeit: 01.02.2007 bis 31.01.2012
"Partial Least Squares" ist eine modernes Verfahren zur Dimensionsreduktion in hochdimensionalen Datensätzen, wie sie z.B. in den Neurowissenschaften bei MRT-Daten zur Analyse von Hirnaktivitäten oder bei der Bildanalyse anfallen. Ziel des vorliegenden Projektes ist es, geeignete Modelle für die den Daten zu Grunde liegenden Strukturen zu entwickeln und zu validieren.
SKAVOE: Sicherere und kosteneffizientere Arzneimittelentwicklung unter Verwendung von optimalen Experimentdesigns
Laufzeit: 01.07.2007 bis 31.12.2010
In eine Gesellschaft mit einem hoch entwickelten Gesundheitssystem besteht die Forderung und Notwendigkeit, innovative Medikamentenentwicklungen schnellstmöglich für den Menschen nutzbar zu machen. Dies impliziert die ständige Suche nach neuen Wirkstoffen, was mit einem hohen Zeitaufwand und erheblichen Investitionen verbunden ist. Durch den Einsatz effizienter Experimentaldesigns auf den verschiedenen Stufen der Arzneimittelentwicklung können dabei beträchtliche Ressourcen eingespart werden. Dies erlaubt nicht nur eine schnellere Positionierung neuer Medikamente auf dem Markt und damit einen ökonomischen Vorteil, sondern eine aus ethischen Gründen wünschenswerte schnellere Verfügbarkeit wirksamerer und sicherer Medikamente sowie eine ebenfalls aus ethischen Gründen erstrebenswerte geringere Belastung von Probanden und Patienten in der Erprobungsphase. Die Entwicklung derartiger effizienter Experimentaldesigns ist Inhalt des vom Bundesministerium für Bildung und Forschung im Rahmen des Schwerpunktprogramms zur Förderung der naturwissenschaftlichen Grundlagenforschung auf dem Gebiet Mathematik für Innovationen in Industrie und Dienstleistungen bewilligten Verbundprojekts SKAVOE (Sicherere und kosteneffizientere Arzneimittelentwicklung unter Verwendung von optimalen Experimentdesigns).Das Verbundprojekt fokussiert auf verschiedene Bereiche des Entwicklungsprozesses für zukünftige Arzneimittel (präklinisches, genetisches Screening von Substanzen mittels Microarrays, klinische Dosis-Findungsstudien und dynamische Modelle der Populations-Pharmakokinetik für Expositionsdaten). Im Magdeburger Teilprojekt werden vorrangig effiziente Experimentaldesigns für Modelle zur Bioverfügbarkeit von Wirkstoffen im menschlichen Körper nach einer Medikamentengabe entwickelt, mit deren Hilfe die Dosierung von Medikamenten im Hinblick auf Wirksamkeit und Arzneimittelsicherheit optimiert werden kann.
Optimales Design in der Conjoint-Analyse
Laufzeit: 01.10.2006 bis 31.07.2010
Die Conjoint-Analyse ist ein häufig angewendetes Hilfsmittel in der Marktforschung. "Stated-Choice"-Experimente werden durchgeführt, um den Einfluss verschiedener Optionen auf das Präferenzverhalten von Konsumenten auszuwerten. Die Qualität des Ergebnisses eines derartigen Experiments hängt stark von seinem Design ab, d.h. davon, welche Fragen gestellt werden. Ziel des vorliegenden Projektes ist es, optimale und effiziente Designs für Fragebögen in diesem Kontext zu entwickeln und zu validieren.
Optimales Design für online generierte adaptive Intelligenztestverfahren
Laufzeit: 01.08.2007 bis 30.04.2010
In diesem Projekt sollen adaptive Intelligenztests zur Messung der allgemeinen Intelligenz entwickelt werden. Die Items werden durch einen automatischen Itemgenerator regelbasiert und online generiert und adaptiv dargeboten. Selektiert werden die Items anhand der Parameterschätzungen für erweitete linear-logistische Testmodelle. Die Parameterschätzungen erfolgen anhand optimaler Designs, so dass mit einem Minimum an darzubietenden Items ein Maximum an Präzision bei der Intelligenzmessung erzielt werden kann. Konkret sollen vier Arten regelgeleiteter Testverfahren zur Messung von allgemeiner Intelligenz konstruiert und hierfür die erforderlichen statistischen Grundlagen entwickelt werden.
Optimales Design für verallgemeinerte lineare gemischte Modelle
Laufzeit: 01.11.2005 bis 31.01.2010
In der statistischen Datenanalyse gewinnen verallgemeinerte lineare Modelle mit sowohl zufälligen als auch festen Effekten zunehmend an Bedeutung, da auf Grund der Entwicklung von Computer-Soft- und -Hardware mittlerweile gute Näherungen für die Anpassung derartiger, mehr reaklistischer Modelle an die Daten berechenbar sind. Ziel dieses Projektes ist es, optimale und effiziente Designs für statistische Experimeten bei zu Grunde liegenden verallgemeinerten linearen gemischten Modellen zu bestimmen und zu validieren.
Optimales Design in klinischen Dosisfindungsstudien zur Sicherheit und Wirksamkeit
Laufzeit: 01.09.2006 bis 30.06.2009
Das Ziel von klinischen Dosisfindungsstudien ist es, eine Dosis (oder eine Spanne von Dosen) zu identifizieren, die sowohl die untersuchte Krankheit wirksam behandelt, als auch sicher ist im Hinblick auf Nebenwirkungen. Traditionell werden erst Studien zur Sicherheit durchgeführt (Phase I), bevor solche zur Wirksamkeit betrachtet werden (Phase II). Werden die Versuche beider Phasen kombiniert, kann die Effizienz des Prozesses der Medikamentenentwicklung erhöht werden. Das Design solcher Versuche weist Schwierigkeiten auf: einerseits hängt der optimale Versuchsplan von den unbekannten Paramentern und dem zu Grunde liegenden (meist nichtlinearen) Modell ab, andererseits ergeben sich aus ethischen Gründen vielerlei Restriktionen, die das Versuchsdesign beeinflussen. Das Ziel dieses Projektes ist es, Designs für das beschriebene Problem zu finden, die sowohl Optimalitätskriterien erfüllen als auch für reale Dosisfindungsstudien in die Praxis umgesetzt werden können.
Statistische Analyse multivariater Stichproben in endlichen Populationen
Laufzeit: 01.04.2004 bis 31.03.2009
Bei Schadenssummenbestimmungen in Wirtschaftsstrafsachen ist es von Bedeutung, zuverlässige Schätzungen für Mindestschadenssummen zu ermitteln, die sich als mit den Schadenswerten gewichtete Summen von Anteilschätzungen für verschiedene Komponenten von multivariaten Schadenszahlen ergeben. Ziel dieses Projektes ist es, unter geeigneten Modellannahmen diese Mindestschadenssummen unter Berücksichtigung von eventuellen Abhängigkeitren zwischen den Komponenten hitreichend präzise zu ermitteln und diese Verfahren unter Modellabweichungen zu überprüfen.
Effiziente Versuchsplanung in der Conjoint Analyse
Laufzeit: 15.06.2004 bis 31.07.2007
Die Conjoint Analyse ist ein häufig benutztes Verfahren zur Analyse von Präferenzen und Entscheidungen in vielen Bereichen wie Marketing, Personalmanagement, sensorische Messungen in der Lebensmittelindustrie etc. Durch den Einsatz effizienter Versuchspläne, d.h. effizienter Auswahlen der darzubietenden Stimuli, kann die Zahl der Darbietungen und damit die Erhebungszeit deutlich reduziert werden. Im Rahmen der beiden ersten Phasen dieses Projektes wurden für verschiedene conjoint-analytische Modelle effiziente Versuchspläne entwickelt, die eine erheblich höhere relative Effizienz als die bisher häufig in der Praxis eingesetzten Designs besitzen. In mehreren Experimenten und Simulationsstudien konnte nachgewiesen werden, dass die theoretisch gesicherte höhere Effizienz dieser Designs auch empirisch zu reliableren und valideren Nutzenschätzungen in der Praxis führt. Mittlerweise wurden heterogene Discrete-Choice-Modelle als sehr leistungsfähige Verfahren der Conjoint Analyse entwickelt. In der nächsten Phase dieses Projekts sollen daher effiziente Designs für Discrete-Choice-Modelle mit zufälligen Effekten und/oder latenten Klassen entwickelt werden. Da effiziente Versuchspläne zu einer sehr hohen Aufgabenkomplexität führen können, ist weiterhin eine theoretische und empirische Bewertung der Versuchspläne aus Sicht der Informationsverarbeitung erforderlich.
Biometrische Methoden zur Frühdiagnostik, Verlaufskontrolle und Visualisierung perimetrisch fassbarer Sehbahnläsionen
Laufzeit: 01.04.2004 bis 31.03.2007
Modellierung von Messverfahren für die Sehfähigkeit in Abhängigkeit von der Lokation im Gesichtsfeld, der Stärke von Lichtstimuli und des zeitlichen Krankheitsverlaufs durch Dosis-Wirkungsbeziehungen; Bestimmung altersabhängiger Normwerte unter besonderer Berücksichtigung von Messwiederholungen und zufälligen Probandeneffekten; Modellierung und Planung psychophysischer Experimente unter Berücksichtigung falsch-positiver und falsch-negativer Reaktionen;Entwicklung adaptiver Verfahren zur Stimuluswahl aus der Basis von a-priori Vorwissen über die verteilung der individuellen Schwellenwerte
Modellierung und Planung populationspharmakokinetischer Studien
Laufzeit: 15.02.2003 bis 31.12.2006
Versuchsplanung für pharmakokinetische Phase-I- und Phase-III-Studien zur Kontrolle der Bioverfügbarkeit von Medikamenten (Hormon-Therapie) und zum Nachweis der Bioäquivalenz; Modellierung der Bioverfügbarkeit durch kinetische Modelle mit zufälligen Probandeneffekten bei Messwiederholungen
Adaptive Designs für mehrstufige klinische Studien mit Interims-Analyse
Laufzeit: 01.04.2003 bis 30.09.2006
Adaptive Designs, wo Entscheidungen auf Basis von während der Studie gesammelten Informationen getroffen werden, können die Flexibilät einer Studie erhöhen und die erwartete Fallzahl verringern. Insbesondere findet diese Vorgehensweise Anwendung bei Interimsanalysen in der pharmazeutischen Forschung, bei denen nach Durchführung eines vorher festgelegten Teils der Studie über eine Fortführung bzw. einen Abbruch entschieden werden soll. Ziel dieses Projektes ist es, ein allgemeines Rahmenwerk für adaptive Tests mit zwei Stufen zu finden und Software für deren Umsetzung zu entwickeln. Die Ausweitung auf mehr als zwei Stufen soll ebenfalls behandelt werden.
Effiziente Planung in der nichtparametrischen Regression
Laufzeit: 01.04.2004 bis 31.03.2006
effiziente Planung von Experimenten für nichtlineare Wirkungszusammenhänge und nichtparametrische Regressionsansätze, verallgemeinerte lineare und additive Modelle; Berücksichtigung von Approximationsfehlern. lokalen und globalen Strukturen; Konstruktion "guter Gitter" zur Verwendung als effizienter Versuchspläne
Effiziente Versuchsplanung in der Conjoint Analyse
Laufzeit: 01.12.2001 bis 30.11.2003
Die Conjoint Analyse ist ein häufig benutztes Verfahren zur Analyse von Präferenzen und Entscheidungen in vielen Bereichen wie Marketing, Personalmanagement, sensorische Messungen in der Lebensmittelindustrie etc. Durch den Einsatz effizienter Versuchspläne, d.h. effizienter Auswahlen der darzubietenden Stimuli, kann die Zahl der Darbietungen und damit die Erhebungszeit deutlich reduziert werden. Im Rahmen einer ersten Phase dieses Projektes wurden D-optimale Versuchspläne für lineare und logistische Paarvergleichsmodelle basierend auf Teilprofilen entwickelt. Diese Pläne besitzen eine erheblich höhere relative Effizienz als die bisher häufig in der Praxis eingesetzten Designs. In experimentellen Studien konnte nachgewiesen, dass diese höhere Effizienz auch zu reliableren und valideren Resultaten führt. Diese Ergebnisse konnten auch durch Simulationsstudien bestätigt werden. In der gegenwärtigen Phase dieses Projekts werden für allgemeinere Paarvergleichsmodelle und Discrete Choice-Modelle effiziente (u.a. adaptiv optimale) Designs entwickelt und anhand von experimentellen Studien sowie Simulationsstudien überprüft. Dabei soll in den experimentellen Studien das neu eingeführte Konzept der "wahren Werte" eingesetzt und weiterentwickelt werden.