Projekte des Instituts für Mathematische Stochastik

Aktuelle Projekte

Optimales Design für allgemeine lineare gemischte Modelle
Laufzeit: 01.01.2024 bis 30.06.2025

In vielen Anwendungssituationen, insbesondere bei klinischen Untersuchungen, können oft mehrere Beobachtungen bei einzelnen Untersuchungseinheiten gemacht werden. Die Beobachtungen innerhalb einer Untersuchungseinheit können dann zumeist nicht mehr als unabhängig angesehen werden. Ein gängiger Ansatz ist dann, gemischte Modelle zu betrachten, die neben den interessierenden festen Effekten der erklärenden Variablen auch zufällige, einheitenspezifische Effekte berücksichtigen. Ziel des vorliegenden Projekts ist es, unter allgemein gehaltenen Modellannahmen, die sowohl Modelle mit zufälligen Koeffizienten, bei denen einige oder alle festen Effekte mit einheitenspezifischen zufälligen Abweichungen versehen sind, als auch longitudinale Beobachtungsmodelle, bei denen zusätzlich zufällige Zeiteffekte auftreten können, umfassen, Charakterisierungen optimaler Versuchsanordnungen zur Bestimmung der festen Effekte zu erhalten.

Projekt im Forschungsportal ansehen

Optimale Versuchspläne für Thurstone’sche IRT-Modelle
Laufzeit: 01.10.2024 bis 30.09.2027

Die grundlegenden Ziele dieses Projekts bestehen darin, optimale Versuchspläne für Thurstone´sche IRT-Modelle mit metrischen, binären und ordinalen Antworten zu entwickeln und analytisch zu charakterisieren, die eine hinreichend gute Schätzung der Traitscores erlauben. Zudem sollen binäre Paarvergleiche, die aus Rangreihen mit mehr als zwei Alternativen abgeleitet wurden, berücksichtigt werden. Optimale Versuchspläne sind im vorliegenden Fall dadurch definiert, dass Kombinationen solcher Werte von Itemparametern, Faktorladungen und Interzepts, bestimmt werden, die a-priori festgelegte Gütekriterien, wie z.B. Korrelation der geschätzten und wahren Traitscores, optimieren. Damit diese Modelle für die Personalauswahl sinnvoll eingesetzt werden können, sind lediglich positive Faktorladungen zugelassen. Diese Notwendigkeit, die aus Resultaten von Simulationsstudien folgt, erfordert die analytische Entwicklung neuartiger optimaler Versuchspläne. Über die in bisherigen einschlägigen Arbeiten entwickelten optimalen Designs hinausgehend sind hier insbesondere drei Anforderungen zu berücksichtigen: (a) die spezifische Form der Nichtlinearität, (b) die Einschränkung des Versuchsbereichs und © die Einschränkung, dass die Alternativen jeweils auf unterschiedlichen Faktoren laden. Damit die aus dem geplanten Projekt gewonnenen analytischen Erkenntnisse in der Praxis benutzerfreundlich umgesetzt werden können, soll ein entsprechendes R-Programm mit einer Shiny-Umgebung entwickelt werden.

Projekt im Forschungsportal ansehen

Optimales Design für Referenzkurven in der medizinischen Diagnostik
Laufzeit: 01.07.2024 bis 30.06.2025

In der medizinischen Diagnostik spielen Referenz- oder Normwertkurven eine wichtige Rolle zur Detektion pathologischer Abweichungen, die auf eine Erkrankung oder eine Schädigung hinweisen. Derartige Referenzkurven werden auf der Basis von Messungen bei gesunden Probanden erstellt. Bei der Erstellung ist sowohl die Variabilität innerhalb einzelner Probanden als auch zwischen verschiedenen Probanden zu berücksichtigen, um valide Vorhersagebereiche zu erhalten. Hierzu können geeignete hierarchische Modelle verwandt werden, die die wesentlichen Charakteristika der für die Diagnostik benutzten Zielgröße in Abhängigkeit von einer oder mehrerer Kovariablen beschreiben. Ziel des vorliegenden Projekts ist es, im Hinblick auf die Sensitivität des resultierenden diagnostischen Verfahrens Kalibrierungsexperimente so zu planen, dass möglichst präzise Referenzbereiche unauffälliger Abweichungen bestimmt werden können.

Projekt im Forschungsportal ansehen

Planung von Ringversuchen zur Bestimmung der Nachweisgrenze bei PCR-Tests
Laufzeit: 01.09.2021 bis 31.03.2025

PCR-Tests stellen hochsensitive Verfahren zum Nachweis von Nukleinsäuren dar. Diese Verfahren haben in den letzten Jahren eine weitgehende Akzeptanz bei routinemäßigen Tests erreicht, aber es bedarf weiterer Untersuchungen, um ihre Leistungsfähigkeit zu bewerten. Ein wichtiger Punkt ist dabei die Bestimmung der Nachweisgrenze, die als Maß für die Sensitivität des Verfahrens dient. Diese Nachweisgrenze kann in Ringversuchen bestimmt werden. Die dabei erhaltenen Ergebnisse werden sich jedoch gewöhnlich zwischen Laboren unterscheiden. Die am Ringversuch beteiligten Labore können als Repräsentanten aller Labore betrachtet werden, die dieses Verfahren anwenden. Die Variabilität zwischen den Laboren kann dann mit Hilfe von zufälligen Effekten modelliert werden. Ziel des vorliegenden Projekts ist es, optimale oder zumindest effiziente Versuchsanordnungen zur Schätzung der Modellparameter, zur Bewertung der Laboreinflüsse und zur bestmöglichen Bestimmung der Nachweisgrenze zu entwickeln.

Projekt im Forschungsportal ansehen

Optimales Design für Sphärische Versuchsbereiche (II)
Laufzeit: 01.10.2019 bis 31.12.2024

Die Gültigkeit statischer Modelle ist oft auf einen lokalen Bereich der eklärenden Variablen beschränkt. Dieser wird in vielen Anwendungsbereichen als rechteckig angenommen, d.h. die erklärenden Variablen können unabhängig voneinander variieren. In manchen Situationen sind jedoch sphärische Bereiche sinnvoller, die durch einen beschränkten Euklidischen oder Mahalanobis-Abstand zu einem zentralen Punkt für die Versuchseinstellungen beschrieben werden können.
Ziel der Versuchsplanung ist es, optimale oder zumindest effiziente Einstellungen für die erklärenden Variablen zu bestimmen, um die Qualität der statistischen Analyse zu optimieren. Beim Vorliegen klassischer linearer Regressionsmodelle sind Charakterisierungen optimaler Designs für sphärische Versuchsbereiche mit Hilfe von Invarianzen und Symmetrien schon seit längerem bekannt. Fragestellung dieses Projekts ist es, für die in der statistischen Praxis zunehmend verwendeten verallgemeinerten linearen Modelle bzw. nichtlinearen Modelle optimale Designs auf derartigen sphärischen Versuchsbereichen zu bestimmen. Erste Ergebnisse für Poisson-verteilte Zähldaten zeigen deutliche Abweichungen der hierfür benötigten optimalen Designs von denjenigen für klassische lineare Modelle.

Projekt im Forschungsportal ansehen

Optimales Sampling Design für Big Data (II)
Laufzeit: 01.04.2024 bis 05.12.2024

Dank moderner Informationstechnologie besteht heutzutage die Möglichkeit, riesige Datenmengen zu sammeln, die sowohl im Hinblick auf die Anzahl der Beobachtungseinheiten (Umfang des Datensatzes) als auch hinsichtlich der Anzahl der Merkmale (multivariate Beobachtungen) von immenser Dimension sind und die häufig als massive Daten oder "Big Data” bezeichnet werden. Die reine Verfügbarkeit derartiger Big Data führt jedoch nicht zwangsläufig zu neuen Erkenntnissen über kausale Zusammenhänge innerhalb der Daten. Stattdessen kann die schiere Masse an Daten ernsthafte Probleme bei der statistischen Analyse verursachen. Zudem sind in vielen Situationen Teile (gewisse Merkmale) in den Daten einfach oder kostengünstig zu beobachten, während die Ausprägungen anderer, besonders interessierender Merkmale nur schwierig oder mit großen Kosten zu erhalten sind. Daher sind Vorhersagen für die Ausprägungen kostenintensiver Merkmale wünschenswert. Dieses kann mit klassischen statistischen Methoden erreicht werden, wenn für eine geeignete Teilstichprobe sowohl die Ausprägungen für die einfach als auch für die schwierig zu beobachtenden Merkmale verfügbar sind. Um Kosten zu reduzieren und/oder die Genauigkeit der Vorhersage zu verbessern, besteht ein Bedarf an optimalen Auswahlverfahren für Stichproben. In diesem Kontext können Konzepte aus der ursprünglich für technische Experimente entworfenen Theorie optimaler Designs unkonventionell genutzt werden, um effiziente Strategien für die Stichprobenauswahl zu entwickeln. Grundlegende Konzepte wie Relaxation auf stetige Verteilungen der Daten und Symmetrieeigenschaften können dabei zu einer wesentlichen Reduktion der Komplexität und somit zu praktikablen Lösungen führen. Ziel des vorliegenden Projekts ist es, diese allgemeinen Ideen zu konkretisieren und sie auf ein solides theoretisches Fundament zu stellen, um sie somit für die Auswertung realer Datensätze verwertbar zu machen.

Projekt im Forschungsportal ansehen

Abgeschlossene Projekte

Unvollständige Instandhaltung in Abnutzungsprozessen
Laufzeit: 01.01.2016 bis 31.12.2018

Es wird ein Wiener Prozess zur Modellierung des Abnutzungsverhaltens betrachtet. Ein Ausfall erfolgt, wenn der Abnutzungsprozess ein vorgegebenes Nivieau erstmalig erreicht.

Zur Vermeidung von Ausfällen werden regelmäßig vorbeugende Instandhaltungsmaßnahmen durchgeführt, die das Abnutzungsniveau verringern. Im Projekt werden folgende Fragestellungen betrachtet;

  • Einführung der Konzepte des virtuellen Alters und des Reparaturgrades, die  bei der Betrachtung von vorbeugenden Instandhaltungen in der Lebensdaueranalyse von Systemen verwendet werden,
  • Einfluß der Instandhaltung auf die Lebensdauerverteilung,
  • Definition von Kostenfunktionen der vorbeugenden Instandhaltung in Abhängigkeit vom Reparaturgrad,
  • Kostenoptimale Instandhaltung.

Projekt im Forschungsportal ansehen

Optimale Instandhaltung in Abnutzungsprozessen
Laufzeit: 01.01.2011 bis 30.12.2015

Wir betrachten einen Wiener Prozeß mit Drift als Abnutzungsmodell.  Ein Ausfall tritt ein, wenn der Abnutzungsprozess erstmalig ein vorgegebenes Niveau h erreicht. Die zufällige Zeit bis zum Ausfall ist dann  invers Gauss-verteilt.

Zur vorbeugenden Instandhaltung wird der Abnutzungsprozess regelmäßig kontrolliert. Wenn zu einem dieser Inspektionszeitpunkte die Abnutzung ein festgelegtes Maß a überschritten hat, wird das Bauteil vorbeugend durch ein neues ersetzt.

Dabei entstehen 3 Arten von Kosten:
- Inspektionskosten,
- Kosten einer vorbeugenden Instandhaltung,
- Ausfallkosten.
Inhalt des Projektes ist es, sowohl optimale Zeitintervalle zwischen den Inspektionen zu bestimmen, als auch eine optimalen Grenze a für die vorbeugenden Instandhaltung festzulegen.

Projekt im Forschungsportal ansehen

Instandhaltung in Multi-State-Systemen
Laufzeit: 01.09.2010 bis 31.08.2013

Die Reparatur eines komplexen Systems verandert in der Regel dieses System so, daß es zwar nicht neu, jedoch jünger als vor der Reparatur ist. In Systemen mit vielen Zuständen bedeutet das, daß die Instandhaltung das System in einen "jüngeren" Zustand zurückversetzt. Es werden stochastische Modelle für unvollständige Reparaturen angewendet, um optimale Instandhaltungsstrategien für solche Systeme zu bestimmen. Dabei sollen unter Ansatz verschiedener möglicher Kostenfunktionen sowohl der optimale Zustand nach der Instandhaltung, als auch der optimale Zustand, zu dem eine Instandhaltung erfolgt, ermittelt werden.

Projekt im Forschungsportal ansehen

Optimale Instandhaltung in Modellen mit unvollständiger Reparatur
Laufzeit: 01.09.2007 bis 31.08.2010

Die Reparatur eines komplexen Systems verandert in der Regel dieses System so, daß es zwar nicht neu, jedoch jünger als vor der Reparatur ist. Verschiedene, in der Literatur vorhandene, stochastische Modelle zur Beschreibung dieser allgemeinen Reparatur werden benutzt, um den Ausfall-Reparaturprozeß statistisch zu modellieren und aus den Ausfalldaten sowohl die Ausfallintensität, als auch Parameter des Reparaturgrades zu schätzen. Zusätzlich stellt sich die Aufgabe,optimale Reparaturgrade und optimale Reparaturzeitpunkte zu bestimmen.

Projekt im Forschungsportal ansehen

Parameterschätzungen in Ausfall-Reparatur-Modellen mit verschiedenen Reparaturgraden
Laufzeit: 01.09.2003 bis 31.08.2007

Die Reparatur eines komplexen Systems verandert in der Regel dieses System so, daß es zwar nicht neu, jedoch jünger als vor der Reparatur ist. Verschiedene, in der Literatur vorhandene, stochastische Modelle zur Beschreibung dieser allgemeinen Reparatur werden benutzt, um den Ausfall-Reparaturprozeß statistisch zu modellieren und aus den Ausfalldaten sowohl die Ausfallintensität, als auch Parameter des Reparaturgrades zu schätzen.

Projekt im Forschungsportal ansehen

Statistische Modellierung lernabhängiger Aktivitätsveränderungen bei funktionellen Kernspinuntersuchungen
Laufzeit: 01.09.2002 bis 31.08.2006

Statistische Analyse von Daten aus der funktionellen Magnetresonaztomographie (fMRT). Das gemessene fMRT-Signal enthält die neuronale Aktivierung von Gehirnarealen, jedoch auch Beiträge anderer Signale. Ausserdem werden die neuronalen Aktivierungen durch das Lernverhalten des Probanden beeinflußt. Eine kombinierte Analyse des gemessenen Signals und der Verhaltensdaten des Probanden ermöglichen eine gute Analyse der Lernleistung. Diese Lernleistung und die damit zusammenhängende Aktivitätsänderung sollen mathematisch beschrieben und in einem statistischen Modell dargestellt werden.

Projekt im Forschungsportal ansehen

Entwicklung statistischer Methoden für spezielle Arten von Punktprozessen, die im Zusammenhang mit der mathematischen Beschreibung des Zuverlässigkeitsverhaltens technischer Bauteile auftreten
Laufzeit: 01.07.2000 bis 30.06.2004

Das Abnutzungsverhalten technischer Bauteile wird durch geeignete Klassen von markierten Punktprozessen beschrieben. Ein Ausfall erfolgt, wenn der Abnutzungsprozess eine gewisse Schranke erstmalig erreicht. Die Verteilung dieser Erstpassagenzeit wird bestimmt. Es werden statistische Verfahren fuer die diskrete Beobachtung dieser Prozesse bei unterschiedlichen Datenstrukturen erarbeitet.

Projekt im Forschungsportal ansehen

Entwicklung statistischer Methoden für spezielle Arten von Punktprozessen, die im Zusammenhang mit der mathematischen Beschreibung des Zuverlässigkeitsverhaltens technischer Bauteile auftreten
Laufzeit: 01.07.1997 bis 30.06.1999

Das Abnutzungsverhalten technischer Bauteile wird durch geeignete Klassen von markierten Punktprozessen beschrieben. Ein Ausfall erfolgt, wenn der Abnutzungsprozess eine gewisse Schranke erstmalig erreicht. Die Verteilung dieser Erstpassagenzeit wird bestimmt. Es werden statistische Verfahren fuer die diskrete Beobachtung dieser Prozesse bei unterschiedlichen Datenstrukturen erarbeitet.

Projekt im Forschungsportal ansehen

Quasi-Newton algorithmus zum optimalen Design
Laufzeit: 01.10.2020 bis 31.12.2023

Im Rahmen der approximativen Design-Theorie für lineare Regressionsmodelle sollen optimale Designs algorithmisch berechnet werden (insbesondere D-optimale und I-optimale Designs). Ein universell einsetzbarer Algorithmus existiert nicht.
Unsere Quasi-Newton Methoden (s. Gaffke; Schwabe, 2019) sollen auf den Fall eines endlichen Versuchsbereichs angewendet und als R-Programm implementiert werden.

Literatur:
Gaffke, N.; Schwabe, R.: Quasi-Newton algorithm for optimal approximate linear regression design: Optimization in matrix space. Journal of Statistical Planning and Inference 198 (2019), 62-78.

Projekt im Forschungsportal ansehen

Optimale Planung multi-variabler Accelerated-Degradation-Tests (II)
Laufzeit: 01.04.2022 bis 31.03.2023

Die rasante Entwicklung moderner Fertigungstechniken zusammen mit den Bedürfnissen der Verbraucher nach hochqualitativen Produkten dienen als Motivation für Industrieunternehmen, Produkte zu entwickeln und herzustellen , die ohne Ausfall über Jahre oder gar Jahrzehnte funktionireren können. Für derartig langlebige Produkte ist es jedoch eine nicht einfache Aufgabe, innerhalb kurzer verfügbarer Zeit Zuverlässigkeitsaussagen zu treffen, da nicht genügend Daten für eine akkurate Schätzung der Lebensdauer gewonnen werden können. Dementsprechend ist eine Lebensdauerprüfung unter Normalbedingungen nicht sinnvoll. Daher werden Ermüdungstests mit wiederholte Messungen ("repeated measures accelerated degradation tests") häufig in der produzierenden Industrie angewendet, um Lebensdauerverteilungen hochzuverlässiger Produkte zu bestimmen, die bei traditionellen oder beschleunigten Lebensdauertests nicht ausfallen würden. In diesen Experimenten werden Beobachtungen bei hohen Belastungsstufen (z.B. Temperatur, Stromspannung oder Druck) mit Hilfe eines physikalisch sinnvollen statistischen Modells extrapoliert, um Schätzungen der Lebensdauer für niedrigere Belastungen unter Normalbedingugnen zu erhalten. Zusätzlich ist zu beachten, dass verschiedene Faktoren wie die Häufigkeit der Messungen, die Stichprobengrößen und die dauer des Experiments Einfluss auf die Kosten und die genauigkeit der Schätzung haben.
Im Rahmen dieses Projektes werden verschiedene Systeme bivariater Degradationsprozesse betrachtet, wobei die Korrelationsstruktur durch eine Copula gegeben ist, und hierfür optimale Designs bestimmt.

Projekt im Forschungsportal ansehen

Sequenziell-adaptives Design
Laufzeit: 01.01.2019 bis 31.03.2020

Nicht-lineare Regression spielt eine wichtige Rolle zur adäquaten statistischen Modellierung von Daten, wenn der Einfluss erklärender Variablen auf die interessierende Zielvariable nicht durch einen einfachen linearen Ursache-Wirkungs-Zusammenhang beschrieben werden kann. In derartigen Modellen hängt die Informationsmatrix eines Versuchsplans (Design) vom Parametervektor ab, dessen wahrer Wert unbekannt ist. Häufig verwendete Ansätze der optimalen Versuchsplanung in dieser Situation sind lokal optimale Designs, Bayes-optimale Designs oder auch Minimax-Designs. Diese Konzepte benötigen und verwenden jedoch a-priori Kenntnisse über den wahren Parameterwert. Sequenziell-adaptive Designs hingegen sind lernende Verfahren. Sie sammeln Informationen über den wahren Parameterwert aus bereits gemachten Beobachtungen in einem sequenziellen Prozess und können daher auf a-priori Informationen verzichten. Dabei werden sequenziell adaptive Updates der Parameterschätzung auf Basis der bereits gemachten Beobachtungen berechnet, und mit Hilfe dieser wird das Design entsprechend um weitere Beobachtungen ergänzt. Ein populärer Algorithmus dieser Art ist der adaptive Wynn-Algorithmus zur asymptotischen Generierung eines D-optimalen Designs. In der gemeinsamen Arbeit von Freise, Gaffke und Schwabe (2019a) ist es gelungen, das seit Langem offene Problem der Konvergenz dieses Algorithmus zumindest für die in den Anwendungen wichtige Klasse der verallgemeinerten linearen Modelle (positiv) zu lösen. In der zweiten Arbeit von Freise, Gaffke und Schwabe (2019b) konnte dies auch auf eine weitere Klasse von nicht-linearen Modellen und auf andere Schätzverfahren erweitert werden. Gegenwärtig arbeiten die Autoren an der Analyse eines neuen Algorithmus zur asymptotischen Generierung D-optimaler Designs, bei dem gleichzeitig mehrere Beobachtungen hinzugefügt werden. Weitere Ziele des Projekts sind zum einen die Ausweitung der Untersuchungen auf weitere Klassen nicht-linearer Modelle sowie auf weitere Optimalitätskriterien. Zum anderen soll das praktische Konvergenzverhalten der Algorithmen erprobt und beurteilt werden.

Freise, F.; Gaffke, N.; Schwabe, R. (2019a). The adaptive Wynn-algorithm in generalized linear models with univariate response. Preprint arXiv:1907.02708

Freise, F.; Gaffke, N.; Schwabe, R. (2019b). Convergence of least squares estimators
in the adaptive Wynn algorithm for a class of nonlinear regression models. Preprint. arXiv:1909.03763

Projekt im Forschungsportal ansehen

Die Verteilung einer nicht-parametrischen Teststatistik für den Erwartungswert.
Laufzeit: 01.04.2015 bis 31.12.2018

Im nicht-parametrischen Modell mit $n$  i.i.d. nicht negativen Zufallsvariablen wurde von Gaffke (2005) eine Teststatistik vorgeschlagen, die auch die Kontruktion einer unteren Konfidenzschranke für den Erwartungswert erlaubt Immer noch offen ist die Frage, ob das nominelle Konfidenzniveau eingehalten wird. Äquivalent ist die Frage, ob die Verteilung der Teststatistik stochastisch größer (oder gleich) der Standard-Rechteck-Verteilung ist, unter jeder zu Grunde liegenden Verteilung mit Erwartungswert gleich 1. Es besteht einige numerische Evidenz, dass die Antwort positiv ist. Bewiesen ist aber wenig: Nur der Fall $n = 2$ (und der triviale Fall $n = 1$ ), sowie die asymptotische Aussage, dass für $n \to \infty$ die Verteilung der Teststatistik gegen die Standard-Rechteck-Verteilung konvergiert. Das erste Ziel des Projektes ist es, den Fall $ n = 3$ zu beantworten.

Literatur:
Gaffke, N. (2005): Three test statistics for a nonparametric one-sided hypothesis on the mean of a nonnegative random variable.
Mathematical Medthods of Statistics 14, 451-467.

Projekt im Forschungsportal ansehen

Schätzung der Intensität von Punktprozessen
Laufzeit: 01.01.2011 bis 31.12.2013

Messdaten der Neuronenaktivität auf Grund einer Reizung (z.B. akkustische Reizung) lassen sich als einen stochastischen Punktprozess ansehen: Zu gewissen Zeitpunkten (die zufällig erscheinen) sind Potential-Spikes zu beobachten. Interessant ist die Intensitätsfunktion des Prozesses, die auf Grund der Daten geschätzt werden soll. Hierzu verwenden wir Kernschätzer, wie sie im (anderen) statistischen Problemkreis der Dichteschätzung Verwendung finden. Das zentrale Problem liegt in der Wahl der Bandbreite bei der Glättung, da in den neurobiologischen Anwendungen relativ komplizierte Intensitätsfunktionen auftreten (mehrere Extrema, Bereiche hohe Krümmung). Daher sollen adaptive Bandbreiten eingesetzt werden. Die praktischen wie auch theoretischen Eigenschaften von Kernschätzern mit adaptiven Bandbreiten werden untersucht.

Projekt im Forschungsportal ansehen

Exakte Konfidenzschranken für den Erwartungswert
Laufzeit: 01.10.2008 bis 30.09.2013

Im nicht-parametrischen Modell mit n unabhängigen, identisch verteilten und nicht-negativen Zufallsvariablen ist der Erwartungswert \mu ein wichtiger Parameter. Obere und untere Konfidenzschranken für \mu sind in Anwendungen von großem Interesse, etwa in der Finanzprüfung (Statistical Auditing). Eine in diesem Bereich oft verwendete Konfidenzschranke ist die Stringer Bound (Stringer (1963), s. auch Bickel (1992)). Zusammenhänge mit der unteren Konfidenzschranke von Gaffke & Zöllner (2003) und Gaffke (2005) existieren und sollen im Einzelnen herausgearbeitet werden. Die zentrale (aber sehr schwierige) Frage nach dem exakten Konfidenzniveau der Schranken soll bearbeitet werden. Daneben werden eine Reihe weiterer Konfidenzschranken untersucht, z.B. die in Swinamer et. al. (2004) zusammengestellten Schranken.Literatur Bickel, P.J. (1992): Inference and Auditing: The Stringer Bound. International Statistical Review 60, 197-209. Gaffke, N. (2005): Three test statistics for a nonparametric one-sided hypothesis on the mean of a nonnegative variable. Mathematical Methods of Statistics 14, 451-467. Gaffke, N.; Zöllner, A. (2003): A Resampling Approach for Under-estimating a Finite Population Total from a Censored Sample. Communication in Statistics, Theory and Methods 32, 2305-2320. Stringer, K.W. (1963): Practical aspects of statistical sampling in auditing. Proceedings of Business and Economic Statistics Section, American Statistical Association.

Projekt im Forschungsportal ansehen

Isotrope diskrete Orientierungsverteilungen
Laufzeit: 01.10.2002 bis 30.09.2007

Um mit Homogenisierungs-Methoden das Verhalten von Polykristallen simulieren zu können, werden zunächst Anfangsorientierungen der Kristallite sowie initiale Kornstrukturen benötigt, die die Anfangstextur hinreichend abbilden. Geht man von anfänglicher Isotropie aus, so sind isotrope Kornverteilungen zu bestimmen. Dieses Problem ist erst für linear-elastische Anwendungen unter speziellen Annahmen gelöst(z.B. für kubische Kristalle). Offen ist dies im Rahmen der Plastizität und der Viskoplastizität. In diesem Zusammenhang sind Darstellungen invarianter Tensorfunktionen zu studieren. Hierzu liegen einerseits Resultate in der Mechanik und andererseits verwandte Resultate in der mathematischen Statistik vor. Diese sollen zusammengeführt, ggf. erweitert und auf die spezifischen Klassen von Mikrostrukturen angewendet werden.

Projekt im Forschungsportal ansehen

Biproportionale Rundungen
Laufzeit: 01.05.2004 bis 31.12.2006

Bei der Besetzung von Gremien soll oft eine Proportionalität hinsichtlich zweier Kategorien erfolgen, z.B. Parteien (proportional zu ihren Wahlergebnissen) und Regionen (proportional zur Einwohnerzahl). Die Sitze im Gremium können natürlich nur in ganzen Einheiten zugeordnet werden. Das führt zum Problem der biproportionalen (ganzzahligen) Rundung einer nicht-negativen Matrix. Kombinatorische Algorithmen sowie der sehr einfache BAZI-Algorihmus sollen untersucht und verglichen werden. Eine guter Ansatzpunkt ist eine Formulierung des Problems als ein ganzzahliges Optimierungsproblem, was in die Richtung der Minimierung einer konvexen (nicht-linearen) Kostenfunktion über einem Transportpolytop (evtl. mit Kapazitätsbeschränkungen) geht.

Projekt im Forschungsportal ansehen

Nicht-parametrische Konfidenzschranken für den Erwartungswert
Laufzeit: 01.10.2003 bis 30.09.2006

Bei einer statistischen Hochrechnung von stichprobenweise erfassten Merkmalswerten (Schadenswerte in Geldeinheiten) haben wir eine sehr plausibel erscheinende untere Konfidenzschranke für das Population Total (Gesamtschaden) vorgeschlagen. Diese beruht auf einem Resampling , d.h. das verwendete Stichprobenverfahren wird durch Computersimulation nachgebildet. Es lassen sich damit "begründete Spekulationen" über die Ränge der gezogenen Merkmalswerte innerhalb der (endlichen) Population anstellen.Das Ziel des Projektes ist es, über die Plausibilität hinaus zu gehen und das tatsächliche Niveau der Konfidenzschranke zu bestimmen. Zunächst wird als mathematische Idealisierung der Fall einer unendlich großen Population betrachtet. Das führt zumnicht-parametrischen Modell mit unabhängigen und identisch verteilten nicht-negativen Zufallsvariablen und dem Erwartungswert. Die untere Konfidenzschranke für den Erwartungswert wird hinsichtlich ihres tatsächlichen Niveaus untersucht. Im Licht der erhaltenen Resultate ist dann die technisch schwierigere Situation einer endlichen Population zu untersuchen.

Projekt im Forschungsportal ansehen

Testen statistischer Hypothesen mit geometrischen Singularitäten
Laufzeit: 01.02.2001 bis 31.12.2005

Bei der Modellierung einer regressiven Abhängigkeit ist zu entscheiden, welche potenziellen Einflussvariablen einbezogen werden sollen. Insbesondere in der empirischen Psychologie gibt es oft neben den als wesentlich einzuschätzenden Variablen eine Reihe potenzieller Störvariablen. Zur praktischen Anwendbarkeit des Modells ist anzustreben, möglichst wenige solcher Störvariablen explizit in das Modell aufzunehmen. Der Begriff der Unkonfundiertheit bzw. Konfundiertheit kann hierfür als Kriterium dienen. Bei der Entwicklung statistischer Tests zur Prüfung der Unkonfundiertheit aufgrund von Beobachtungsdaten stellt sich heraus, dass die Nullhypothese (der Unkonfundiertheit) singuläre Parameterpunkte aufweist. Hier bricht die Standard-Asymptotik klassischer Tests zusammen (Wald-Test, Lagrange-Multiplier-Test, evtl. auch Likelihood-Ratio Test). Das Projekt ist der Asymptotik klassischer Tests in singulären Punkten gewidmet. Eine Förderung durch die DFG erfolgte bis November 2003.

Projekt im Forschungsportal ansehen

Statistische Methoden der Parameteridentifikation in strukturmechanischen Modellen.
Laufzeit: 01.04.1997 bis 28.02.2001

Bei der Parameteridentifizierung eines strukturmechanischen Modells (z.B. eines Finite Elemente Modells) aufgrund experimenteller Daten ist zu berücksichtigen, dass die Messungen fehlerbehaftet sind. Typischerweise hängen die gemessenen Zustandsvariablen nicht-linear von den Modellparametern ab. Meistens ist die Abhängigkeit nur implizit gegeben, etwa durch Eigenwertprobleme oder diskretisierte Randwertprobleme. Die Güte der bisher verwendeten statistischen Schätzmethoden (Iterative Least Squares, Bayes-Schätzer) wird untersucht. Darüberhinaus werden alternative Methoden (z.B. Empirical Bayes) betrachtet.

Projekt im Forschungsportal ansehen

Optimales Sampling Design für Big Data
Laufzeit: 01.04.2020 bis 31.03.2024

Dank moderner Informationstechnologie besteht heutzutage die Möglichkeit, riesige Datenmengen zu sammeln, die sowohl im Hinblick auf die Anzahl der Beobachtungseinheiten (Umfang des Datensatzes) als auch hinsichtlich der Anzahl der Merkmale (multivariate Beobachtungen) von immenser Dimension sind und die häufig als massive Daten oder "Big Data” bezeichnet werden. Die reine Verfügbarkeit derartiger Big Data führt jedoch nicht zwangsläufig zu neuen Erkenntnissen über kausale Zusammenhänge innerhalb der Daten. Stattdessen kann die schiere Masse an Daten ernsthafte Probleme bei der statistischen Analyse verursachen. Zudem sind in vielen Situationen Teile (gewisse Merkmale) in den Daten einfach oder kostengünstig zu beobachten, während die Ausprägungen anderer, besonders interessierender Merkmale nur schwierig oder mit großen Kosten zu erhalten sind. Daher sind Vorhersagen für die Ausprägungen kostenintensiver Merkmale wünschenswert. Dieses kann mit klassischen statistischen Methoden erreicht werden, wenn für eine geeignete Teilstichprobe sowohl die Ausprägungen für die einfach als auch für die schwierig zu beobachtenden Merkmale verfügbar sind. Um Kosten zu reduzieren und/oder die Genauigkeit der Vorhersage zu verbessern, besteht ein Bedarf an optimalen Auswahlverfahren für Stichproben. In diesem Kontext können Konzepte aus der ursprünglich für technische Experimente entworfenen Theorie optimaler Designs unkonventionell genutzt werden, um effiziente Strategien für die Stichprobenauswahl zu entwickeln. Grundlegende Konzepte wie Relaxation auf stetige Verteilungen der Daten und Symmetrieeigenschaften können dabei zu einer wesentlichen Reduktion der Komplexität und somit zu praktikablen Lösungen führen. Ziel des vorliegenden Projekts ist es, diese allgemeinen Ideen zu konkretisieren und sie auf ein solides theoretisches Fundament zu stellen, um sie somit für die Auswertung realer Datensätze verwertbar zu machen.

Projekt im Forschungsportal ansehen

Analyse rekurrenter Ereignisprozesse mit einem terminalen Ereignis (informative Zensierung) - Überlegungen zum Studiendesign
Laufzeit: 01.04.2018 bis 31.03.2023

Das Konzept rekurrenter Ereignisse bezieht das wiederholte zeitliche Auftreten von Erieignissen ein und derselben Art im Kontext klinischer Studien ein. Beispiele umfassen das Auftreten von Anfällen in Eilepsiestudien, Aufflammen in Gichtstudien oder Hospitalisierung bei Patienten mit chronischen Herzleiden.
Eine wichtige Herausforderung bei der Analyse rekurrenter Ereignisse tritt auf, wenn informative Zensierung vorliegt. In klinischen Studien können beispielsweise Patienten aus einer Behandlung ausscheiden, weil sich ihre Verfassung so verschlechtert hat. dass eine alternative Behanslung notwendig wird. In dieser Situation kann die reine Tatsache, dass ein Patient ausscheidet, anzeigen, dass das interssierende Ereignis voraussichtlich eher oder häufiger auftritt, als unter der Annahme unabhängiger Zensierung zu erwarten wäre. Informative Zensierung kann dabei auch in Kombination mit einem terminalen Ereignis auftreten, dass den rekurrenten Ereignisprozcess beendet. Zum Beispiel kann in einer  Studie zu chronischen Herzerkrankungen das Eintreten des Todes dne Prozess der Hospitalisierung abbrechen. Da die Einflussfaktoren für Hospitalisierung bei Herzerkrankungen mit den Risikofakoren für das Einterten des Todes einhergehen, darf dieser Zusammenhang nicht vernachlässigt werden, da die resultierende Datenanalyse andernfalls verfälscht werden kann.
Zur Planung von Studien zur Aufdeckung und Bestimmung von Behandlungseffekten bei derartigen Endpunkten gibt es eine Reihe von Erweiterungen klassischer Überlebenszeitmodelle. Von besonderem Interesse ist dabei das Modell gemeinsamer Schwächung mit korrelierten Schwächungen, wobei separate marginale Modelle für die Intensität der beiden Ereignisprozesse unter Berücksichtigung korrelierter zufälliger Effekte. die subjektspezifische Schwächungen untersucht werden können.
Dieses Projekt umfasst sowohl methodologische Aspekte als auch Simulationsstudien und die Analyse realer Daten.

Projekt im Forschungsportal ansehen

Quasi-Likelihood und Quasi-Information für nicht-lineare und verallgemeinert lineare gemischte Modelle (II)
Laufzeit: 01.01.2023 bis 31.03.2023

Nicht-lineare und verallgemeinert lineare gemischte Modelle werden effizient in der statistischen Datenanalyse in einem weiten Feld von Anwendungen in Bio- oder Sozialwissenschaften eingesetzt, wenn die grundlegenden Annahmen eines üblicherweise angesetzten linearen Modells nicht erfüllt sind. Derartige Situationen treten dann auf, wenn die Daten entweder aus einem intrinsisch nicht-linearen Zusammenhang stammen wie beispielsweise in der Pharmakokinetik, bei Wachstums- und Dosis-Wirkungs-Kurvens oder die Zielvariable auf einer nicht-metrischen Skala gemessen wird wie beispielsweise Zähldaten und nominale oder ordinale Antworten. Zusätzlich treten gemischte Effekte auf, wenn Messwiederholungen an ein und denselben statistischen Einheiten beobachtet werden. Dies führt zu einer Verletzung der üblichen Annahme statistisch unabhängiger Beobachtungen. Die Nicht-linearität in Kombination mit der Modellierung mit gemischten Effekten macht eine explizite Berechnung der Likelihood und damit der Fisher-Information unmöglich. Als Ersatz kann die Quasi-Likelihood und die daraus resultierende Quasi-Information genutzt werden, die einfacher zu bestimmen sind und zu ausrechenbaren Schätzungen und deren Unsicherheitsquantifizierung führen. Dieser Ansatz erlaubt zudem die Konstruktion zuverlässiger Experimentaldesigns, die die Qualität der durchzuführenden Experimente im Vorhinein optimiert. In diesem Sinne vereinfacht dieser Ansatz die Komplexität des vorliegenden Schätz- und Planungsproblems und kann einfach mit anderen, häufig in der Statistik verwendeten Reduktionsprinzipien wie Invarianz und Äquivarianz kombiniert werden. Ziel des vorliegenden Projekts ist es, handhabbare Lösungen für die zuvor beschriebene Problemstellung zu entwickeln und diese in praktischen Situationen umzusetzen.

Projekt im Forschungsportal ansehen

Sequenziell-adaptives Design (II)
Laufzeit: 01.04.2020 bis 31.03.2023

Nicht-lineare Regression spielt eine wichtige Rolle zur adäquaten statistischen Modellierung von Daten, wenn der Einfluss erklärender Variablen auf die interessierende Zielvariable nicht durch einen einfachen linearen Ursache-Wirkungs-Zusammenhang beschrieben werden kann. In derartigen Modellen hängt die Informationsmatrix eines Versuchsplans (Design) vom Parametervektor ab, dessen wahrer Wert unbekannt ist. Häufig verwendete Ansätze der optimalen Versuchsplanung in dieser Situation sind lokal optimale Designs, Bayes-optimale Designs oder auch Minimax-Designs. Diese Konzepte benötigen und verwenden jedoch a-priori Kenntnisse über den wahren Parameterwert. Sequenziell-adaptive Designs hingegen sind lernende Verfahren. Sie sammeln Informationen über den wahren Parameterwert aus bereits gemachten Beobachtungen in einem sequenziellen Prozess und können daher auf a-priori Informationen verzichten. Dabei werden sequenziell adaptive Updates der Parameterschätzung auf Basis der bereits gemachten Beobachtungen berechnet, und mit Hilfe dieser wird das Design entsprechend um weitere Beobachtungen ergänzt. Ein populärer Algorithmus dieser Art ist der adaptive Wynn-Algorithmus zur asymptotischen Generierung eines D-optimalen Designs. In der gemeinsamen Arbeit von Freise, Gaffke und Schwabe (2019a) ist es gelungen, das seit Langem offene Problem der Konvergenz dieses Algorithmus zumindest für die in den Anwendungen wichtige Klasse der verallgemeinerten linearen Modelle (positiv) zu lösen. In der zweiten Arbeit von Freise, Gaffke und Schwabe (2019b) konnte dies auch auf eine weitere Klasse von nicht-linearen Modellen und auf andere Schätzverfahren erweitert werden. Gegenwärtig arbeiten die Autoren an der Analyse eines neuen Algorithmus zur asymptotischen Generierung D-optimaler Designs, bei dem gleichzeitig mehrere Beobachtungen hinzugefügt werden. Weitere Ziele des Projekts sind zum einen die Ausweitung der Untersuchungen auf weitere Klassen nicht-linearer Modelle sowie auf weitere Optimalitätskriterien. Zum anderen soll das praktische Konvergenzverhalten der Algorithmen erprobt und beurteilt werden.

Freise, F.; Gaffke, N.; Schwabe, R. (2019a). The adaptive Wynn-algorithm in generalized linear models with univariate response. Preprint arXiv:1907.02708

Freise, F.; Gaffke, N.; Schwabe, R. (2019b). Convergence of least squares estimators
in the adaptive Wynn algorithm for a class of nonlinear regression models. Preprint. arXiv:1909.03763

Projekt im Forschungsportal ansehen

Quasi-Likelihood und Quasi-Information für nicht-lineare und verallgemeinert lineare gemischte Modelle
Laufzeit: 01.07.2019 bis 31.12.2022

Nicht-lineare und verallgemeinert lineare gemischte Modelle werden effizient in der statistischen Datenanalyse in einem weiten Feld von Anwendungen in Bio- oder Sozialwissenschaften eingesetzt, wenn die grundlegenden Annahmen eines üblicherweise angesetzten linearen Modells nicht erfüllt sind. Derartige Situationen treten dann auf, wenn die Daten entweder aus einem intrinsisch nicht-linearen Zusammenhang stammen wie beispielsweise in der Pharmakokinetik, bei Wachstums- und Dosis-Wirkungs-Kurvens oder die Zielvariable auf einer nicht-metrischen Skala gemessen wird wie beispielsweise Zähldaten und nominale oder ordinale Antworten. Zusätzlich treten gemischte Effekte auf, wenn Messwiederholungen an ein und denselben statistischen Einheiten beobachtet werden. Dies führt zu einer Verletzung der üblichen Annahme statistisch unabhängiger Beobachtungen. Die Nicht-linearität in Kombination mit der Modellierung mit gemischten Effekten macht eine explizite Berechnung der Likelihood und damit der Fisher-Information unmöglich. Als Ersatz kann die Quasi-Likelihood und die daraus resultierende Quasi-Information genutzt werden, die einfacher zu bestimmen sind und zu ausrechenbaren Schätzungen und deren Unsicherheitsquantifizierung führen. Dieser Ansatz erlaubt zudem die Konstruktion zuverlässiger Experimentaldesigns, die die Qualität der durchzuführenden Experimente im Vorhinein optimiert. In diesem Sinne vereinfacht dieser Ansatz die Komplexität des vorliegenden Schätz- und Planungsproblems und kann einfach mit anderen, häufig in der Statistik verwendeten Reduktionsprinzipien wie Invarianz und Äquivarianz kombiniert werden. Ziel des vorliegenden Projekts ist es, handhabbare Lösungen für die zuvor beschriebene Problemstellung zu entwickeln und diese in praktischen Situationen umzusetzen.

Projekt im Forschungsportal ansehen

Optimale Planung multi-variabler Accelerated-Degradation-Tests
Laufzeit: 01.10.2017 bis 31.03.2022

Die rasante Entwicklung moderner Fertigungstechniken zusammen mit den Bedürfnissen der Verbraucher nach hochqualitativen Produkten dienen als Motivation für Industrieunternehmen, Produkte zu entwickeln und herzustellen , die ohne Ausfall über Jahre oder gar Jahrzehnte funktionireren können. Für derartig langlebige Produkte ist es jedoch eine nicht einfache Aufgabe, innerhalb kurzer verfügbarer Zeit Zuverlässigkeitsaussagen zu treffen, da nicht genügend Daten für eine akkurate Schätzung der Lebensdauer gewonnen werden können. Dementsprechend ist eine Lebensdauerprüfung unter Normalbedingungen nicht sinnvoll. Daher werden Ermüdungstests mit wiederholte Messungen ("repeated measures accelerated degradation tests") häufig in der produzierenden Industrie angewendet, um Lebensdauerverteilungen hochzuverlässiger Produkte zu bestimmen, die bei traditionellen oder beschleunigten Lebensdauertests nicht ausfallen würden. In diesen Experimenten werden Beobachtungen bei hohen Belastungsstufen (z.B. Temperatur, Stromspannung oder Druck) mit Hilfe eines physikalisch sinnvollen statistischen Modells extrapoliert, um Schätzungen der Lebensdauer für niedrigere Belastungen unter Normalbedingugnen zu erhalten. Zusätzlich ist zu beachten, dass verschiedene Faktoren wie die Häufigkeit der Messungen, die Stichprobengrößen und die dauer des Experiments Einfluss auf die Kosten und die genauigkeit der Schätzung haben.
Im Rahmen dieses Projektes werden zuerst adäquate und relevante Computerexperimente identifiziert und robuste Methoden der Regressionsanalyse entwickelt. Danach werden Optimalitätskriterien für experimentelle Designs definiert, die auf der Qualität der ausgewählten robusten Methoden basieren, und Simulationsbasierte Designs werden entwickelt, um einen einheitlichen Zugang zur Generierung optimaler oder zumindest effizienter  Designs für die robuste Analyse in Computerexperimenten zu erhalten.

Projekt im Forschungsportal ansehen

Generierung optimaler und effizienter Experimentaldesigns zur individualisierten Vorhersage in hierarchischen Modellen (II)
Laufzeit: 16.02.2019 bis 15.03.2022

Das Ziel des vorliegenden Projektes ist die Entwicklung analytischer Ansätze zur Gewinnung optimaler Designs für die Vorhersage in hierarchischen linearen Modellen sowie in verallgemeinerten linearen und nichtlinearen gemischten Modellen mit zufälligen Parametern. Derartige Modelle wurden ursprünglich in den Bio- und Agrarwissenschaften entwickelt und werden heutzutage in den unterschiedlichsten statistischen Anwendungsgebieten vielfältig eingesetzt.

Projekt im Forschungsportal ansehen

Mathematisches Komplexitätsreduktion (GRK 2297/1)
Laufzeit: 01.04.2017 bis 30.09.2021

Das Projekt wird von den genannten Principal Investigators getragen. Diese sind den Instituten für Mathematische Optimierung (Averkov, Kaibel, Sager), für Algebra und Geometrie (Kahle, Nill, Pott), für Mathematische Stochastik (Kirch, Schwabe) und für Analysis und Numerik (Benner) der Fakultät zugeordnet. Benner ist zudem Direktor des Max-Planck Institutes für Dynamik komplexer technischer Systeme. Die Fakultät für Elektrotechnik und Informationstechnik ist über Findeisen beteiligt.

Im Kontext des vorgeschlagenen Graduiertenkollegs (GK) verstehen wir Komplexität als eine intrinsische Eigenschaft, die einen mathematischen Zugang zu einem Problem auf drei Ebenen erschwert. Diese Ebenen sind eine angemessene mathematische Darstellung eines realen Problems, die Erkenntnis fundamentaler Eigenschaften und Strukturen mathematischer Objekte und das algorithmische Lösen einer mathematischen Problemstellung. Wir bezeichnen alle Ansätze, die systematisch auf einer dieser drei Ebenen zu einer zumindest partiellen Verbesserung führen, als mathematische Komplexitätsreduktion.

Für viele mathematische Fragestellungen sind Approximation und Dimensionsreduktion die wichtigsten Werkzeuge auf dem Weg zu einer vereinfachten Darstellung und Rechenzeitgewinnen. Wir sehen die Komplexitätsreduktionin einem allgemeineren Sinne und werden zusätzlich auch Liftings in höherdimensionale Räume und den Einfluss der Kosten von Datenerhebungen systematisch untersuchen. Unsere Forschungsziele sind die Entwicklung von mathematischer Theorie und Algorithmen sowie die Identifikation relevanter Problemklassen und möglicher Strukturausnutzung im Fokus der oben beschriebenen Komplexitätsreduktion.

Unsere Vision ist ein umfassendes Lehr- und Forschungsprogramm, das auf geometrischen, algebraischen, stochastischen und analytischen Ansätzen beruht und durch effiziente numerische Implementierungen komplementiert wird. Die Doktorandinnen und Doktoranden werden an einem maßgeschneiderten Ausbildungsprogramm teilnehmen. Dieses enthält unter anderem Kompaktkurse, ein wöchentliches Seminar und ermutigt zu einer frühzeitigen Integration in die wissenschaftliche Community. Wir erwarten, dass das GK als ein Katalysator zur Etablierung dieser erfolgreichen DFG-Ausbildungskonzepte an der Fakultät für Mathematik dienen und zudem helfen wird, die Gleichstellungssituation zu verbessern.

Die Komplexitätsreduktion ist ein elementarer Aspekt der wissenschaftlichen Hintergründe der beteiligten Wissenschaftler. Die Kombination von Expertisen unterschiedlicher mathematischer Bereiche gibt dem GK ein Alleinstellungsmerkmal mit großen Chancen für wissenschaftliche Durchbrüche. Das GK wird Anknüpfungspunkte an zwei Fakultäten der OVGU, an ein Max Planck Institut und mehrere nationale und internationale Forschungsaktivitäten in verschiedenen wissenschaftlichen Communities haben. Die Studierenden im GK werden in einer Fülle von mathematischen Methoden und Konzepten ausgebildet und erlangen dadurch die Fähigkeit, herausfordernde Aufgaben zu lösen. Wir erwarten Erfolge in der Forschung und in der Ausbildung der nächsten Generation führender Wissenschaftler in Akademia und Industrie.

Projekt im Forschungsportal ansehen

Äquivarianz und IMSE-Optimalität für Designs in verallgemeinert linearen Modellen mit stetigen Zielfunktionen (II)
Laufzeit: 01.10.2020 bis 31.08.2021

In vielen Anwendungssituationen, in denen Daten gesammelt werden, ist die Annahme der Normalverteilung nicht angebracht, insbesondere wenn die beobachteten Merkmale nicht stetig sind. Für diese Situationen ist das Konzept der verallgemeinerten linearen Modelle entwickelt worden, die sich speziell bei binären Daten (z.B. logistische Regression) oder Zähldaten (z.B. Poisson-Regression) bewährt haben. Jedoch kann auch bei stetigen Merkmalen statt der Normalverteilungsannahme eine andere Verteilungsannahme angemessener sein, die sich über ein verallgemeinertes lineares Modell mit nichtlinearer Linkfunktion beschreiben lässt. Ziel des Projektes ist es, für derartige Modelle unter Verwendung von Symmetrieeigenschaften dieser Modelle optimale Designs zu generieren, die zu einer Verbesserung der Datenanalyse führen.

Projekt im Forschungsportal ansehen

Äquivarianz und IMSE-Optimalität für Designs in verallgemeinert linearen Modellen mit stetigen Zielfunktionen
Laufzeit: 01.04.2020 bis 30.09.2020

In vielen Anwendungssituationen, in denen Daten gesammelt werden, ist die Annahme der Normalverteilung nicht angebracht, insbesondere wenn die beobachteten Merkmale nicht stetig sind. Für diese Situationen ist das Konzept der verallgemeinerten linearen Modelle entwickelt worden, die sich speziell bei binären Daten (z.B. logistische Regression) oder Zähldaten (z.B. Poisson-Regression) bewährt haben. Jedoch kann auch bei stetigen Merkmalen statt der Normalverteilungsannahme eine andere Verteilungsannahme angemessener sein, die sich über ein verallgemeinertes lineares Modell mit nichtlinearer Linkfunktion beschreiben lässt. Ziel des Projektes ist es, für derartige Modelle unter Verwendung von Symmetrieeigenschaften dieser Modelle optimale Designs zu generieren, die zu einer Verbesserung der Datenanalyse führen.

Projekt im Forschungsportal ansehen

Geometrie optimaler Designs für nichtlineare Modelle in der Statistik
Laufzeit: 01.04.2017 bis 31.03.2020

Geometrische Beschreibungen optimaler Designbereiche sind in Zeiten zunehmender Komplexität statistischer Modelle von wachsendem Interesse. Das Ziel dieses Projektes besteht in der Suche von Optimalitätsbereichen von experimentellen Designs für derartige statistische Modelle, insbesondere für verallgemeinerte lineare Modelle mit Poisson- oder logistisch verteilten Zielvariablen. Diese Bereiche können durch Systeme von polynomialen Ungleichungen im Parameterraum beschrieben werden, was bedeutet, dass sie nichts anderes als semialgebraische Mengen sind. Somit können Methoden der algebraischen Geometrie benutzt werden, um die Eigenschaften dieser Optimalitätsbereiche zu studieren. Als Beispiel können im Paarvergleichsmodell nach Bradley-Terry, das ein statistisches Modell für den Vergleich verschiedener Alternativen auf der Basis logistischen Antwortverhaltens ist, die Optimalitätsbereiche für sogenannte saturierte Designs, d.h. Designs mit einer minimalen Anzahl von Trägerpunkten, bestimmt werden.

Projekt im Forschungsportal ansehen

Optimales Design für multivariate verallgemeinerte lineare Modelle mit stetigen Zielfunktionen (II)
Laufzeit: 01.10.2019 bis 31.03.2020

In vielen Anwendungssituationen, in denen Daten gesammelt werden, werden nicht nur eine einzelne, sondern mehrere Zielvariablen gleichzeitig beobachtet, die miteinander korreliert sein können. Derartige multivariate Beobachtungen werden oft mit einer multivariaten Normalverteilung modelliert. In einigen Situationen ist dies jedoch nicht angebracht, insbesondere wenn die beobachteten Merkmale nicht stetig sind. Für diese Situationen ist das Konzept der verallgemeinerten linearen Modelle entwickelt worden, die sich speziell bei binären Daten (z.B. logistische Regression) oder Zähldaten (z.B. Poisson-Regression) bewährt haben. Jedoch kann auch bei stetigen Merkmalen statt der Normalverteilungsannahme eine andere Verteilungsannahme angemessener sein, die sich über ein verallgemeinertes lineares Modell mit nichtlinearer Linkfunktion beschreiben lässt. Ziel des Projektes ist es, für derartige Modelle asymptotische Eigenschaften unter verschiedenen Korrelationsstrukturen zu bestimmen und auf dieser Basis optimale Designs zu generieren, die zu einer Verbesserung der Datenanalyse führen.

Projekt im Forschungsportal ansehen

Optimales Design für verallgemeinerte lineare gemischte Modelle (II)
Laufzeit: 01.10.2019 bis 31.01.2020

Gemischte Modelle spielen zunehmend eine wichtige Rolle nicht nur in Biowissenschaften sondern auch bei wirtschafts- und sozialwissenschaftlichen Fragestellungen, um individuelle Effekte der verschiedenen Beobachtungseinheiten als Repräsentanten einer größeren Grundgesamtheit bei der statistischen Datenanalyse berücksichtigen und erfassen zu können. Mit verallgemeinerten linearen gemischten Modellen werden Zusammenhänge für binäre ("Erfolg - Misserfolg") und diskrete Zielgrößen ("Anzahlen") beschrieben, die nicht sinnvoll durch standardmäßige lineare gemischte Modelle für metrische Daten dargestellt werden können. Für die zufälligen Effekte können dann neben normalverteilten individuellen Einflüssen auch solche aus konjugierten Familien angenommen werden, die eine explizitere Analyse erlauben. Wie in allen statistischen Analysen hängt auch hier die Qualität der Ergebnisse wesentlich vom Beobachtungs- oder Experimentaldesign, d.h. der Wahl der Beobachtungseinheiten und Beobachtungszeitpunkte, ab. Ziel dieses Projektes ist es, optimale oder zumindest effiziente Designs für verallgemeinerte lineare gemischte Modelle zu entwickeln, die sowohl normalvertreilte als auch Effekte aus konjugierten Verteilungen beinhalten können, und diese zu validieren.

Projekt im Forschungsportal ansehen

Optimales Design in der Discrete-Choice-Analyse bei Vorliegen von Wechselwirkungen
Laufzeit: 01.10.2019 bis 31.12.2019

Die Discrete-Choice-Analyse ist ein häufig angewendetes Verfahren der Marktforschung. Sie wird verwendet, um das Präferenzverhalten von Konsumenten zu untersuchen und den Nutzen zu ermitteln, den die verschiedenen Attribute eines Produktes besitzen. Die den Konsumenten dabei vorgelegten Auswahlfragen erfordern den Vergleich von Produktbeschreibungen, welche unter Verwendung eines experimentellen Designs zusammengestellt werden. Die Qualität der Ergebnisse eines solchen Experiments hängt folglich stark vom verwendeten Design ab. Bei der Modellierung der Daten und der Wahl des Designs werden häufig jedoch keine Wechselwirkungen höherer Ordnung berücksichtigt, die Synergieeefekte zwischen verschiedenen Attributen beschreiben können.. Ziel des vorliegenden Projektes ist es, optimale und effiziente Designs unter Berücksichtigung von Wechselwirkungen höherer Ordnungzur Modellierung dieser potenziellen Zusammenhänge zu entwickeln und zu validieren.

Projekt im Forschungsportal ansehen

Optimales Design für multivariate verallgemeinerte lineare Modelle mit stetigen Zielfunktionen
Laufzeit: 01.10.2016 bis 30.09.2019

In vielen Anwendungssituationen, in denen Daten gesammelt werden, werden nicht nur eine einzelne, sondern mehrere Zielvariablen gleichzeitig beobachtet, die miteinander korreliert sein können. Derartige multivariate Beobachtungen werden oft mit einer multivariaten Normalverteilung modelliert. In einigen Situationen ist dies jedoch nicht angebracht, insbesondere wenn die beobachteten Merkmale nicht stetig sind. Für diese Situationen ist das Konzept der verallgemeinerten linearen Modelle entwickelt worden, die sich speziell bei binären Daten (z.B. logistische Regression) oder Zähldaten (z.B. Poisson-Regression) bewährt haben. Jedoch kann auch bei stetigen Merkmalen statt der Normalverteilungsannahme eine andere Verteilungsannahme angemessener sein, die sich über ein verallgemeinertes lineares Modell mit nichtlinearer Linkfunktion beschreiben lässt. Ziel des Projektes ist es, für derartige Modelle asymptotische Eigenschaften unter verschiedenen Korrelationsstrukturen zu bestimmen und auf dieser Basis optimale Designs zu generieren, die zu einer Verbesserung der Datenanalyse führen.

Projekt im Forschungsportal ansehen

Optimales Design für Sphärische Versuchsbereiche
Laufzeit: 01.01.2017 bis 30.09.2019

Die Gültigkeit statischer Modelle ist oft auf einen lokalen Bereich der eklärenden Variablen beschränkt. Dieser wird in vielen Anwendungsbereichen als rechteckig angenommen, d.h. die erklärenden Variablen können unabhängig voneinander variieren. In manchen Situationen sind jedoch sphärische Bereiche sinnvoller, die durch einen beschränkten Euklidischen oder Mahalanobis-Abstand zu einem zentralen Punkt für die Versuchseinstellungen beschrieben werden können.
Ziel der Versuchsplanung ist es, optimale oder zumindest effiziente Einstellungen für die erklärenden Variablen zu bestimmen, um die Qualität der statistischen Analyse zu optimieren. Beim Vorliegen klassischer linearer Regressionsmodelle sind Charakterisierungen optimaler Designs für sphärische Versuchsbereiche mit Hilfe von Invarianzen und Symmetrien schon seit längerem bekannt. Fragestellung dieses Projekts ist es, für die in der statistischen Praxis zunehmend verwendeten verallgemeinerten linearen Modelle bzw. nichtlinearen Modelle optimale Designs auf derartigen sphärischen Versuchsbereichen zu bestimmen. Erste Ergebnisse für Poisson-verteilte Zähldaten zeigen deutliche Abweichungen der hierfür benötigten optimalen Designs von denjenigen für klassische lineare Modelle.

Projekt im Forschungsportal ansehen

Optimales Design für verallgemeinerte lineare gemischte Modelle
Laufzeit: 01.10.2013 bis 30.09.2019

Gemischte Modelle spielen zunehmend eine wichtige Rolle nicht nur in Biowissenschaften sondern auch bei wirtschafts- und sozialwissenschaftlichen Fragestellungen, um individuelle Effekte der verschiedenen Beobachtungseinheiten als Repräsentanten einer größeren Grundgesamtheit bei der statistischen Datenanalyse berücksichtigen und erfassen zu können. Mit verallgemeinerten linearen gemischten Modellen werden Zusammenhänge für binäre ("Erfolg - Misserfolg") und diskrete Zielgrößen ("Anzahlen") beschrieben, die nicht sinnvoll durch standardmäßige lineare gemischte Modelle für metrische Daten dargestellt werden können. Für die zufälligen Effekte können dann neben normalverteilten individuellen Einflüssen auch solche aus konjugierten Familien angenommen werden, die eine explizitere Analyse erlauben. Wie in allen statistischen Analysen hängt auch hier die Qualität der Ergebnisse wesentlich vom Beobachtungs- oder Experimentaldesign, d.h. der Wahl der Beobachtungseinheiten und Beobachtungszeitpunkte, ab. Ziel dieses Projektes ist es, optimale oder zumindest effiziente Designs für verallgemeinerte lineare gemischte Modelle zu entwickeln, die sowohl normalvertreilte als auch Effekte aus konjugierten Verteilungen beinhalten können, und diese zu validieren.

Projekt im Forschungsportal ansehen

Optimales Design in der Discrete-Choice-Analyse bei geblockten Beobachtungen
Laufzeit: 01.10.2016 bis 30.09.2019

Die Discrete-Choice-Analyse ist ein häufig angewendetes Verfahren der Marktforschung. Sie wird verwendet, um das Präferenzverhalten von Konsumenten zu untersuchen und den Nutzen zu ermitteln, den die verschiedenen Attribute eines Produktes besitzen. Die den Konsumenten dabei vorgelegten Auswahlfragen erfordern den Vergleich von Produktbeschreibungen, welche unter Verwendung eines experimentellen Designs zusammengestellt werden.  Die Qualität der Ergebnisse eines solchen Experiments hängt folglich stark vom verwendeten Design ab. Bei der Modellierung der Daten und der Wahl des Designs wird häufig jedoch nicht berücksichtigt, dass den teilnehmenden Personen mehrere Fragen gestellt werden und die resultierenden Antworten daher korreliert sein können. Ziel des vorliegenden Projektes ist es, optimale und effiziente Designs unter Berücksichtigung von Blockeffekten zur Modellierung dieser potenziellen Abhängigkeiten zu entwickeln und zu validieren.

Projekt im Forschungsportal ansehen

Optimales Design für online generierte adaptive Intelligenztestverfahren (IV)
Laufzeit: 01.09.2018 bis 31.05.2019

In diesem Projekt sollen adaptive Intelligenztests zur Messung der allgemeinen Intelligenz entwickelt werden. Die Items werden durch einen automatischen Itemgenerator regelbasiert und online generiert und adaptiv dargeboten. Selektiert werden die Items anhand der Parameterschätzungen für erweiterte linear-logistische Testmodelle. Die Parameterschätzungen erfolgen anhand optimaler Designs, so dass mit einem Minimum an darzubietenden Items ein Maximum an Präzision bei der Intelligenzmessung erzielt werden kann. Konkret sollen vier Arten regelgeleiteter Testverfahren zur Messung von allgemeiner Intelligenz konstruiert und hierfür die erforderlichen statistischen Grundlagen entwickelt werden.

In der ersten Phase wurden Items zur Verarbeitungskapazität regelbasiert entworfen und empirisch anhand D-optimaler Versuchspläne mittels linear-logistischer Testmodelle kalibriert. Dazu wurden optimale Versuchspläne für linear-logistische Testmodelle mit festen und zufälligen Faktoren entwickelt. Weiterhin entstand ein Programmsystem zur automatischen
Generierung dieser Items, ihrer adaptiven Darbietung und Personenparameterschätzung.

In der zweiten Phase wurden die Arbeiten aus der ersten Phase fortgesetzt. Dazu wurden analog zu den in der ersten Phase entwickelten Items zur Verarbeitungskapazität regelbasierte Items zur Bearbeitungsgeschwindigkeit konstruiert, die sich für eine adaptive Testung dieser Intelligenzkomponente eignen. Da es sich hier um Speed-Tests handelt, war es erforderlich, anstelle des logistischen Rasch-Modells erweiterte Formen des Rasch Poisson Count-Modells als statistische Grundlage heranzuziehen. Für diese Modelle wurden optimale Versuchspläne zur Itemkalibrierung und adaptiven Testung entwickelt.

Ziel der dritten Phase ist es, in Fortsetzung und Ergänzung der Arbeit in den ersten beiden Phasen bei der Modellierung der Intelligenzkomponenten zeitliche, zumeist nichtlineare Trends in longitudinalen Studien zu berücksichtigen und hierfür optimale Designs zu entwickeln, die adaptiv eingesetzt werden können. Darüber hinaus werden Designs für Itempools unter Nebenbedingungen an die Anzahl der verwendeten Regeln bereitgestellt.

Projekt im Forschungsportal ansehen

Generierung optimaler und effizienter Experimentaldesigns zur individualisierten Vorhersage in hierarchischen Modellen
Laufzeit: 16.02.2017 bis 15.02.2019

Das Ziel des vorliegenden Projektes ist die Entwicklung analytischer Ansätze zur Gewinnung optimaler Designs für die Vorhersage in hierarchischen linearen Modellen sowie in verallgemeinerten linearen und nichtlinearen gemischten Modellen mit zufälligen Parametern. Derartige Modelle wurden ursprünglich in den Bio- und Agrarwissenschaften entwickelt und werden heutzutage in den unterschiedlichsten statistischen Anwendungsgebieten vielfältig eingesetzt.

Projekt im Forschungsportal ansehen

Optimales Design für online generierte adaptive Intelligenztestverfahren (III)
Laufzeit: 01.01.2016 bis 31.12.2017

In diesem Projekt sollen adaptive Intelligenztests zur Messung der allgemeinen Intelligenz entwickelt werden. Die Items werden durch einen automatischen Itemgenerator regelbasiert und online generiert und adaptiv dargeboten. Selektiert werden die Items anhand der Parameterschätzungen für erweiterte linear-logistische Testmodelle. Die Parameterschätzungen erfolgen anhand optimaler Designs, so dass mit einem Minimum an darzubietenden Items ein Maximum an Präzision bei der Intelligenzmessung erzielt werden kann. Konkret sollen vier Arten regelgeleiteter Testverfahren zur Messung von allgemeiner Intelligenz konstruiert und hierfür die erforderlichen statistischen Grundlagen entwickelt werden.

In der ersten Phase wurden Items zur Verarbeitungskapazität regelbasiert entworfen und empirisch anhand D-optimaler Versuchspläne mittels linear-logistischer Testmodelle kalibriert. Dazu wurden optimale Versuchspläne für linear-logistische Testmodelle mit festen und zufälligen Faktoren entwickelt. Weiterhin entstand ein Programmsystem zur automatischen
Generierung dieser Items, ihrer adaptiven Darbietung und Personenparameterschätzung.

In der zweiten Phase wurden die Arbeiten aus der ersten Phase fortgesetzt. Dazu wurden analog zu den in der ersten Phase entwickelten Items zur Verarbeitungskapazität regelbasierte Items zur Bearbeitungsgeschwindigkeit konstruiert, die sich für eine adaptive Testung dieser Intelligenzkomponente eignen. Da es sich hier um Speed-Tests handelt, war es erforderlich, anstelle des logistischen Rasch-Modells erweiterte Formen des Rasch Poisson Count-Modells als statistische Grundlage heranzuziehen. Für diese Modelle wurden optimale Versuchspläne zur Itemkalibrierung und adaptiven Testung entwickelt.

Ziel der dritten Phase ist es, in Fortsetzung und Ergänzung der Arbeit in den ersten beiden Phasen bei der Modellierung der Intelligenzkomponenten zeitliche, zumeist nichtlineare Trends in longitudinalen Studien zu berücksichtigen und hierfür optimale Designs zu entwickeln, die adaptiv eingesetzt werden können. Darüber hinaus werden Designs für Itempools unter Nebenbedingungen an die Anzahl der verwendeten Regeln bereitgestellt.

Projekt im Forschungsportal ansehen

Metaanalyse von unerwünschten Ereignissen in klinischen Studien basierend auf Aggregatdaten
Laufzeit: 01.02.2015 bis 20.10.2017

Zur Charakterisierung der Nebenwirkungen von medizinischen Behandlungen ist es von Interesse, die Evidenz aus mehreren klinischen Studien zu kombinieren und auch historische Daten über die Kontrollgruppe zu berücksichtigen, weil in jeder einzelnen Studie oft nur wenige unerwünschte medizinische Ereignisse auftreten. Wenn für alle Studien detaillierte Patientendaten verfügbar sind, werden üblicherweise Überlebenszeitmethoden angewandt, um das Auftreten von  unerwünschten Ereignissen unter Berücksichtigung der Dauer des Beobachtungszeitraums zu analysieren. Dies ist besonders dann wichtig, falls die Beobachtungsdauer sich zwischen Behandlungsgruppen unterscheidet oder falls die Austauschbarkeit von Modellparametern zwischen Studien von verschiedener Länge angenommen wird. Traditionelle Überlebenszeitmethoden können allerdings nicht angewandt werden, wenn für einige Studien lediglich Aggregatdaten verfügbar sind. Dies stellt ein Problem in der Metaanalyse dar, da Metanalysen meist auf Veröffentlichungen in medizinischen Fachzeitschriften beruhen, welche in aller Regel keine individuellen Patientendaten enthalten.

Ziel dieses Projektes ist es, statistische Methoden zu entwickeln und zu evaluieren, die Überlebenszeitmetaanalysen unter Berücksichtigung historischer Studien basierend auf Aggregatdaten ermöglichen.

Projekt im Forschungsportal ansehen

Empirisch und hierarchisch Bayes-optimale Designs für logistische Regressionsmodelle mit zufälligen Effekten
Laufzeit: 15.03.2017 bis 15.09.2017

Binäre Beobachtungen werden statistisch oft mit Hilfe logistischer Regressionsmodelle analysiert. Um die Qualität dieser Analyse zu verbessern, ist das Design des zugrundeliegenden Experiments zu optimieren. Wegen der Nichtlinearität der Modellierung hängen die optimalen Designs von unbekannten Parametern ab. Um dieses Problem zu umgehen, kann Bayessche a-priori-Information eingeführt werden, die ihrerseits hierarchisch modelliert und mit empirischer Vorinformation validiert werden kann. Zusätzlich ist beim Vorliegen von Messwiederholungen interindividuelle Variabilität zu berücksichtigen. Alle diese Konzepte sollen in einem einheitlichen Ansatz zusammengefasst werden.

Projekt im Forschungsportal ansehen

Optimales Design für statistische Modelle mit zensierten Daten
Laufzeit: 01.04.2013 bis 30.06.2017

In vielen technischen und biologischen Bereichen spielt die statistische Analyse zensierter Daten eine zunehmende Rolle. Diese Zensierungen können deterministisch (feste Studiendauer, Nachweisgrenzen) oder zufallsgesteuert (zufällige Studiendauer, zufälliges Ausscheiden aus der Studie) sein. Die beobachteten, teilweise zensierten Größen können zusätzlich von weiteren Einflussfaktoren (Behandlungen und Kovariablen) abhängen, was beispielsweise über ein "proportional hazards"-Modell beschrieben werden kann.
Während die statistische Analyse derartiger Daten schon relativ weit entwickelt ist, gibt es relativ wenig Resultate zur effizienten Planung derartiger Studien oder Experimente. Ziel des vorliegenden Projekts ist es, für eine Reihe von relevanten Modellsituationen optimale oder zumindest effiziente Designs zu charakterisieren und analytisch zu bestimmen, um Anleitungen für eine möglichst effektive Ausnutzung der vorhandenen Ressourcen beim Vorliegen zensierter Daten bereit zu stellen.

Projekt im Forschungsportal ansehen

Optimales Design für die Vorhersage zufälliger individueller Effekte in Mehrgruppenmodellen
Laufzeit: 16.06.2016 bis 15.02.2017

In der statistischen Datenanalyse werden Modelle mit zufälligen Parametern in verschiedenen Anwendungsbereichen, insbesondere in den Biowissenschaften und der individualisierten Medizinforschung, häufig verwendet. In diesen Modellen ist neben der Schätzung des Populationsparameters die Vorhersage individueller zufälliger Effekte von Interesse. Der individualisierte Ansatz ist vor allem für die Studien, in denen nur wenige Beobachtungen pro Individuum möglich sind, z.B. in der Onkologie, von großer Bedeutung. Ziel dieses Projektes ist es, optimale oder zumindest effiziente und anwendbare Versuchspläne (Designs) für die Vorhersage von individuellen zufälligen Effekten für solche Experimentalsituationen zu konstruieren und zu validieren, in denen in unterschiedlichen Gruppen nur Querschnittsdesigns angewendet werden können.

Projekt im Forschungsportal ansehen

Optimales Design für Dynamische Systeme
Laufzeit: 01.10.2013 bis 31.12.2016

Viele Wirkungszusammenhänge können auch in technischen Anwendungen nur mit statistischen, d.h. zufälligen Abweichungen beobachtet werden. Diese Wirkungszusammenhänge sind oft nicht explizit darstellbar, sondern nur durch eine oder mehrere Differentialgleichungen gegeben, bei denen einige Modellparameter unbekannt sind. Anhand von beobachteten Daten sollen diese Modellparameter vermittels geeigneter Schätzverfahren bestimmt werden. Die Qualität dieser Schätzung hängt im Wesentlichen auch vom Design, d.h. von der Wahl der Versuchseinstellungen und der Messzeitpunkte ab. Ziel dieses Projektes ist es, Strategien zur Bestimmung optimaler oder zumindest effizienter Designs zu entwickeln und diese zu validieren.

Projekt im Forschungsportal ansehen

Optimales Design für die individuelle Vorhersage von Inter- und Extrapolation in Regressionsmodellen mit zufälligen Parametern
Laufzeit: 15.10.2015 bis 15.06.2016

Regressionsmodelle mit zufälligen Parametern werden in statistischen Anwendungsbereichen, insbesondere in den Biowissenschaften, sowie in individualisierter Medizinforschung häufig verwendet. In diesen Modellen ist neben der Schätzung des Populationsparameters die Vorhersage individueller zufälliger Parameter von Interesse. Der individualisierte Ansatz ist vor allem für die Studien, in denen nur wenige Beobachtungen pro Individuum möglich sind, von großer Bedeutung. Letzteres ist für medizinische Fragestellungen, z.B. bei Untersuchungen von Blutentnahmen bei Patienten, besonders relevant. Ziel dieses Projektes ist es, optimale oder zumindest effiziente und anwendbare Versuchspläne (Designs) für die Vorhersage von Inter- und Extrapolation individueller Wirkungsfunktionen in Regressionsmodellen mit zufälligen Parametern zu entwickeln.

Projekt im Forschungsportal ansehen

Adaptives Design II
Laufzeit: 01.04.2014 bis 31.01.2016

Durch eine geeigente Wahl der Versuchsbedingungen kann in vielen statistischen Experimenten eine wesentliche Verbesserung der Analyseergebnisse bzw.\ eine deutliche Verringerung der Kosten für die Durchführung des Experiments erzielt werden. Liegen nichtlineare Wirkungszusammenhänge zwischen den Versuchsbedingungen und der die Zielvariable beschreibenden Wirkungsfunktion vor, ergibt sich dabei das Problem, dass die optimalen Versuchspläne, d.h.\ die optimale Wahl der Versuchseinstellungen, in der Regel von den unbekannten und zu schätzenden Parametern abhängen. Während dies bei einstufig geplanten Experimenten ein schier unlösbares Problem darstellt, bieten adaptive und sequenzielle Verfahren, die "on-line" die Information zuvor gemachter Beobachtungen ausnutzen, einen vielversprechenden Ansatz, um auch in solchen Situationen mit möglichst wenigen Messungen zu möglichst genauen Schätzungen zu gelangen.Derartige Verfahren sollen im Rahmen des vorliegenden Projektes entwickelt und auf ihre Eigenschaften unter realen Versuchsbedingungen untersucht werden, wobei der Schwerpunkt auf Anwendungen in sogenannten Dosis-Wirkungs-Modellen liegt, bei denen eine binäre Zielvariable, die den Erfolg oder Misserfolg einer Behandlung beschreibt und daher nur zwei Ausprägungen annehmen kann, in Abhängigkeit von der Größe ("Dosis") einer oder mehrerer erklärenden Variablen untersucht wird.Neben Experimenten in der Psychophysik stellen adaptive Intelligenztests, wie sie im Projekt "Optimales Design für online generierte adaptive Intelligenztestverfahren" untersucht und weiterentwickelt werden, ein wichtiges Anwendungsgebiet dar.

Projekt im Forschungsportal ansehen

Optimales Design zur indivduellen Anpassung in gemischten Modellen
Laufzeit: 01.01.2011 bis 30.09.2015

In der Arzneimittelentwicklung besteht vorrangiges Interesse an Charakteristika einer Zielpopulation, um ein möglichst allgemein wirkendes Präparat auf den Markt bringen zu können. Neuere Entwicklungen zielen jedoch auch auf einen individualisierten Ansatz. Hierzu ist es notwendig die Charakteristika einzelner Individuen basierend sowohl auf den individualspezifischen Beobachtungen als auch auf den Populationseigenschaften möglichst genau zu spezifizieren. Letzteres ist insbesondere dann von Bedeutung, wenn aus ethischen oder technischen Gründen nur sehr wenig (invasive) Beobachtungen je Individuum gemacht werden können. Für diese Fragestellung sollen optimale Designs generiert werden, die eine effiziente Auswertung der Beobachtungen ermöglicht.

Projekt im Forschungsportal ansehen

Theoretische Grundlagen der statistischen Datenanalyse mit "Partial Least Squares"
Laufzeit: 01.02.2012 bis 06.06.2014

"Partial Least Squares" ist eine modernes Verfahren zur Dimensionsreduktion in hochdimensionalen Datensätzen, wie sie z.B. in den Neurowissenschaften bei MRT-Daten zur Analyse von Hirnaktivitäten oder bei der Bildanalyse anfallen. Ziel des vorliegenden Projektes ist es, geeignete theoretische Grundlagen und Modelle für die den Daten zu Grunde liegenden Strukturen zu entwickeln und zu validieren.

Projekt im Forschungsportal ansehen

Adaptives Design
Laufzeit: 01.04.2013 bis 31.03.2014

Durch eine geeigente Wahl der Versuchsbedingungen kann in vielen statistischen Experimenten eine wesentliche Verbesserung der Analyseergebnisse bzw.\ eine deutliche Verringerung der Kosten für die Durchführung des Experiments erzielt werden. Liegen nichtlineare Wirkungszusammenhänge zwischen den Versuchsbedingungen und der die Zielvariable beschreibenden Wirkungsfunktion vor, ergibt sich dabei das Problem, dass die optimalen Versuchspläne, d.h.\ die optimale Wahl der Versuchseinstellungen, in der Regel von den unbekannten und zu schätzenden Parametern abhängen. Während dies bei einstufig geplanten Experimenten ein schier unlösbares Problem darstellt, bieten adaptive und sequenzielle Verfahren, die "on-line" die Information zuvor gemachter Beobachtungen ausnutzen, einen vielversprechenden Ansatz, um auch in solchen Situationen mit möglichst wenigen Messungen zu möglichst genauen Schätzungen zu gelangen.Derartige Verfahren sollen im Rahmen des vorliegenden Projektes entwickelt und auf ihre Eigenschaften unter realen Versuchsbedingungen untersucht werden, wobei der Schwerpunkt auf Anwendungen in sogenannten Dosis-Wirkungs-Modellen liegt, bei denen eine binäre Zielvariable, die den Erfolg oder Misserfolg einer Behandlung beschreibt und daher nur zwei Ausprägungen annehmen kann, in Abhängigkeit von der Größe ("Dosis") einer oder mehrerer erklärenden Variablen untersucht wird.Neben Experimenten in der Psychophysik stellen adaptive Intelligenztests, wie sie im Projekt "Optimales Design für online generierte adaptive Intelligenztestverfahren" untersucht und weiterentwickelt werden, ein wichtiges Anwendungsgebiet dar.

Projekt im Forschungsportal ansehen

Optimales Design bei zufälligen und festen Blockeffekten II
Laufzeit: 01.10.2012 bis 15.02.2014

Auf Grund ökonomischer und ethischer Gründe besteht ein bedeutender Bedarf für optimale bzw. zumindest effiziente Designs in statistischen Experimenten. Dies bedeutet, dass experimentelle Einstellungen derart gewählt werden sollten, dass unter Verwendung möglichst weniger Ressourcen maximale Information erzielt werden kann.

In der Literatur gibt es im Wesentlichen zwei konkurrierende Ansätze: Der eine basiert auf kombinatorischen Überlegungen, die am besten für statistische Modelle der Varianzanalyse geeignet sind, bei denen die experimentellen Einstellungen nur wenige Faktor-Kombinationen annehmen können. der andere basiert auf analytschen Methoden und verwendet Methoden der konvexen Optimierung in einer quantitativ-stetigen Umgebung.

Das Ziel des vorliegenden Projektes ist es, diese beiden Konzepte zusammenzubringen in dem Sinnen, dass wir (stetige) analytische Methoden auf Modelle der Varianzanalyse mit typischerweise diskreter Struktur wie Block-Effekten übertragen wollen. Darüber hinaus wollen wir die analytischen Methoden, die für Modelle mit reinen festen Effekten entwickelt wurden, auf die praktisch relevanteren übertragen, bei denen individuelle Effekte der sogenannten Blöcke durch Randomisierung entstehen, was in der Literatur oft vernachlässigt wird.

Projekt im Forschungsportal ansehen

MÄQNU: Multivariate Äquivalenztests und Tests auf Nichtunterlegenheit für hochdimensionale Endpunkte
Laufzeit: 01.07.2010 bis 31.12.2013

Das Verbundprojekt untersucht statistische Tests auf Äquivalenz oder Nichtunterlegenheit. Während bislang meist nur Tests für einzelne Endpunkte durchgeführt und bei Bedarf konservativ über verschiedene Endpunkte gekoppelt werden, berücksichtigen wir die multivariate Verteilung und erhalten so effektivere Methoden, die auch die Analyse hochdimensionaler Endpunkte ermöglichen. Die Verfahren werden zusammen mit Industriepartnern zum Vergleich von Arzneimitteln und zur Untersuchung des Einflusses von Kulturpflanzen auf die mikrobielle Bodenflora angewendet. Im vorliegenden Teilprojekt wird analytisch das asymptotische Verhalten der in den anderen Teilbereichen vorgeschlagenen Testverfahren untersucht bzw. das Verhalten für kleine bis moderate Stichprobenumfänge durch Simulationen validiert. Neben mathematischen Entwicklungen zu den Grundlagen der Verfahren sind Untersuchungen zur Versuchsplanung durchzuführen und ein entsprechendes benutzerfreundliches Programm zu entwickeln.

Projekt im Forschungsportal ansehen

Optimales Design für multivariate statistische Modelle mit scheinbar unzusammenhängenden Wirkungsfunktionen
Laufzeit: 01.03.2013 bis 30.11.2013

In der statistischen Datenanalyse gewinnen multivariate lineare Modelle mit einer Vielzahl von Zielvariablen zunehmend an Bedeutung, da auf Grund der Entwicklung von Computer-Soft- und -Hardware mittlerweile gute Approximationen für die Auswertung derartiger, strukturierter Daten berechenbar sind. Ziel dieses Projektes ist es, optimale und effiziente Designs für statistische Experimeten bei verschiedenen zu Grunde liegenden multivariaten linearen Modellen zu bestimmen und zu validieren. Insbesondere stehen hier Modelle vom Typ der "Seemingly Unrelated Regression" (SUR), d.h. Modelle mit scheinbar unzusammenhängenden Wirkungen im Vordergrund.

Projekt im Forschungsportal ansehen

Optimales Design für online generierte adaptive Intelligenztestverfahren (II)
Laufzeit: 01.09.2011 bis 30.11.2013

In diesem Projekt sollen adaptive Intelligenztests zur Messung der allgemeinen Intelligenz entwickelt werden. Die Items werden durch einen automatischen Itemgenerator regelbasiert und online generiert und adaptiv dargeboten. Selektiert werden die Items anhand der Parameterschätzungen für erweitete linear-logistische Testmodelle. Die Parameterschätzungen erfolgen anhand optimaler Designs, so dass mit einem Minimum an darzubietenden Items ein Maximum an Präzision bei der Intelligenzmessung erzielt werden kann. Konkret sollen vier Arten regelgeleiteter Testverfahren zur Messung von allgemeiner Intelligenz konstruiert und hierfür die erforderlichen statistischen Grundlagen entwickelt werden.

In der ersten Phase wurden Items zur Verarbeitungskapazität regelbasiert entworfen und empirisch anhand D-optimaler Versuchspläne mittels linear-logistischer Testmodelle kalibriert. Dazu wurden optimale Versuchspläne für linear-logistische Testmodelle mit festen und zufälligen Faktoren entwickelt. Weiterhin entstand ein Programmsystem zur automatischen Generierung dieser Items, ihrer adaptiven Darbietung und Personenparameterschätzung.

Ziel der zweiten Phase ist es, die Arbeiten aus der ersten Phase fortzusetzen. Dazu sollen analog zu den in der ersten Phase entwickelten Items zur Verarbeitungskapazität regelbasierte Items zur Bearbeitungsgeschwindigkeit konstruiert werden, die sich für eine adaptive Testung dieser Intelligenzkomponente eignen. Da es sich hier um Speed-Tests handelt, ist es erforderlich, anstelle des logistischen Rasch-Modells erweiterte Formen des Rasch Poisson Count-Modells als statistische Grundlage heranzuziehen. Für diese Modelle sollen wiederum optimale Versuchspläne zur Itemkalibrierung und adaptiven Testung entwickelt werden.

Projekt im Forschungsportal ansehen

Adaptive Verfahren in der Planung und Auswertung statistischer Experimente
Laufzeit: 01.04.2008 bis 31.03.2013

Durch eine geeigente Wahl der Versuchsbedingungen kann in vielen statistischen Experimenten eine wesentliche Verbesserung der Analyseergebnisse bzw.\ eine deutliche Verringerung der Kosten für die Durchführung des Experiments erzielt werden. Liegen nichtlineare Wirkungszusammenhänge zwischen den Versuchsbedingungen und der die Zielvariable beschreibenden Wirkungsfunktion vor, ergibt sich dabei das Problem, dass die optimalen Versuchspläne, d.h.\ die optimale Wahl der Versuchseinstellungen, in der Regel von den unbekannten und zu schätzenden Parametern abhängen. Während dies bei einstufig geplanten Experimenten ein schier unlösbares Problem darstellt, bieten adaptive und sequenzielle Verfahren, die "on-line" die Information zuvor gemachter Beobachtungen ausnutzen, einen vielversprechenden Ansatz, um auch in solchen Situationen mit möglichst wenigen Messungen zu möglichst genauen Schätzungen zu gelangen.Derartige Verfahren sollen im Rahmen des vorliegenden Projektes entwickelt und auf ihre Eigenschaften unter realen Versuchsbedingungen untersucht werden, wobei der Schwerpunkt auf Anwendungen in sogenannten Dosis-Wirkungs-Modellen liegt, bei denen eine binäre Zielvariable, die den Erfolg oder Misserfolg einer Behandlung beschreibt und daher nur zwei Ausprägungen annehmen kann, in Abhängigkeit von der Größe ("Dosis") einer oder mehrerer erklärenden Variablen untersucht wird.Neben Experimenten in der Psychophysik stellen adaptive Intelligenztests, wie sie im Projekt "Optimales Design für online generierte adaptive Intelligenztestverfahren" untersucht und weiterentwickelt werden, ein wichtiges Anwendungsgebiet dar.

Projekt im Forschungsportal ansehen

Optimales Design für multivariate lineare statistische Modelle
Laufzeit: 01.03.2008 bis 28.02.2013

In der statistischen Datenanalyse gewinnen multivariate lineare Modelle mit einer Vielzahl von Zielvariablen zunehmend an Bedeutung, da auf Grund der Entwicklung von Computer-Soft- und -Hardware mittlerweile gute Approximationen für die Auswertung derartiger, strukturierter Daten berechenbar sind. Ziel dieses Projektes ist es, optimale und effiziente Designs für statistische Experimeten bei verschiedenen zu Grunde liegenden multivariaten linearen Modellen zu bestimmen und zu validieren.

Projekt im Forschungsportal ansehen

Optimales Design bei zufälligen und festen Blockeffekten
Laufzeit: 01.10.2009 bis 30.09.2012

Auf Grund ökonomischer und ethischer Gründe besteht ein bedeutender Bedarf für optimale bzw. zumindest effiziente Designs in statistischen Experimenten. Dies bedeutet, dass experimentelle Einstellungen derart gewählt werden sollten, dass unter Verwendung möglichst weniger Ressourcen maximale Information erzielt werden kann. In der Literatur gibt es im Wesentlichen zwei konkurrierende Ansätze: Der eine basiert auf kombinatorischen Überlegungen, die am besten für statistische Modelle der Varianzanalyse geeignet sind, bei denen die experimentellen Einstellungen nur wenige Faktor-Kombinationen annehmen können. der andere basiert auf analytschen Methoden und verwendet Methoden der konvexen Optimierung in einer quantitativ-stetigen Umgebung. Das Ziel des vorliegenden Projektes ist es, diese beiden Konzepte zusammenzubringen in dem Sinnen, dass wir (stetige) analytische Methoden auf Modelle der Varianzanalyse mit typischerweise diskreter Struktur wie Block-Effekten übertragen wollen. Darüber hinaus wollen wir die analytischen Methoden, die für Modelle mit reinen festen Effekten entwickelt wurden, auf die praktisch relevanteren übertragen, bei denen individuelle Effekte der sogenannten Blöcke durch Randomisierung entstehen, was in der Literatur oft vernachlässigt wird.

Projekt im Forschungsportal ansehen

Approximation statistischer Information in nichtlinearen Modellen mit zufälligen Effekten
Laufzeit: 01.01.2011 bis 31.03.2012

Die statistische Information spielt eine wichtige Rolle in der Bewertung der Qualität von statistischen Analyseverfahren. Während die Theorie für lineare Modelle mit und ohne zufällige Effekte und für nichtlineare Modelle ohne zufällige Effekte weit entwickelt ist, gibt es für nichtlineare Modelle mit zufälligen Effekten nur mehr oder minder gute Näherungen in der Literatur. Ziel des Projektes ist es, die bestehenden Näherungsverfahren auf ihre Praxistauglichkeit zu untersuchen und neue Approximationen zu entwickeln. Diese können dann zur effizienten Planung von Experimenten z.B. in der Pharmakokinetik eingesetzt werden.

Projekt im Forschungsportal ansehen

Statistische Datenanalyse mit "Partial Least Squares"
Laufzeit: 01.02.2007 bis 31.01.2012

"Partial Least Squares" ist eine modernes Verfahren zur Dimensionsreduktion in hochdimensionalen Datensätzen, wie sie z.B. in den Neurowissenschaften bei MRT-Daten zur Analyse von Hirnaktivitäten oder bei der Bildanalyse anfallen. Ziel des vorliegenden Projektes ist es, geeignete Modelle für die den Daten zu Grunde liegenden Strukturen zu entwickeln und zu validieren.

Projekt im Forschungsportal ansehen

SKAVOE: Sicherere und kosteneffizientere Arzneimittelentwicklung unter Verwendung von optimalen Experimentdesigns
Laufzeit: 01.07.2007 bis 31.12.2010

In eine Gesellschaft mit einem hoch entwickelten Gesundheitssystem besteht die Forderung und Notwendigkeit, innovative Medikamentenentwicklungen schnellstmöglich für den Menschen nutzbar zu machen. Dies impliziert die ständige Suche nach neuen Wirkstoffen, was mit einem hohen Zeitaufwand und erheblichen Investitionen verbunden ist. Durch den Einsatz effizienter Experimentaldesigns auf den verschiedenen Stufen der Arzneimittelentwicklung können dabei beträchtliche Ressourcen eingespart werden. Dies erlaubt nicht nur eine schnellere Positionierung neuer Medikamente auf dem Markt und damit einen ökonomischen Vorteil, sondern eine aus ethischen Gründen wünschenswerte schnellere Verfügbarkeit wirksamerer und sicherer Medikamente sowie eine ebenfalls aus ethischen Gründen erstrebenswerte geringere Belastung von Probanden und Patienten in der Erprobungsphase. Die Entwicklung derartiger effizienter Experimentaldesigns ist Inhalt des vom Bundesministerium für Bildung und Forschung im Rahmen des Schwerpunktprogramms zur Förderung der naturwissenschaftlichen Grundlagenforschung auf dem Gebiet Mathematik für Innovationen in Industrie und Dienstleistungen bewilligten Verbundprojekts SKAVOE (Sicherere und kosteneffizientere Arzneimittelentwicklung unter Verwendung von optimalen Experimentdesigns).Das Verbundprojekt fokussiert auf verschiedene Bereiche des Entwicklungsprozesses für zukünftige Arzneimittel (präklinisches, genetisches Screening von Substanzen mittels Microarrays, klinische Dosis-Findungsstudien und dynamische Modelle der Populations-Pharmakokinetik für Expositionsdaten). Im Magdeburger Teilprojekt werden vorrangig effiziente Experimentaldesigns für Modelle zur Bioverfügbarkeit von Wirkstoffen im menschlichen Körper nach einer Medikamentengabe entwickelt, mit deren Hilfe die Dosierung von Medikamenten im Hinblick auf Wirksamkeit und Arzneimittelsicherheit optimiert werden kann.

Projekt im Forschungsportal ansehen

Optimales Design in der Conjoint-Analyse
Laufzeit: 01.10.2006 bis 31.07.2010

Die Conjoint-Analyse ist ein häufig angewendetes Hilfsmittel in der Marktforschung. "Stated-Choice"-Experimente werden durchgeführt, um den Einfluss verschiedener Optionen auf das Präferenzverhalten von Konsumenten auszuwerten. Die Qualität des Ergebnisses eines derartigen Experiments hängt stark von seinem Design ab, d.h. davon, welche Fragen gestellt werden. Ziel des vorliegenden Projektes ist es, optimale und effiziente Designs für Fragebögen in diesem Kontext zu entwickeln und zu validieren.

Projekt im Forschungsportal ansehen

Optimales Design für online generierte adaptive Intelligenztestverfahren
Laufzeit: 01.08.2007 bis 30.04.2010

In diesem Projekt sollen adaptive Intelligenztests zur Messung der allgemeinen Intelligenz entwickelt werden. Die Items werden durch einen automatischen Itemgenerator regelbasiert und online generiert und adaptiv dargeboten. Selektiert werden die Items anhand der Parameterschätzungen für erweitete linear-logistische Testmodelle. Die Parameterschätzungen erfolgen anhand optimaler Designs, so dass mit einem Minimum an darzubietenden Items ein Maximum an Präzision bei der Intelligenzmessung erzielt werden kann. Konkret sollen vier Arten regelgeleiteter Testverfahren zur Messung von allgemeiner Intelligenz konstruiert und hierfür die erforderlichen statistischen Grundlagen entwickelt werden.

Projekt im Forschungsportal ansehen

Optimales Design für verallgemeinerte lineare gemischte Modelle
Laufzeit: 01.11.2005 bis 31.01.2010

In der statistischen Datenanalyse gewinnen verallgemeinerte lineare Modelle mit sowohl zufälligen als auch festen Effekten zunehmend an Bedeutung, da auf Grund der Entwicklung von Computer-Soft- und -Hardware mittlerweile  gute Näherungen für die Anpassung derartiger, mehr reaklistischer Modelle an die Daten berechenbar sind. Ziel dieses Projektes ist es, optimale und effiziente Designs für statistische Experimeten bei zu Grunde liegenden verallgemeinerten linearen gemischten Modellen zu bestimmen und zu validieren.

Projekt im Forschungsportal ansehen

Optimales Design in klinischen Dosisfindungsstudien zur Sicherheit und Wirksamkeit
Laufzeit: 01.09.2006 bis 30.06.2009

Das Ziel von klinischen Dosisfindungsstudien ist es, eine Dosis (oder eine Spanne von Dosen) zu identifizieren, die sowohl die untersuchte Krankheit wirksam behandelt, als auch sicher ist im Hinblick auf Nebenwirkungen. Traditionell werden erst Studien zur Sicherheit durchgeführt (Phase I), bevor solche zur Wirksamkeit betrachtet werden (Phase II). Werden die Versuche beider Phasen kombiniert, kann die Effizienz des Prozesses der Medikamentenentwicklung erhöht werden. Das Design solcher Versuche weist Schwierigkeiten auf: einerseits hängt der optimale Versuchsplan von den unbekannten Paramentern und dem zu Grunde liegenden (meist nichtlinearen) Modell ab, andererseits ergeben sich aus ethischen Gründen vielerlei Restriktionen, die das Versuchsdesign beeinflussen. Das Ziel dieses Projektes ist es, Designs für das beschriebene Problem zu finden, die sowohl Optimalitätskriterien erfüllen als auch für reale Dosisfindungsstudien in die Praxis umgesetzt werden können.

Projekt im Forschungsportal ansehen

Statistische Analyse multivariater Stichproben in endlichen Populationen
Laufzeit: 01.04.2004 bis 31.03.2009

Bei Schadenssummenbestimmungen in Wirtschaftsstrafsachen ist es von Bedeutung, zuverlässige Schätzungen für Mindestschadenssummen zu ermitteln, die sich als mit den Schadenswerten gewichtete Summen von Anteilschätzungen für verschiedene Komponenten von multivariaten Schadenszahlen ergeben. Ziel dieses Projektes ist es, unter geeigneten Modellannahmen diese Mindestschadenssummen unter Berücksichtigung von eventuellen Abhängigkeitren zwischen den Komponenten hitreichend präzise zu ermitteln und diese Verfahren unter Modellabweichungen zu überprüfen.

Projekt im Forschungsportal ansehen

Effiziente Versuchsplanung in der Conjoint Analyse
Laufzeit: 15.06.2004 bis 31.07.2007

Die Conjoint Analyse ist ein häufig benutztes Verfahren zur Analyse von Präferenzen und Entscheidungen in vielen Bereichen wie Marketing, Personalmanagement, sensorische Messungen in der Lebensmittelindustrie etc. Durch den Einsatz effizienter Versuchspläne, d.h. effizienter Auswahlen der darzubietenden Stimuli, kann die Zahl der Darbietungen und damit die Erhebungszeit deutlich reduziert werden. Im Rahmen der beiden ersten Phasen dieses Projektes wurden für verschiedene conjoint-analytische Modelle effiziente Versuchspläne entwickelt, die eine erheblich höhere relative Effizienz als die bisher häufig in der Praxis eingesetzten Designs besitzen. In mehreren Experimenten und Simulationsstudien konnte nachgewiesen werden, dass die theoretisch gesicherte höhere Effizienz dieser Designs auch empirisch zu reliableren und valideren Nutzenschätzungen in der Praxis führt. Mittlerweise wurden heterogene Discrete-Choice-Modelle als sehr leistungsfähige Verfahren der Conjoint Analyse entwickelt. In der nächsten Phase dieses Projekts sollen daher effiziente Designs für Discrete-Choice-Modelle mit zufälligen Effekten und/oder latenten Klassen entwickelt werden. Da effiziente Versuchspläne zu einer sehr hohen Aufgabenkomplexität führen können, ist weiterhin eine theoretische und empirische Bewertung der Versuchspläne aus Sicht der Informationsverarbeitung erforderlich.

Projekt im Forschungsportal ansehen

Biometrische Methoden zur Frühdiagnostik, Verlaufskontrolle und Visualisierung perimetrisch fassbarer Sehbahnläsionen
Laufzeit: 01.04.2004 bis 31.03.2007

Modellierung von Messverfahren für die Sehfähigkeit in Abhängigkeit von der Lokation im Gesichtsfeld, der Stärke von Lichtstimuli und des zeitlichen Krankheitsverlaufs durch Dosis-Wirkungsbeziehungen; Bestimmung altersabhängiger Normwerte unter besonderer Berücksichtigung von Messwiederholungen und zufälligen Probandeneffekten; Modellierung und Planung psychophysischer Experimente unter Berücksichtigung falsch-positiver und falsch-negativer Reaktionen;Entwicklung adaptiver Verfahren zur Stimuluswahl aus der Basis von a-priori Vorwissen über die verteilung der individuellen Schwellenwerte

Projekt im Forschungsportal ansehen

Modellierung und Planung populationspharmakokinetischer Studien
Laufzeit: 15.02.2003 bis 31.12.2006

Versuchsplanung für pharmakokinetische Phase-I- und Phase-III-Studien zur Kontrolle der Bioverfügbarkeit von Medikamenten (Hormon-Therapie) und zum Nachweis der Bioäquivalenz; Modellierung der Bioverfügbarkeit durch kinetische Modelle mit zufälligen Probandeneffekten bei Messwiederholungen

Projekt im Forschungsportal ansehen

Adaptive Designs für mehrstufige klinische Studien mit Interims-Analyse
Laufzeit: 01.04.2003 bis 30.09.2006

Adaptive Designs, wo Entscheidungen auf Basis von während der Studie gesammelten Informationen getroffen werden, können die Flexibilät einer Studie erhöhen und die erwartete Fallzahl verringern. Insbesondere findet diese Vorgehensweise Anwendung bei Interimsanalysen in der pharmazeutischen Forschung, bei denen nach Durchführung eines vorher festgelegten Teils der Studie über eine Fortführung bzw. einen Abbruch entschieden werden soll. Ziel dieses Projektes ist es, ein allgemeines Rahmenwerk für adaptive Tests mit zwei Stufen zu finden und Software für deren Umsetzung zu entwickeln. Die Ausweitung auf mehr als zwei Stufen soll ebenfalls behandelt werden.

Projekt im Forschungsportal ansehen

Effiziente Planung in der nichtparametrischen Regression
Laufzeit: 01.04.2004 bis 31.03.2006

effiziente Planung von Experimenten für nichtlineare Wirkungszusammenhänge und nichtparametrische Regressionsansätze, verallgemeinerte lineare und additive Modelle; Berücksichtigung von Approximationsfehlern. lokalen und globalen Strukturen; Konstruktion "guter Gitter" zur Verwendung als effizienter Versuchspläne

Projekt im Forschungsportal ansehen

Effiziente Versuchsplanung in der Conjoint Analyse
Laufzeit: 01.12.2001 bis 30.11.2003

Die Conjoint Analyse ist ein häufig benutztes Verfahren zur Analyse von Präferenzen und Entscheidungen in vielen Bereichen wie Marketing, Personalmanagement, sensorische Messungen in der Lebensmittelindustrie etc. Durch den Einsatz effizienter Versuchspläne, d.h. effizienter Auswahlen der darzubietenden Stimuli, kann die Zahl der Darbietungen und damit die Erhebungszeit deutlich reduziert werden. Im Rahmen einer ersten Phase dieses Projektes wurden D-optimale Versuchspläne für lineare und logistische Paarvergleichsmodelle basierend auf Teilprofilen entwickelt. Diese Pläne besitzen eine erheblich höhere relative Effizienz als die bisher häufig in der Praxis eingesetzten Designs. In experimentellen Studien konnte nachgewiesen, dass diese höhere Effizienz auch zu reliableren und valideren Resultaten führt. Diese Ergebnisse konnten auch durch Simulationsstudien bestätigt werden. In der gegenwärtigen Phase dieses Projekts werden für allgemeinere Paarvergleichsmodelle und Discrete Choice-Modelle effiziente (u.a. adaptiv optimale) Designs entwickelt und anhand von experimentellen Studien sowie Simulationsstudien überprüft. Dabei soll in den experimentellen Studien das neu eingeführte Konzept der "wahren Werte" eingesetzt und weiterentwickelt werden.

Projekt im Forschungsportal ansehen

Letzte Änderung: 03.04.2023 - Ansprechpartner: Webmaster