Method(olog)ische Grundlagen der Statistik und ihre Anwendungen
print


Navigationspfad


Inhaltsbereich

Forschungsinteressen

Methodologische Grundlagen

Imprecise Probability

Imprecise Probability ist eine prinzipielle Verallgemeinerung der üblichen (klassischen) Wahrscheinlichkeit, in der die Güte probabilistischer Information explizit mit in die (Wahrscheinlichkeits-) Modellierung aufgenommen wird. Daher bietet die Theorie der Imprecise Probability neue Modellierungsmöglichkeiten, insbesondere wenn die Glaubwürdigkeit von Schlüssen aus unvollständiger Information im Vordergrund steht. Dies schließt insbesondere alle Bereiche der statistischen Inferenz, die Entscheidungstheorie unter Unsicherheit und die Modellierung von Expertenwissen mit ein. Außerdem liefert Imprecise Probability einen Überbau über die robuste Statistik sowie die Bayesianische Sensitivitätsanalyse. Ein wichtiger Teilbereich ist die Theorie der Intervallwahrscheinlichkeit, bei der jedem Ereignis A ein Intervall P(A)= [L(A),U(A)] zugeordnet wird.

Publikationen

Entscheidungstheorie

Entscheidungstheorie ist die Lehre des rationalen Entscheidens in Situationen unter Unsicherheit. Als solche bietet sie Anwendungsmöglichkeiten in zahlreichen Gebieten (z.B. Ökonomie, Statistik, Medizin) und besitzt damit einen stark interdisziplinär geprägten Charakter. So stellt die Entscheidungstheorie nicht nur einen abstrakten formalen Überbau für die gesamte statistische Inferenz bereit, welcher die Entwicklung (und Verallgemeinerung) statistischer Verfahren maßgeblich beeinflusst hat, sondern liefert andererseits auch konkrete Modelle zur Entscheidungsunterstützung in vielen anderen Anwendungsbereichen. Insbesondere ist hierbei die Entwicklung sogenannter Expertensysteme zu nennen, welche Nicht-Experten dabei unterstützen sollen, die Entscheidungen von Experten imitieren zu können. Aufgrund der komplexen Struktur von unsicherem (Experten-) Wissen ergeben sich bei dessen Modellierung zahlreiche Verknüpfungspunkte zu Imprecise Probability.

Publikationen

Partielle Identifikation

The credibility of inference decreases with the strength of the assumptions maintained
– (Charles Manski, 2003, Springer)

Die Theorie der partiellen Identifikation trägt diesem allgemeinen Problem Rechnung, indem sie mit dem impliziten Paradigma der Statistik bricht, dass jede statistische Analyse unabhängig von der Qualität und Struktur der zur Verfügung stehenden Daten immer ein präzises Ergebnis liefern müsse (Punktidentifikation) oder als extreme Alternative keinerlei Schlüsse erlaube (Nichtidentifikation). Anstatt gegebenenfalls inhaltlich ungerechtfertigte Zusatzanahmen einzuführen, um Identifizierbarkeit zu erzwingen, betrachtet man die Menge aller mit den Daten und inhaltlich gesicherten Annahmen verträglichen Modelle. Man erhält dadurch eventuell unpräzisere, aber dafür glaubwürdigere und zuverlässigere Ergebnisse, die oft immer noch präzise genug sind, um die eigentlichen substanzwissenschaftlichen Fragestellungen beantworten zu können. Der Umgang mit defizitären Daten stellt eine typische Problemstellung dar, die mithilfe von partieller Identifikation gelöst werden kann.

Publikationen

Grundlage der Wahrscheinlichkeit, Konzepte von Unsicherheit

Die vielfältige Verwendung statistischer Modellierung in den Substanzwissenschaften darf nicht darüber hinwegtäuschen, dass eines ihrer Grundkonzepte, nämlich die Wahrscheinlichkeit als Modell des Zufälligen/Unsicheren, weiterhin viele grundsätzliche Fragen aufwirft. Wahrscheinlichkeitsinterpretationen und die Frage der Adäquation von Wahrscheinlichkeitsmodellierungen sind nach wie vor Gegenstand heftiger Kontroversen, die auch auf das korrekte Verständnis statistischer Analysen zurückwirken müssen. Hierzu gehört auch, dass in vielen Anwendungsbereichen (etwa in der künstlichen Intelligenz bei der Modellierung von unsicherem Expertenwissen) die Rolle der Wahrscheinlichkeit als einziges Unsicherheitskonzept prinzipiell in Frage gestellt wird und daher substanzielle Erweiterungen wie auch alternative Ansätze (z.B. Imprecise Probability, Fuzzy Sets, Choquet Kapazitäten, Possibility Theorie und Dempster-Shafer Theorie der Belief-Funktionen) entwickelt wurden.

Publikationen

Statistische Methoden

Inferenz mit defizitären Daten

Das vorrangige Ziel der Inferenz mit defizitären Daten besteht darin, Informationen über ein Merkmal zu gewinnen, obwohl es nicht entsprechend der Datenqualität messbar ist, welche der substanzwissenschaftliche Kontext fordert. Beispiele für defizitäre Daten sind fehlende, geheapte, zensierte oder messfehlerbehaftete Daten. Im Rahmen der Analyse erweisen sich beispielsweise Messfehlermodelle oder Ansätze, die sich auf die Idee der partiellen Identifizierung stützen, als hilfreich.

Publikationen

 

Relationale Methoden in der statistischen Datenanalyse

Ziel der hier entwickelten Methoden ist die fruchtbare Anwendung von Methoden der Ordnungs- und Verbandstheorie im Rahmen einer statistischen Datenanalyse, insbesondere im Kontext von diskreten, potentiell defizitären Daten oder Daten mit nicht-standard Skalenniveau (z.B. partiell geordnetes Niveau). Die Methodenentwicklung reicht hier von eher qualitativer Datenanalyse (z.B. Betrachtung von Hüllenoperatoren als Werkzeug qualitativer Datenanalyse) bis hin zu quantitativer, stochastischer Analyse, inklusive stochastischer Verallgemeinerungen relationaler Konzepte (z.B. stochastische Dominanz für Zufallsvariablen mit partiell geordnetem Skalenniveau). Ein wesentlicher Anspruch ist hier insbesondere, über eine rein deskriptive mathematische Strukturanalyse der Daten hinaus auch im Sinne statistischer Inferenz eine stochastische Analyse der gegebenen Datensituation zu ermöglichen. Hier kommen Elemente der Vapnik-Chervonenkis-Theorie in Verbindung mit diskreten Regularisierungsansätzen zum Einsatz.

Publikationen

 

Probabilistische Grafische Modelle

Mithilfe probabilistischer grafischer Modelle kann die gemeinsame Verteilung einer Menge von Variablen illustriert werden. Die Einbeziehung der bedingten (Un-) Abhängigkeitsstruktur, die auch die Basis der Visualisierung bildet, ermöglicht die Faktorisierung und somit eine vereinfachte Darstellungsform der gemeinsamen Verteilungsfunktion. Besonders Markov- und Bayesnetze werden in der Statistik häufig verwendet.

Publikationen

Rekursive Partitionierung

Rekursive Partitionierung ist eine Verfahrensklasse zur Dimensionsreduktion, deren Grundidee es ist, den gesamten (potentiell extrem) inhomogenen Datenraum in deutlich homogenere Teilräume aufzuteilen. Als eine häufig genutzte Methode davon verwenden Klassifikations- und Regressionsbäume Wahrscheinlichkeitsmodelle um Homogenitätskriterien zu schätzen. Eine Weiterentwicklung bilden die sogenannten imprecise trees, die anstatt präziser Wahrscheinlichkeitsmodelle Imprecise Probability-Modelle verwenden. Die grundlegende Idee wird auch in Mikroaggregationstechniken zur Anonymisierung von Datensätzen verwendet, meist im Bereich der Amtlichen Statistik.

Publikationen

Lebensdaueranalyse

Die Lebensdaueranalyse ist der Teilbereich der statistischen Modellierung, der sich mit Modellen für Verweildauern beschäftigt. Charakteristisch dabei ist, dass typischerweise Verweildauern nur unvollstündig (zensiert) beobachtet werden können: Innerhalb der Beobachtungsspanne haben viele Episoden schon begonnen und/oder sind noch nicht abgeschlossen, so dass also von vielen Einheiten nur die Information vorliegt, dass sie mindestens eine gewisse Zeitspanne gelebt haben.

Publikationen

Statistisches Matching

Statistical Matching (oder auch Data Fusion) bezeichnet die Kombination von zwei (oder mehreren) Datensätzen, die zwar eine Schnittmenge gemeinsamer Variablen besitzen, aber jeweils auf unterschiedlichen Beobachtungseinheiten basieren. Ziel des statistischen Matchings ist die Bestimmung der gemeinsamen Wahrscheinlichkeitsverteilung vor allem jener Variablen, die spezifisch für die jeweiligen Datensätze sind und somit nicht gemeinsam beobachtet wurden. Zu diesem Zweck wird entweder ein vollständiger synthetischer Datensatz erzeugt (Mikro-Ansatz) oder die gemeinsame Wahrscheinlichkeitsverteilung direkt geschätzt (Makro-Ansatz).

Publikationen

Survey Methodologie

Der Bereich der Survey Methodologie hat zum Ziel, unter Verwendung von Stichproben Einblick in eine bestimmte Population zu gewinnen. Er befasst sich unter anderem mit Fragebogengestaltung, Stichprobendesign und Schätzverfahren. Ein auch in der amtlichen Statistik viel diskutiertes Teilgebiet ist die sogenannte Small Area Estimation. Sie bietet Lösungsansätze in Situationen, in welchen der entsprechende Teil einer interessierenden Subpopulation in einer globalen Stichprobe nicht ausreicht, um verlässliche direkte Schätzungen der interessierenden Eigenschaften auf Subpopulationsebene zu erhalten.

Anwendungsgebiete

Sozialwissenschaften

Publikationen

Psychometrie

Publikationen

Biostatistik

Publikationen