Bibtex

@InCollection{,
  Year    = "2019", 
  Title    = "Wahrscheinlichkeitstheorie", 
  Author    = "Müller-Funk, Prof. em. Dr. Ulrich", 
  Booktitle    = "Gronau, Norbert ; Becker, Jörg ; Kliewer, Natalia ; Leimeister, Jan Marco ; Overhage, Sven (Herausgeber): Enzyklopädie der Wirtschaftsinformatik – Online-Lexikon",
  Publisher    = "Berlin : GITO",
  Url    = "https://wi-lex.de/index.php/lexikon/technologische-und-methodische-grundlagen/wahrscheinlichkeitstheorie/", 
  Note    = "[Online; Stand 29. March 2024]",
}

Wahrscheinlichkeitstheorie

Unsicherheit, Zufall, Wahrscheinlichkeit: In der Wahrscheinlichkeitstheorie wird „Zufall“ modelliert und quantifiziert. Ihre Bedeutung leitet sich daraus ab, dass Zufall als die häufigste Quelle von Unsicherheit angesehen wird. Wahrscheinlichkeit ist kombinierbar mit anderen Konzepten von Unsicherheit, nämlich Vagheit und Chaos.

Grundbegriffe der Wahrscheinlichkeitstheorie

Wahrscheinlichkeit wird mathematisiert auf Basis eines von Kolmogoroff entwickelten Axiomensystems. Dessen Forderungen („Additivität“ und „Normiertheit“) orientieren sich an den Regeln im Umgang mit relativen Häufigkeiten. Eine inhaltliche Ausdeutung von Zufälligkeit unterbleibt. Entstanden ist daraus eine an Modellen und Resultaten reichhaltige Theorie, die sich an die unterschiedlichsten Fragestellungen adaptieren lässt. So bildet die Wahrscheinlichkeitstheorie das Fundament für die Statistik, das Operations Research (Warteschlangentheorie, Simulationen) sowie die Finanz- und Versicherungsmathematik.

Jedes Wahrscheinlichkeits-Modell erfordert die Auszeichnung

  • eines Grundraumes Ω und eines Systems von dessen Teilmengen („Ereignissen“) {A} in Form einer σ-Algebra.

  • einer Wahrscheinlichkeit P, definiert auf {A}

  • einer Zufallsgröße (messbaren Funktion) X: Ω -> E, welche die interessierenden Aspekte des Zufallgeschehens erfasst.

(Der Ereignisraum E besitzt dabei eine algebraische, topologische und – daraus abgeleitet – eine messbare Struktur.) Mathematisch gesehen ist die Verwendung von Zufallsgrößen entbehrlich, da man sich auf E und die induzierte Wahrscheinlichkeit P • X-1  beschränken könnte. Da Zufallsgrößen eine höhere Anschaulichkeit besitzen, hat sich deren Verwendung durchgesetzt. Zentral ist das Konzept des „Bedingens“, welches es erlaubt, die Wahrscheinlichkeit eines Ereignisses bei Vorliegen von (realer oder hypothetischer) Information neu zu bewerten. Bei Vorliegen zweier Zufallsgrößen X, Y, beschreibt P(X-1 (B) | Y = y) die Verteilung der Werte von X unter der Hypothese „Y (ω)= y“. Im Prinzip läuft dies auf eine Beschränkung des Grundraumes bei gleichzeitiger Renormierung hinaus. Von spezieller Bedeutung ist der Fall, dass Y keinerlei Rückschlüsse auf X erlaubt – und umgekehrt. In diesem Falle spricht man von stochastischer Unabhängigkeit der Zufallsgrößen X und Y. Eine – zumeist partielle – Beschreibung von Verteilungen erfolgt mittels Verteilungsfunktionen und Momenten.

Stochastische Prozesse

Die Dynamik eines Zufallsgeschehens, typischerweise in der Zeit, wird mittels stochastischer Prozesse modelliert. Hier ist E ein Folgen- oder Funktionenraum. Der Prototyp sind Irrwanderungen, d. h. die Partialsummen stochastisch unabhängiger Zufallsgrößen mit der gleichen induzierten Verteilung. Diese standen Pate für die  wichtigsten Grundtypen von Prozessen

  • rekursive Schemata, speziell Markovprozessse

  • Martingale und ihre Verallgemeinerungen (Semi-Martingale)

  • Erneuerungs- bzw. Punktprozesse

  • Zeitreihen

Martingale, speziell Wienerprozesse bilden die Basis für stochastische Differentialgleichungen.

Grenzwertsätze der Wahrscheinlichkeitstheorie

Kern der Wahrscheinlichkeitstheorie sind Grenzwertsätze und mit ihnen Ungleichungen und Integraltransformationen.

  • Gesetze großer Zahlen sichern die Konvergenz („fast sicher“) von Zufallsfolgen. Die klassischen Varianten beziehen sich auf arithmetische Mittel unabhängiger Zufallsgrößen. Ergänzt werden diese Aussagen durch Gesetze vom iterierten Logarithmus bzw. Resultate über Wahrscheinlichkeiten großer Abweichungen.

  • das zentrale Grenzwertproblem besteht darin, Bedingungen für die Konvergenz von Summenverteilungen (Faltungen) herzuleiten. Klassisch wurde dieses Problem für euklidische Ergebnisräume behandelt. Abgerundet wird diese Theorie durch lokale Grenzwertsätze, asymptotische Entwicklungen und Berry-Esseen-Typ-Aussagen zur Konvergenzgeschwindigkeit.

  • die “steady-state-theorems“ für Markovprozesse stellen sicher, dass deren Verteilung sich stabilisiert. Auch hier existieren ergänzende Aussagen über die Konvergenzgeschwindigkeit.

Weitere Grenzwertsätze existieren in der  Extremwert- und der Erneuerungstheorie.


Literatur

Breiman, L.: Probability. Addison-Wesley 1968.

Billingsley, P.: Convergence of Probability Measures. New York et al. : Wiley 1968.

Brockwell, P.; Davis, R.: Time Series: Theory and Methods. Heidelberg et al.: Springer 1991.

Dembo, A.; Zeitouni, O.; Karatzas, I.: Large Deviation:r Techniques and Applications. Heidelberg et al. : Springer 1998.

Doob, J. L.: Stochastic Processes. Wiley 1990.

Feller, W.: An Introduction to Probability Theory and itsr Applications. New York et al. : Wiley Vol.1/2, 1958 resp. 1971.

Jacod, J.; Shiryaevm, A.: Limit theorems for stochasticr processes. Heidelberg et al.: Springer : 1987.

Metivier, M.: Semimartingales. de Gruyter 1982.

Neveu, J.: Discrete-parameter Martingales. Northr Holland 1975.

Petrov, V.: Limit Theorems of Probability Theory. Oxford : Oxford Science Publications 1995.

Resnick, S.: Extreme Values, Regular Variation and Pointr Processes. Heidelberg et al. :Springer 1987.

 

Hier weiterverbreiten

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert