MatheGuru Logo

Stochastik

Abhängige und unabhängige Ereignisse
Zwei Ereignisse, A und B, sind stochastisch voneinander unabhängig, wenn und nur wenn die Wahrscheinlichkeit von A nicht durch B beeinflusst wird und umgekehrt.

Bedingte Wahrscheinlichkeit
Bedingte Wahrscheinlichkeit verknüpft zwei Ereignisse miteinander. Damit gibt die bedingte Wahrscheinlichkeit eines Ereignisses A die Wahrscheinlichkeit an, dass das Ereignis eintreten wird, vorausgesetzt das Ereignis B ist bereits eingetreten. Dies wird als P(A | B) geschrieben als "die bedingte Wahrscheinlichkeit von A, vorausgesetzt B" gelesen.

Bernoulli-Experiment
Ein Zufallsexperiment mit genau zwei möglichen Ergebnissen (Treffer oder Niete) nennt man Bernoulli-Experiment.

Bernoulli-Kette
Mit der Bernoulli-Kette lassen sich viele Aufgaben in der Stochastik, für die man normalerweise viel rechnen müsste, vereinfacht darstellen und somit auch schneller lösen. Die Bernoulli-Kette kann uns die Wahrscheinlichkeit für einen Bernoulli-Prozess sagen. Bei einem Bernoulli-Prozess gibt es nur zwei mögliche Ergebnisse: 1 = "das Ereignis tritt ein"; 0 = "das Ereignis tritt nicht ein". Wie wir sehen werden, können sehr viele Aufgabenarten als Bernoulli-Prozess gedeutet werden und damit mit der Bernoulli-Kette berechnet werden.

Bias
Schlecht konzipierte Befragungen oder Experimente haben meistens einen Bias  bzw.einen systematischen Fehler, der einen bestimmten Teil einer Population bevorzugt.

Binomialkoeffizient
Der Binomialkoeffizient findet vor allem Anwendung in der Stochastik aber auch in anderen Gebieten der Mathematik. Der Name entstammt der Tatsache, dass man mit Hilfe des Binomialkoeffizienten die Koeffizienten einer Binomialerweiterung einfach bestimmen kann. Der Binomialkoeffizient lässt sich auch durch das Pascalsche Dreieck errechnen.

Binomialverteilung
Die Binomialverteilung ist die wichtigste Verteilung in der Oberstufe. Vorraussetzung für die Verwendung der Binomialverteilung ist, dass a) das Experiment aus gleichen und von einander unabhängigen Versuchen besteht und b) die Versuche entweder als Ergebnis "Erfolg" oder "Misserfolg" haben dürfen.

Box-Whiskers-Plot
Das Box-Whisker-Plot (auch Boxplot oder zu deutsch Kastengrafik genannt) ist ein gebräuchlicher Diagrammtyp, der fünf Kennwerte (Minimum, Maximum, 1. Quartil, Median und 3. Quartil) umfasst. Der Name stammt aus dem Englischen und bezieht sich auf das Aussehen des Diagramms.

Chancen (Odds)
Die Wahrscheinlichkeit kann auf viele verschiedene Arten geschrieben werden. Odds sind eine Möglichkeit, dies zu tun.

Chi-Quadrat-Test
Der Chi-Quadrat-Test (χ²-Test) findet sich in vielen Studien wieder, in denen Häufigkeiten verglichen werden. Wärend beispielsweise der t-Test mindestens die Intervallskala voraussetzt, wird der Chi-Quadrat-Test für nomialskalierte (kategorische) Variablen verwendet. Der Chi-Quadrat-Test macht dann eine Aussage darüber, ob die beobachteten Häufigkeiten sich signifikant von denen unterscheiden, die man erwarten würde.

Effektstärke
Ähnlich wie p-Werte ein Maß dafür sind, wie wahrscheinlich ein beobachteter Wert ist, ist die Effektstärke ein Maß für die Stärke eines Treatments bzw. Phänomens. Effektstärken sind eine der wichtigsten Größen empirischer Studien. Sie können benutzt werden, um die Stichprobengröße für nachfolgende Studien zu bestimmen und die Stärke des Effektes über mehrere Studien hinweg zu vergleichen.

Ereignis
Die Ergebnisse eines Zufallsexperiments sind Möglichkeiten, wie das Experiment ausgehen kann. Ein Ereignis ist ein oder sind mehrere Ergebnisse zusammen genommen. Man kann auch das Ereignis als Teilmenge der Ergebnismenge sehen.

Ereignisraum
Im Ereignisraum befinden sich alle möglichen Ergebnisse eines Zufallsexperiments. Er wird wird meistens mit dem letztzen Buchstaben des griechischen Alphabets Omega Ω abgekürzt.

Erwartungswert
Würde ein Versuch unendlich oft wiederholt werden, so wäre der Durchschnittswert einer diskreten Zufallsvariable der Mittelwert der Ergebnisse des Versuchs. Dieser Mittelwert kann als Erwartungswert interpretiert werden, d.h., wir würden diesen Wert erwarten, wenn wir das Experiment unendlich lange durchführen würden.

Fehler 1. Art, Fehler 2. Art | Fehler beim Testen von Hypothesen
Jede Entscheidung die wir basierend auf einer Hypothese treffen, kann falsch sein. Meistens ist der Fehler der, dass wir vorschnell unsere Schlussfolgerung getroffen haben oder dass wir unvollständige Informationen aus unserer Stichprobe benutzt haben, um damit eine allgemeine Aussage über die Gesamtheit zu treffen.

Fehlerbalken
Fehlerbalken sind eine graphische Repräsentation der Varibilität von Daten. Sie geben an, wie genau eine Messung ist, oder anders gesagt, in welchem Bereich sich der tatsächliche Wert (ohne Messfehler) befinden könnte. Fehlerbalken geben den Fehler gewöhnlicherweise als Standardfehler, Standardabweichung oder 95%-Konfidenzintervall an. Sie werden in Diagrammen als vertikale Linien über und unter dem Messwert gezeichnet.

Geburtstagsproblem
Das Geburtstagsproblem ist ein bekanntes Beispiel dafür, wie man sich beim Schätzen von Wahrscheinlichkeiten irren kann. Das Geburtstagsproblem fragt,  wie hoch die Wahrscheinlichkeit ist, dass von k zufällig ausgewählten Menschen, mindestens zwei am selben Tag geburtstag haben.

Gegenereignis
Das Gegenereignis zu einem Ereignis A enthält alle Elemente, die nicht Teil von A sind. Man kann auch sagen, dass das Gegenereignis A genau dann eintritt, wenn das Ereignis A nicht eintritt. Ereignis und Gegenereignis schließen sich daher gegenseitig aus. Alle Elemente des Ereignisses und seines Gegenereignisses zusammen ergeben die Menge des Ergebnisraums Ω.

Gegenwahrscheinlichkeit
Die Gegenwahrscheinlichkeit ist die Wahrscheinlichkeit, dass das Gegenereignis A von A eintritt. Die Summe der Wahrscheinlichkeit und ihrer Gegenwahrscheinlichkeit ist immer 100% oder 1.

Gesetz der großen Zahlen
Wird ein Zufallsexperiment immer unter den selben Bedingungen durchgeführt, so nähert sich die relative Häufigkeit immer weiter der Wahrscheinlichkeit des Zufallsexperiments an.

Homoskedastizität, Heteroskedastizität
Homoskedastizität ist eines der Wörter in der Statistik, die am schwierigsten auszusprechen sind. Homoskedastizität bedeutet, dass die Varianzen verschiedener Gruppen gleich sind (griechisch: homos = gleich; skedannynai = streuen). Analog dazu, liegt Heteroskedastizität vor, wenn die Varianzen verschiedener Gruppen ungleich ist. Homoskedastizität ist eine wichtige Annahme vieler statistischer Verfahren.

Hypergeometrische Verteilung
Wenn eine Stichprobe ohne Zurücklegen entnommen wird, liefert die Binomialverteilung nur schlechte Ergebnisse, da die Versuche nicht stochastisch unabhängig voneinander sind. Je kleiner die Menge der Grundgesamtheit, desto ungenauer wird die Binomialverteilung werden. 

Interquartilsabstand
Im Verhältnis zu anderen Streuungsmaßen, wie beispielsweise Mittelwert, Median oder auch Modus, ist der Interquartilsabstand (engl. interquartile range, IQR) am wenigsten anfällig für Ausreißer. Daher ist der Interquartilsabstand neben der mittleren absoluten Abweichung einer der besten robusten Schätzer.

Kombination ohne Wiederholung
Bei der Kombination ohne Wiederholung (auch Kombination ohne Zurücklegen) geht es darum, k Objekte aus einer Gesamtheit von n zu entnehmen, ohne das entnommene Objekt vor dem nächsten Zug wieder zurückzulegen. Lotto ist hierfür ein Beispiel. Aus einer Gesamtheit von 49 Kugeln werden sechs gezogen und die gezogene Kugel kommt nicht zurück in die Trommel. Die Reihenfolge der gezogenen Kugeln ist auch irrelevant.

Korrelation, Korrelationskoeffizient
Korrelation ist ein Maß für den statistischen Zusammenhang zwischen zwei Datensätzen. Unabhängige Variablen sind daher stets unkorreliert. Korrelation impliziert daher auch stochastische Abhängigkeit. Durch Korrelation wird die lineare Abhängigkeit zwischen zwei Variablen quantifiziert.

Kovarianz
Kovarianz ist ein Maß für den linearen Zusammenhang zweier Variablen. Sie ist eng verwandt mit der Korrelation.

Laplace-Experiment
Ein Zufallsexperiment wird Laplace-Experiment genannt, wenn alle Versuchsausgänge gleich wahrscheinlich sind.

Mindestwahrscheinlichkeit
Die meistens Aufgaben zur Berechnung der Mindestwahrscheinlichkeit lassen sich auf zwei einfache Formeln reduzieren: zum einen kann berechnet werden, wie hoch die Wahrscheinlichkeit für mindestens einen Treffer ist, zum anderen, wie oft ein Experiment durchgeführt werden muss, damit eine gewisse Wahrscheinlichkeit erreicht wird.

Mittel, Durchschnitt und Lageparameter
Auch wenn wir bei dem Begriff Mittel sofort an das artithmetische Mittel denken, gibt es noch viele weitere Mittel, die je nach Aufgabe wesentlich genauere Resultate liefern können. In der Stochastik wird auch oft der Begriff Lageparameter für den Durchschnitt verwendet.

Multiplikationssatz
Mit dem Multiplikationssatz kann man die Wahrscheinlichkeit dafür berechnen, dass zwei Ereignisse eintreten werden. Ähnlich wie der Additionssatz die Wahrscheinlichkeit für zwei Ereignisse, die mit dem Wort "oder" verknüpft sind, berechnet, tut der Multiplikationssatz dies für zwei Ereignisse, die mit dem Wort "und" verknüpft wurden. Der Multiplikationssatz ist verwandt mit der Formel für bedingte Wahrscheinlichkeit.

Normalverteilung
Eine der wichtigsten stetigen Wahrscheinlichkeitsverteilungen, ist die Normalverteilung. Sie wurde von Abraham de Moivre und später Carl Friedrich Gauß analysiert. Der Beitrag von Gauß war so fundamental, dass die Normalverteilung auch oft Gauß-Verteilung genannt wird. Wegen ihrer charakteristischen Form wird sie auch manchmal einfach nur Glockenkurve genannt, auch wenn es viele Verteilungsfunktionen gibt, die einen glockenförmigen Graphen besitzen. Die Einsatzmöglichkeiten der Normalverteilung sind so zahlreich, dass sie als das "schweizer Taschenmesser" der Statistik bezeichnet werden kann.

Pfadregeln
Pfadregeln ermöglichen es uns, die Wahrscheinlichkeit von mehrstufigen Zufallsversuchen zu berechnen. Baumdiagramme werden dabei häufig benutzt um die Zufallsexperimente graphisch darzustellen. Die einzelnen Wegstücke des Baumdiagramms werden mit den Wahrscheinlichkeiten der Ergebnisse des entsprechenden Teilvorgangs beschriftet.

Poisson-Verteilung
Eine weitere wichtige Wahrscheinlichkeitsverteilung, neben der Binomialverteilung und der Normalverteilung, ist die Poisson-Verteilung, benannt nach dem französischen Mathematiker und Physiker Siméon Denis Poisson (1781 - 1840). Die Poisson-Verteilung wird vor allem dort eingesetzt, wo die Häufigkeit eines Ereignisses über eine gewisse Zeit betrachtet wird.

Quantil, Perzentil
Erinnern wir uns, dass man den Median berechnet, indem die relative Position der Daten betrachtet wurde. Ordnet man die Messergebnisse, dann ist der Median genau der Wert in der Mitte. Wenn wir beispielsweise wissen, dass der Median eines Tests 83 war, dann wissen wir, dass 50% aller anderen Ergebnisse kleiner als 83 sind und 50% größer. Der Median ist ein Beispiel für ein Perzentil (auch Prozentrang genannt), genauer gesagt: der Median das 50. Perzentil.

Satz von Bayes
Der Satz von Bayes ist einer der wichtigsten Sätze der Wahrscheinlichkeitrechnung. Er besagt, dass ein Verhältnis zwischen der bedingten Wahrscheinlichkeit zweier Ereignisse P(A | B) und der umgekehrten Form P(B | A) besteht.

Schiefe | Linksschief, Rechtsschief, Symmetrisch
Die Schiefe (englisch auch: skewness oder skew) gibt an, inwieweit eine Verteilungsfunktion sich zu einer Seite "neigt". Der Wert kann dabei positiv (Verteilungsfunktion tendiert nach rechts), negativ (Verteilungsfunktion tendiert nach links), null (Verteilungsfunktion ist symmetrisch) und undefiniert (0/0) sein. Jede nicht-symmetrische Verteilungsfunktion ist schief.

Signifikanz, Signifikanzniveau
Das Signifikanzniveau (auch Alphaniveau, geschrieben als α), gibt an, wie hoch das Risiko ist, das man bereit ist einzugehen, eine falsche Entscheidung zu treffen. Für die meisten Tests wird ein α-Wert von 0,05 bzw. 0,01 verwendet. 

Skalen, Skalenniveaus
Vor allem in empirischen Wissenschaften ist es von großer Wichtigkeit zu wissen, wie eine gemessene Variable skaliert ist. Das zugrundeliegende Skalenniveau einer Variable gibt Auskunft darüber, wie mit ihr gerechnet werden darf, wie man sie transformieren kann und welche Interpretationen zulässig sind. Die Theorie hinter der Verwendung von verschiedenen Skalenniveaus wurde 1946 von dem amerikanischen Psychologen Stanley Smith Stevens entwickelt.

Sphärizität
Sphärizität (auch Zirkularität) ist eine zusätzliche Annahme, die bei statistischen Verfahren mit Messwiederholung gemacht werden muss. Ist Sphärizität gegeben, so sind die Varianzen der Differenzen aller Messpaare (daher aller Stufen der unabhängigen Variablen) der Messungen gleich, ähnlich Homoskedastizität. Sphärizität kann gemessen werden, wenn drei oder mehr Stufen der unabhängigen Variablen existieren.

Standardabweichung
Die Standardabweichung ist ein Maß dafür, wie weit die einzelnen Zahlen verteilt sind. Genauer gesagt, gibt sie an, wie weit die einzelnen Messwerte im Durchschnitt von dem Erwartungswert (Mittelwert) entfernt sind. Der kleine griechische Buchstabe Sigma (σ) wird für die Standardabweichung (der Grundgesamtheit) benutzt.

Standardfehler
Der Standardfehler (englisch: standard error, meist SE abgekürzt) ist die Standardabweichung der Stichprobenverteilung einer Stichprobenfunktion. In der Regel bezieht sich der Standardfehler dabei auf den Mittelwert und wird meistens dann als standard error of the mean (SEM abgekürzt) bezeichnet.

t-Test
Der t-Test ist der Hypothesentest der t-Verteilung. Er kann verwendet werden, um zu bestimmen, ob zwei Stichproben sich statistisch signifikant unterscheiden. Meistens wird der t-Test (und auch die t-Verteilung) dort eingesetzt, wo die Testgröße normalverteilt wäre, wenn der Skalierungsparameter (der Parameter, der die Streuung definiert — bei einer normalverteilten Zufallsvariable die Standardabweichung) bekannt wäre. Ist der Skalierungsparameter unbekannt, wird er durch eine Schätzung aus dem Datensatz ersetzt.

t-Verteilung | Student's t-Verteilung
Wenn die Standardabweichung σ der Grundgesamtheit unbekannt ist, benutzt man die t-Verteilung (anstatt der Normalverteilung), vorrausgesetzt die nötigen Bedingungen sind erfüllt. Da σ unter reelen Bedingungen meistens nicht bekannt ist, sind die Informationen in diesem Artikel realitätsnah, da sie häufig genau so angewendet werden.

Verknüpfung von Ereignissen mit der Mengenschreibweise
 Zwei Ereignisse, A und B, innerhalb des Ereignisraums Ω, lassen sich auf viele verschiedene Arten miteinander verbinden. Jede Verknüpfung wird mit einem Diagramm grafisch veranschaulicht.

Wahrscheinlichkeit
Jeden Tag begegnen wir Aussagen über die Wahrscheinlichkeit von Ereignissen. Die Wahrscheinlichkeit, dass eine weitere Bank pleite geht, liegt bei 41,4%. Die US-amerikanische Bank Morgan Stanley sieht eine Wahrscheinlichkeit von 40%, dass das Bundesverfassungsgericht den Eilanträgen gegen den ESM stattgeben wird. Martin geht davon aus, dass er eine 50% Chance hat, die Ja-Nein-Frage richtig zu beantworten. All dies sind Beispiele, für Wahrscheinlichkeiten, mit denen wir täglich in Berührung kommen.

Zentraler Grenzwertsatz
Die Normalverteilung ist essentiell und allgegenwärtig in der modernen Statistik. Auch die meisten parametrischen statistischen Verfahren haben, streng genommen, Voraussetzungen, die mit der Normalverteilung zusammenhängen. Der Grund weshalb die Normalverteilung so präsent ist, liegt am zentralen Grenzwertsatz. Die Voraussetzung der Normalverteilung vieler statistischer Verfahren ist oft verwirrend für Anwender, da wir in der Regel im vorhinein keine Vorhersage über die Verteilung unserer Daten machen können, bevor wir sie erhoben haben. Stattdessen beschäftigt sich der zentrale Grenzwertsatz nicht mit der Verteilung der Variablen (also z.B. der Messwerte), sondern mit der Stichprobenverteilung.

Zufallsexperiment
Ein Zufallsexperiment ist ein Experiment, bei dem der Ausgang nicht vorraussagbar ist. 

Zufallsvariablen
In der Regel ist es der Zweck eines Zufallsexperiments oder einer Beobachtung, Daten, die durch Messungen bestimmt werden, zu erhalten. So werden beispielsweise die Menge an Niederschlag oder die Temperatur gemessen, um später Aussagen über zukünftige Wetterbedingungen zu machen. Zufallsvariablen (auch Zufallsgrößen genannt) ordnen jedem Ergebnis eines Zufallsexperiments eine reelle Zahl zu.

Mathematik für Schule und Studium