MatheGuru Logo

t-Test

Der t-Test ist der Hypothesentest der t-Verteilung. Er kann verwendet werden, um zu bestimmen, ob zwei Stichproben sich statistisch signifikant unterscheiden. Meistens wird der t-Test (und auch die t-Verteilung) dort eingesetzt, wo die Testgröße normalverteilt wäre, wenn der Skalierungsparameter (der Parameter, der die Streuung definiert — bei einer normalverteilten Zufallsvariable die Standardabweichung) bekannt wäre. Ist der Skalierungsparameter unbekannt, wird er durch eine Schätzung aus dem Datensatz ersetzt.

{Index}

t-Test zum Mittelwertvergleich

t-Test am Beispiel mit verschiedenen PopulationenDer t-Test wird daher meistens eingesetzt um den Mittelwert zweier Gruppen zu vergleichen (Mittelwertvergleich). Hat man mehr als zwei Gruppen, muss statt dem t-Test ein anderes Testverfahren, wie beispielsweise eine einfache Varianzanalyse gerechnet werden.

Bei einem Mittelwertvergleich wird geprüft, ob zwei Gruppen aus der selben Population (auch Grundgesamtheit genannt) stammen (A, Abbildung rechts) oder aus zwei unterschiedlichen Populationen (B, Abbildung rechts).

Will ein Forscher beispielsweise untersuchen ob sein neues blutdrucksenkendes Medikament tatsächlich einen Effekt hat, müssen zwei Gruppen gebildet werden: eine Gruppe bekommt das neuartige Medikament, die andere ein Placebo (ein Pille die so aussieht wie das echte Medikament, aber keine Wirkung besitzt). Beide Gruppen umfassen 20 Probanden. In der Gruppe, die das neuartige Medikament bekommt, war der durchschnittliche Blutdruck 122,3 mit einer Standardabweichung von 11,2. Die Gruppe ohne Wirkstoff hat einen Blutdruck von 133,5 mit einer Standardabweichung von 13,7. Kommen nun beide Gruppen aus derselben Population (Fall A) oder ist der Unterschied zwischen beiden Gruppen groß genug, dass man behaupten kann, das beide Gruppen verschieden sind (Fall B)? Der t-Test beantwortet diese Frage.

Bei Fall A geht die Nullhypothese H0 davon aus, dass der Unterschied zwischen beiden Gruppen so gering ist, dass man davon ausgehen kann, dass beide Gruppen aus derselben Grundgesamtheit stammen (µ1 = µ2). Dies würde für den Forscher allerdings bedeuten, dass sein neues Medikament keinen statistisch nennenswerten Einfluss auf den Blutdruck ausübt. Fall B repräsentiert hingegen die Alternativhypothese H1: beide Mittelwerte sind so verschieden, dass sie höchstwahrscheinlich aus unterschiedlichen Populationen stammen (µ1 ≠ µ2). Anhand des t-Tests wird letztlich entschieden welche der beiden Hypothesen zu verwerfen ist.

Allerdings ist es auch möglich, dass beide Gruppen aus derselben Population stammen, auch wenn dies vielleicht unwahrscheinlich ist. Fall C zeigt, dass es auch möglich ist, dass beide Gruppen aus derselben Population stammen. Statistisch betrachtet ist dieser Fall zwar möglich, aber die Wahrscheinlichkeit (die Fläche unter der Kurve) hierfür ist nur sehr gering. Wenn wir die Alternativhypothese (µ1 ≠ µ2) annehmen, wird die Wahrscheinlichkeit höher sein, dass wir korrekt liegen, als wenn wir die Nullhypothese angenommen hätten — es ist aber keine Garantie dafür.

Anwendungsgebiete und Varianten des t-Tests

Generell unterscheidet man zwischen einen t-Test mit nur einer einzigen Stichprobe und einem mit zwei Stichproben. Am häufigsten wird der t-Test dort verwendet, wo eine kategorische dichotome Variable (z.B. Geschlecht) und eine Messvariable (z.B. Gewicht) vorhanden sind.

  • Der Einstichproben-t-Test überprüft, ob der Mittelwert einer Stichprobe signifikant von einem bekannten Erwartungswert (in der Nullhypothese spezifiziert) abweicht.
  • Der Zweistichproben-t-Test überprüft, ob der Mittelwert beider Stichproben gleich ist (Mittelwertsvergleich, siehe oben). Es wird daher überprüft, ob beide Stichproben aus derselben Population stammen. Hierbei wird angenommen, dass die Varianz beider Stichproben gleich ist. Ist dies nicht der Fall, wird der Welch-Test verwendet, eine Variante des t-Tests.
    Diese Art des t-Tests wird auch häufig ungepaarter t-Test (engl.: unpaired t-test) oder independent measures t-test genannt.
  • Der gepaarte t-Test (auch abhängiger t-Testpaired t-test und repeated measures t-test genannt) überprüft die Verschiedenheit der Mittelwerte zweier abhängiger (verbundener) Stichproben (z.B. bei Messwiederholungen). Am häufigsten wird diese Art t-Test bei einem Design verwendet, bei dem derselbe Faktor "vorher" und "nachher" gemessen wird. Die Paare müssen hierbei nicht zwangsläufig zeitlich getrennt sein, auch eine räumliche Trennung ist möglich: rechte und linke Seite, gesunder Arm und kranker Arm, über dem Meeresspiegel und darunter.
  • Der t-Test des Regressionskoeffizienten überprüft, ob sich die Regressionslinie signifikant von Null unterscheidet.

Standardabweichung und Standardfehler

Bevor wir uns näher mit dem t-Test beschäftigen können, werden wir einige Grundbegriffe definieren. Dies ist wichtig, da der t-Test einen bestimmten Wert (den t-Wert) berechnet, welcher wiederum die Anzahl an Standardfehlern wiedergibt, die unsere Stichproben vom einem Mittelwert von Null entfernt sind. Um dieses Konzept verstehen zu können, betrachten wir zunächst die Standardabweichung und ihr Verhältnis zum Standardfehler.

Normalerweise wissen wir nur sehr wenig über die Grundgesamtheit, aus der wir unsere Stichprobe entnommen haben. Allerdings können wir recht viel aus der Nullhypothese und der Stichprobe herleiten:

  1. Da die Nullhypothese immer davon ausgeht, dass es keinen Zusammenhang zwischen den abhängigen und unabhängigen Variablen in der Grundgesamtheit gibt, folgt daraus, dass es auch keinen Zusammenhang zwischen der Differenz der Messwerte der einzelnen Stichproben geben sollte. Daher sollte der Mittelwert der Differenzen von Messwerten aus beiden Stichproben im Schnitt Null sein.
  2. Wir können die Messwerte aus der Stichprobe verwenden, um die Standardabweichung der Grundgesamtheit zu schätzen. Um dies tun zu können, müssen wir einen Korrekturfaktor einführen. (Siehe auch den Artikel über den Unterschied zwischen Berechnungsverfahren für die Grundgesamtheit und die Stichprobe.) Die Korrektur von n − 1, die wir einführen ist zwar nur minimal, korrigiert aber stärker für kleinere Stichproben.

Standardfehler

Diese Formel gibt uns nur die Standardabweichung der Messwerte in der Grundgesamtheit. Was wir aber eigentlich wissen wollen, ist die Standardabweichung der Mittelwerte innerhalb der Grundgesamtheit. Dies ist der Standardfehler (engl. standard error of the mean, SEM) und er errechnet sich aus der Standardabweichung.

Immer wenn wir eine Stichprobe als Schätzer für eine Grundgesamtheit verwenden, ist die Wahrscheinlichkeit hoch, dass wir einen Fehler bei unserer Schätzung machen. Der Standardfehler schätzt diesen Berechnungsfehler, kann allerdings selbst nie genau berechnet werden, sondern wird auch immer nur geschätzt.

Dies gibt uns zwar eine Approximation des Standardfehlers der Stichprobenmittelwerte — wir müssen aber eigentlich den Standardfehler der Differenz des Mittelwerts zweier Stichproben berechnen, zumindest für einen Zweistichproben-t-Test für unabhängige Stichproben.

t-Verteilung, Freiheitsgrade und Standardnormalverteilung

Wie bereits erwähnt, ist der t-Wert die Anzahl von Standardfehler, die eine Differenz von Null entfernt sind. Modellhaft kann man sich auch die drei Formeln der drei verschiedenen t-Tests wie unten dargestellt vorstellen:

Standardnormalverteilung und t-Verteilung im VergleichDiese Formeln, in dieser vereinfachten Schreibweise, haben eine gewisse Ähnlichkeit mit der Formel zur z-Standardisierung. So wie ein z-standardisierter Wert die Anzahl an Standardabweichungen ist, die ein Wert von dem Mittelwert entfernt ist, so ist der t-Wert die Anzahl an Standardfehler, die ein Wert von Null entfernt liegt. Zusätzlich dazu, ähnelt die Form der t-Verteilung sehr der Form der Standardnormalverteilung – zumindest bei größeren Stichproben. Ist jedoch die Größe der Stichprobe klein, so ist die t-Verteilung flacher als die Standardnormalverteilung. Daher benötigt die t-Verteilung einen weiteren Parameter, der ihre Varianz (und damit auch ihre Form) verändert. Dies sind die Freiheitsgrade (englisch: degrees-of-freedom; häufig df abgekürzt).

Die Freiheitsgrade kann man sich als die Anzahl von Möglichkeiten vorstellen, die ein System, bei einem feststehenden Wert, unabhängig voneinander variieren kann. Wenn wir beispielsweise drei Zahlen a, b und c haben und deren Summe (100) kennen, dann wissen wir, dass wenn wir den Wert von zwei dieser Zahlen kennen, die dritte Zahl automatisch gegeben ist: a = 25, b = 30, dann muss c = 45 sein. Diese Gleichung hätte demnach zwei Freiheitsgrade.

Zweistichproben-t-Test

In der Praxis werden häufiger Zweistichproben-t-Tests durchgeführt. Dabei unterscheidet man zwischen dem gepaarten und dem ungepaarten t-Test.

Zweistichproben-t-Test für unabhängige Stichproben (ungepaarter t-Test)

Der t-Test für unabhängige Stichproben hat viele verschiedene Namen: ungepaarter t-Test, Zweistichproben-t-Test, homoskedastisher t-Test – in englischen Texten auch independent samples t-test, uncorrelated scores t-test und unrelated t-test genannt.

Oft müssen Wissenschaftler zwei Stichproben mit unterschiedlichen Gruppen von Individuen vergleichen, um zu schauen, ob der Mittelwert in einer Gruppe höher ist als der Mittelwert in der anderen. Die Einsatzgebiete sind zahlreich:

  1. In einem Design könnte man eine Experimentalgruppe mit einer Kontrollgruppe vergleichen, beispielsweise in einem Doppelblindversuch für ein neues Medikament.
  2. Eine Gruppe von Menschen mit einer Besonderheit wird verglichen mit einer Gruppe von Menschen, welche diese Besonderheit nicht aufweist.
  3. Die Anzahl des Auftretens eines Ereignisses in einer Gruppe verglichen mit einer anderen.

Die Grundvoraussetzungen für die Anwendung des ungepaarten t-Tests sind recht überschaubar: Zwei verschiedene Gruppen aus denen eine Stichprobe gezogen wird. Die Punktwerte sollten ähnlich verteilt sein; im Idealfall sind beide Verteilungen glockenförmig und symmetrisch. Jedoch ist eine merkliche Abweichung von diesem Ideal in der Regel immer noch ausreichend, damit gewonnene Erkenntnisse ihre Richtigkeit beibehalten.

Voraussetzungen

  • Zusätzlich zu der Annahme dass die Daten normalverteilt sind, wird auch davon ausgegangen, dass die Standardabweichung beider Gruppen (statistisch) gleich ist. Ist die Stichprobe sehr groß, muss nicht davon ausgegangen werden, dass die Population normalverteilt ist; der t-Test ist in diesem Fall ungefähr korrekt.

Definition

Der t-Wert bei zwei unabhängigen Stichproben (X1 und X2) wird wie folgt berechnet:

  • X ist die Zufallsvariable der Stichprobe
  • n ist die Stichprobengröße der jeweiligen Gruppe
  • ΣX² ist die Summe der quadrierten Messwerte
  • ΣX ist die Summe der Messwerte

Die Freiheitsgrade des Zweistichproben-t-Test für unabhängige Stichproben sind n1+n2 − 2.

Da die Stichprobengröße verwendet wird, um den Standardfehler zu schätzen, müssen wir noch einen Korrekturfaktor einfügen. Die Gleichung muss angepasst werden, um zu berücksichtigen, dass die Größe beider Stichproben nicht gleich sein muss. Der Term tut genau dies. 

In der relativ kompliziert anmutenden Formel oben steht nämlich nichts anderes als:

pooled vs. unpooled: Der Welch-Test

Der oben vorgestellte ungepaarte t-Test verwendet eine gepoolte Standardabweichung (pooled). Er wird verwendet, wenn die Varianz beider Gruppen etwas gleich ist (homoskedastisch). Dem gegenüber steht noch die ungepoolte Methode zur Berechung der Standardabweichung (unpooled), die wiederum verwendet wird, wenn die Varianz beider Gruppen zu unterschiedlich ist (heteroskedastisch). Diese Variante wird auch Welch-Test genannt. Aus der gepoolten/ungepoolten Standardabweichung berechnen sich dann wiederum die Standardfehler. Wir verwenden die gepoolte Berechnungsmethode, wie sie oben steht, in den meisten Fällen. Nur wenn wir davon ausgehen, dass σ1 ≠ σ2 oder wenn es speziell verlangt wird, verwenden wir die ungepoolte Standardabweichung, welche die Standardabweichungen der einzelnen Gruppen nach ihrem Stichprobenumfang gewichtet. Als einfache Faustregel kann gesagt werden, dass wenn die Varianz einer Gruppe mindestens doppelt so groß ist wie die Varianz der anderen, muss der Welch-Test gerechnet werden.

Sollten wir uns für die gepoolte Variante entscheiden, berechnen sich auch die Freiheitsgrade der t-Statistik anders, und zwar wie folgt:

Definition

Sowohl die gepoolte als auch die ungepoolte Standardabweichung sind identisch wenn n1 = n2oder s1 = s2. Der Begriff des poolings stammt daher, dass wir die Standardfehler zusammen berechnen. Ungepoolt bedeutet daher, dass die Standardfehler getrennt berechnet werden und erst später kombiniert werden (wie auch beispielsweise bei der Formel des Satzes des Pythagoras).

Da der gepoolte t-Test sehr anfällig für hetereogene Varianzen ist, gibt es auch Statistiker, die grundsätzlich immer den Einsatz des ungepoolten Verfahrens empfehlen. Wenn die Populationsvarianzen gleich sind, dann hat das gepoolte Verfahren Vorteile gegenüber dem ungepollten, und wird genauere Ergebnisse liefern. Wenn die Varianzen nicht gleich sind, kann es sein, dass das gepoolte Verfahren ungenauere Werte berechnet. 

Zweistichproben-t-Test für abhängige Stichproben (gepaarter t-Test)

Ein gepaarter t-Test wird meistens dann verwendet, wenn eine Messvariable und eine dichotome Variable existiert. In der Regel wird dieser t-Test gerechnet um einen Wert "vorher" (ohne Treatment) mit dem Wert "nachher" (mit Treatment) zu vergleichen.

Definition

  • XD ist der Mittelwert der Differenzen der gepaarten Mittelwerte
  • sD ist die Standardabweichung der Differenzen der gepaarten Mittelwerte
  • µ0 ist ein Wert gegen welchen wir testen (beispielsweise ein Referenzwert, oder, falls kein Wert bekannt ist, Null)
  • n ist die Größe einer der beiden Gruppen (beim abhängigen t-Test müssen beide Gruppen dieselbe Größe haben)

Die Freiheitsgrade des Zweistichproben-t-Test für abhängige Stichproben sind 2 · n − 2.

Voraussetzungen

  • Die Anzahl der Datenpunkte in beiden Stichproben muss identisch sein
  • Wenn die Daten aus einer Zufallsstichprobe stammen, kann der Zweistichproben-t-Test für abhängige Stichproben nicht verwendet werden, auch wenn die Anzahl der Datenpunkte beider Stichproben gleich sind
  • Auch wenn die Datenpunkte gepaart werden können, darf nicht immer der t-Test für abhängige Stichproben verwendet werden
  • Eine einfache Faustregel um zu entscheiden, ob der t-Test für unabhängige Stichproben verwendet werden darf ist, wenn ein Datenpunkt aus einer Gruppe mit jedem beliebigen Datenpunkt aus der anderen Gruppe gepaart werden kann. Dann muss ein anderer t-Test verwendet werden.
  • Eine weitere Faustregel, um zu entscheiden, ob ein gepaarter Zweistichproben-t-Test gerechnet werden darf, ist, wenn eine der beiden Gruppen eine unterschiedliche Anzahl an Datenpunkten haben kann, dann darf der t-Test für abhängige Stichproben nicht verwendet werden.
  • Die Differenzen der gepaarten Messwerte sind normalverteilt (vor allem, wenn n ≤ 30). Bei sehr großen Stichproben ist der t-Test annähernd korrekt, auch wenn die zugrunde liegende Population nicht normalverteilt ist.

Beispiel

MedikamentenstudieEs soll untersucht werden ob ein neuartiges Präparat besser ist als ein etabliertes. Statt die Medikamente in unterschiedlichen Gruppen von Menschen zu testen, kann das Experiment auch so aufgebaut sein, dass es nur eine einzige Stichprobe gibt, die sowohl das neue als auch das etablierte Medikament bekommt. Dazu wird jede Person zu Anfang in eine von zwei Gruppen zufällig eingeteilt: die eine Gruppe bekommt zuerst das neue Medikament, die andere zuerst das etablierte. Während dieser Zeit werden regelmäßig Blutkontrollen vorgenommen und mit einer Kontrollabnahme, die vor der Gabe der Medikamente abgenommen wurde, verglichen. Dann werden die Medikamente abgesetzt. Es werden weiterhin Blutkontrollen durchgeführt, um zu sehen, wann sich die Blutwerte wieder auf den Stand vor der Medikamentengabe normalisiert haben (dies bezeichnet man auch als washout-Phase). Ist dies geschehen, wird jeder Versuchsperson das Medikament gegeben, dass sie zuvor nicht bekommen hatten: diejenigen, die zuerst mit dem neuartigen Medikament behandelt wurden, bekommen nun das etablierte und umgekehrt. Diese Art Studiendesign, bei dem die Probanden beide Treatments erhalten und damit als ihre eigene Kontrollgruppe fungieren, heißt Crossover Studie.

Da es sich bei den Daten aus einer Crossover Studie um gepaarte Daten handelt, wird der gepaarte (abhängige) t-Test gerechnet. Statt die Daten in zwei gepoolten Gruppen zu analysieren, wird der Effekt des Medikaments auf jedes der Individuen einzeln betrachtet.

Einstichproben-t-Test

Der Einstichproben-t-Test (engl. one-sample t-testsingle sample t-test) wird dort angewendet, wo ein einziger Messwert für jede Versuchsperson aus einer einzigen Gruppe existiert und überprüft werden soll, ob der Mittelwert von einem bekannten Wert abweicht.

Wenn ein Professor beispielsweise wissen will, ob die Prüfungsergebnisse seiner Studenten dieses Semester von den Prüfungsergebnisse der Studenten des letzten Semesters abweichen, könnte er den Mittelwert von diesem Semester (X) mit dem aus dem vorigen (µ0) mit einem Einstichproben-t-Test vergleichen.

Im Prinzip funktioniert der Einstichproben-t-Test analog zum Zweistichproben-t-Test von abhängige Stichproben, nur dass angenommen wird, dass die zweite Stichprobe Null für jeden Messwert ist.

Definition

  • t ist der t-Wert, oder die Anzahl an Standardfehlern, die unsere Stichprobe von einem Mittelwert von Null entfernt ist.
  • µ0 ist der Wert, gegen den getestet wird
  • s ist die Standardabweichung der Stichprobe
  • n ist die Größe der Stichprobe

Die Freiheitsgrade des Einstichproben-t-Tests für unabhängige Stichproben sind n − 1.

t-Verteilung und t-Test / Hypothesen beim t-Test

Beim t-Test, wie bei allen Hypothesentests, wird erst einmal davon ausgegangen, dass die Nullhypothese korrekt ist. Die t-Verteilung repräsentiert die Verteilung der Differenzen um einen Mittelwert von Null. Warum aber? Nun, wieder unter der Voraussetzung, dass die Nullhypothese stimmt, wenn die Differenz der Mittelwerte zu weit von Null entfernt liegen. Um immer noch wahrscheinlich zu sein, wird die Nullhypothese abgelehnt und die Alternativhypothese angenommen.

Nach kritischem Wert

Um jetzt den eigentlichen t-Test durchführen zu können, muss zuerst der t-Wert (auch t-Statistik genannt) berechnet werden. Als nächstes wird daraus der kritische t-Wert berechnet. Der kritische t-Wert ist die Grenze, nach der wir entscheiden, ob wir die Nullhypothese annehmen oder ablehnen. Um ihn zu bestimmen, werden die Freiheitsgrade und das Signifikanzniveau α benötigt. Immer wenn der t-Wert weiter von Null entfernt ist als der kritische t-Wert, wird die Nullhypothese abgelehnt. Sowohl der t-Wert als auch der kritische t-Wert sind Werte auf der x-Achse des Graphen der t-Verteilung. Wenn der t-Wert größer ist als der kritischer t-Wert, daher, wenn der t-Wert weiter entfernt liegt als der kritische t-Wert, wird die Nullhypothese abgelehnt und die Alternativhypothese angenommen. Ist er hingegen kleiner als der kritische t-Wert, wird die Nullhypothese beibehalten.

zweiseitig linksseitig rechtsseitig
Kritischer Wert eines zweiseitigen t-Test Kritischer Wert eines einseitigen t-Test (links) Kritischer Wert eines einseitigen t-Test (rechts)
einseitig gepaart/ungepaart einseitig gepaart/ungepaart einseitig gepaart/ungepaart
   
  • µ0 ist ein Wert gegen welchen wir testen (beispielsweise ein Referenzwert)
  • alternative Schreibweisen sind in grau geschrieben.  

Nach P-Wert

Anstatt den kritischen t-Wert mit dem t-Wert zu vergleichen, können wir auch das Alpha-Niveau (α-Niveau) mit dem P-Wert vergleichen. Das Alpha-Niveau ist die Fläche unter dem Graphen, rechts von dem positiven kritischen t-Wert bzw. links von dem negativen kritischen t-Wert. Ist diese Fläche kleiner als das Alpha-Niveau, dann lehnen wir die Nullhypothese ab.

zweiseitig linksseitig rechtsseitig
Kritischer Wert eines zweiseitigen t-Test Kritischer Wert eines einseitigen t-Test (links) Kritischer Wert eines einseitigen t-Test (rechts)

Falls P ≤ α lehnen wir die Nullhypothese H0 ab; ansonsten lehnen wir H0nicht ab. Dabei entspricht α (Signifikanzniveau) meistens 5% bzw. 0,1% für statistisch hochsignifikante Ergebnisse.

t-Test Rechner

Anleitung: Einfach in dem Rechner einen der vier t-Tests auswählen und die jeweiligen Werte eintragen. Der Rechner berechnet sowohl den t-Wert als auch die Freiheitsgrade automatisch (beim ungepaarten t-Test noch zusätzlich die gepoolte Standardabweichung). Mit P wird berechnet wie wahrscheinlich es ist, einen solchen oder extremeren t-Wert zu erreichen (der t-Wert wird dabei in die t-Verteilung eingesetzt). Ist P ≤ α, dann wird unser Test signifikant und wir lehnen wir die Nullhypothese H0 ab.

Zusätzlich werden noch die kritischen t-Werte (t-Quantile) anhand der Freiheitsgrade berechnet. Der empirische t-Wert muss gleich groß oder größer als der kritische t-Wert aus der Tabelle sein, um auf dem entsprechenden Niveau signifikant zu sein.

Für weitere Informationen zu der Herleitung und Berechnungsweise, siehe den kompletten Artikel oben.

$\overline{X}_1$
Mittelwert der ersten Gruppe
$\overline{X}_2$
Mittelwert der zweiten Gruppe
$n_1$
Stichprobengröße der ersten Gruppe
$n_2$
Stichprobengröße der zweiten Gruppe
$s_1$
Standardabweichung der ersten Gruppe
$s_2$
Standardabweichung der zweiten Gruppe
Alle Berechnungen werden mit R Statistics durchgeführt

$$ {\Large {t}} \;=\; \displaystyle\frac{\overline{X}_1-\overline{X}_2}{s_p \cdot \sqrt{\displaystyle\frac{1}{n_1}+\frac{1}{n_2}}},\quad s_p = \sqrt\frac{(n_1-1)s^2_1+(n_2-1)s^2_2}{n_1+n_2-2} $$


Berechnungsergebnis (t-Statistik)

$t$
(t-Wert)
0
$\mathrm{df}$
(Freiheitsgrade)
0
$SE$
(Standardfehler, gepoolt)
0
$P$
(Wahrscheinlichkeit, zweiseitig)
0
$P$
(Wahrscheinlichkeit, einseitig)
0

Kritische t-Werte (t-Quantile)

P-Wert für zweiseitigen Vertrauensbereich
0,5 0,75 0,8 0,85 0,9 0,95 0,98 0,99 0,998
P-Wert für einseitigen Vertrauensbereich
0,75 0,875 0,9 0,925 0,95 0,975 0,99 0,995 0,999

$$ t = \frac{\overline{X}_D - \mu_0}{ \displaystyle\frac{s_D}{\sqrt{n}}},\qquad \overline{X}_D = \frac{1}{n}\cdot \sum \left ( X_1-X_2 \right ),\qquad s_D = \sqrt{ \frac{ \sum \big((X_1-X_2)-\overline{X}_D\big)^2 }{n-1} } $$


Berechnungsergebnis

$t$
(t-Wert)
0
$\mathrm{df}$
(Freiheitsgrade)
0
$P$
(Wahrscheinlichkeit, zweiseitig)
0
$P$
(Wahrscheinlichkeit, einseitig)
0

Kritische t-Werte (t-Quantile)

P-Wert für zweiseitigen Vertrauensbereich
0,5 0,75 0,8 0,85 0,9 0,95 0,98 0,99 0,998
P-Wert für einseitigen Vertrauensbereich
0,75 0,875 0,9 0,925 0,95 0,975 0,99 0,995 0,999

$$ {\Large {t}} \;=\; \displaystyle\frac{\overline{X}_1-\overline{X}_2}{\sqrt{\displaystyle\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}}}, \qquad \mathrm{df}_\mathrm{unpooled} = \frac{\left ( \displaystyle\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2} \right )^2}{\displaystyle\frac{\displaystyle\left (\frac{s_1^2}{n_1} \right )^2}{n_1-1}+\displaystyle\frac{\displaystyle\left (\frac{s_2^2}{n_2} \right )^2}{n_2-1}} $$


Berechnungsergebnis (t-Statistik)

$t$
(t-Wert)
0
$\mathrm{df}_\mathrm{unpooled}$
(Freiheitsgrade, nicht gepoolt)
0
$SE$
(Standardfehler, nicht gepoolt)
0
$P$
(Wahrscheinlichkeit, zweiseitig)
0
$P$
(Wahrscheinlichkeit, einseitig)
0

Kritische t-Werte (t-Quantile)

P-Wert für zweiseitigen Vertrauensbereich
0,5 0,75 0,8 0,85 0,9 0,95 0,98 0,99 0,998
P-Wert für einseitigen Vertrauensbereich
0,75 0,875 0,9 0,925 0,95 0,975 0,99 0,995 0,999

$$ t=\frac{\bar{X}-\mu_0}{ \displaystyle\frac{s}{\sqrt{n}} } $$


Berechnungsergebnis (t-Statistik)

$t$
(t-Wert)
0
$\mathrm{df}$
(Freiheitsgrade)
0
$P$
(Wahrscheinlichkeit, zweiseitig)
0
$P$
(Wahrscheinlichkeit, einseitig)
0

Kritische t-Werte (t-Quantile)

P-Wert für zweiseitigen Vertrauensbereich
0,5 0,75 0,8 0,85 0,9 0,95 0,98 0,99 0,998
P-Wert für einseitigen Vertrauensbereich
0,75 0,875 0,9 0,925 0,95 0,975 0,99 0,995 0,999