MatheGuru Logo

Korrelation, Korrelationskoeffizient


Korrelation ist ein Maß für den statistischen Zusammenhang zwischen zwei Datensätzen. Unabhängige Variablen sind daher stets unkorreliert. Korrelation impliziert daher auch stochastische Abhängigkeit. Durch Korrelation wird die lineare Abhängigkeit zwischen zwei Variablen quantifiziert.

Beispiele für stochastische, abhängige Ereignisse wären das Verhältnis von Temperatur und Eiskremekonsum oder das Verhältnis von der Nachfrage eines Produktes und dessen Preis.

Korrelationen sind wichtig, weil ein existierender korrelativer Zusammenhang auch Hinweise geben kann, wie sich Variablen in der Zukunft verhalten werden. Damit können Korrelationen Indizien für eine Vorhersage liefern. Diese Möglichkeit der Vorhersage gibt Forschern ein wichtiges Werkzeug.

Beispielsweise könnten Betreiber von Wasserwerken den Verbrauch von Wasser in Zusammenhang mit der Werbung großer Fernsehereignisse bringen. Sie würden feststellen, dass Wasser vermehrt in Werbepausen verbraucht wird, da Zuschauer zu diese Zeiten gehäuft die Toilette benutzen. In diesem Beispiel existiert tatsächlich ein kausaler Zusammenhang. Allerdings ist stochastische Abhängigkeit nicht ausreichend um diesen Zusammenhang auch tatsächlich zu beweisen. Korrelation impliziert keinen kausalen Zusammenhang.

Auch wenn Korrelation eine deskriptive Statistik ist, wird sie durch eine Reihe von Verfahren, wie z.B. partielle Korrelation, multiple Korrelation oder Faktorenanalyse, verfeinert. Es ist ein absolut unverzichtbares Werkzeug für viele Forschungsgebiete, insbesondere bei Fragebogenstudien.

Pearson Produkt-Moment-Korrelation


Wenn wir von Korrelation sprechen, sprechen wir meistens von der Pearson Produkt-Moment-Korrelation (auch Bravais-Pearson-Korrelation, Pearson-Korrelation oder einfach nur Korrelationskoeffizient genannt). Sie wird meistens durch den griechischen Buchstaben ρ (rho) abgekürzt, auch wenn vor allem in wissenschaftlichen Publikationen meist der Buchstabe r verwendet wird. Sie ist gleichzeitig auch die Grundlage vieler anderer Korellationskoeffizienten.

Der Korrelationskoeffizient von Pearson ist eng verwandt mit der Kovarianz. Die Kovarianz entspricht der Korrelation, wenn die Variablen vorher z-Standardisiert wurden. Dies wird mathematisch auch dadurch erreicht, dass die Kovarianz durch das Produkt der Standardabweichungen beider Zufallsvariablen geteilt wird.

Definition

  • X und Y sind zwei Messreihen bzw. Zufallsvariablen
  • cov(X, Y) ist die Kovarianz von X und Y
  • σ ist die Standardabweichung (da sich und aus dem Bruch herauskürzen, macht es keinen Unterschied, ob man die Standardabweichung der Stichprobe oder Grundgesamtheit verwendet)
  • E(x) ist der Erwartungswert der Variable x

Der Korrelationskoeffizient kann Werte zwischen -1 und 1 annehmen, wobei ein Korrelationskoeffizient von 0 bedeutet, dass es keinen Zusammenhang zwischen beiden Variablen existiert. Ein Korrelationskoeffizient von +1 beschreibt einen perfekten positiven Zusammenhang zwischen beiden Variablen, während eine Korrelation von -1 einen perfekten negativen (inversen) Zusammenhang (Antikorrelation) beschreibt. 

Der Korrelationskoeffizient beschreibt immer einen linearen Zusammenhang. Ist das Verhältnis zwischen beiden Variablen nicht linear, so wird der Zusammenhang, wie er von ρ beschrieben wird, eventuell nicht dem tatsächlichen Zusammenhang entsprechen. Sind beide Variablen stochastisch unabhängig, dann nimmt der Korrelationskoeffizient einen Wert von 0 an – das Gegenteil ist allerdings nicht wahr. Gehen wir beispielsweise davon aus, dass die Zufallsvariable X standardnormalverteilt ist und Y = X², also vollständig von X abhängt. Damit bestünde eine vollständige Abhängigkeit zwischen beiden Variablen, ihre Korrelation wäre nach Pearson Null. Allerdings gilt für den Sonderfall, dass X und Y bivariat normalverteilt sind, dass Unabhängigkeit gleich einer Null-Korrelation ist.

Korrelation ist auch eng verwandt mit Regression. Sind beide Variablen standardisiert, entspricht der Korrelationkoeffizient der Steigung der Regressionsgerade mit einem y-Achsenabschnitt von 0.

Vorraussetzungen

Wie die meisten statistischen Verfahren, müssen auch für die Berechnung des Korrelationskoeffizienten gewisse Vorraussetzungen erfüllt sein, damit er adäquate Ergebnisse liefern kann. Pearson Korrelationskoeffizient ist ein parametrisches Verfahren, was bedeutet, dass auch gewisse Anforderungen an die Verteilungseigenschaften der beiden Variablen gemacht wird. Der Korrelationskoeffizient hat allerdings nur zwei wirklich wichtige Vorraussetzungen:

  • Linearität. Der Zusammenhang zwischen beiden Variablen muss linear sein.
  • Endliche Varianz und Kovarianz. Ist die Varianz die Varianz einer oder beider Variablen endlich, wird die Produkt-Moment Korrelation keine zuverlässigen Ergebnisse liefern. Das gleiche gilt für die Kovarianz.
  • Skalenniveau. Der Korrelationskoeffizient liefert zuverlässige Ergebnisse wenn die Variablen mindestens intervallskaliert sind oder für dichotome Daten.

Will man zusätzlich noch die Signifikanz der Korrelation überprüfen, müssen weitere Vorraussetzungen erfüllt werden. Da die Signifikanz mittels einer t-Statistik überprüft wird, sind die Vorraussetzungen identisch mit denen eines t-Tests:

  • Normalverteilung
  • Homoskedastizität

Endliche Varianz und Kovarianz

Die Formel zur Berechnung von r basiert auf der Varianz und Kovarianz beider Zufallsvariablen. Endliche (Ko-)Varianz bedeutet, dass, wenn wir eine Stichprobe von beispielsweise N=100 haben, sich die Varianz bei einem ähnlichen Wert stabilisieren würde, wie bei einem höher Wert von N. Wäre die Varianz nicht endlich, würde sie sich für größere N immer weiter erhöhen.

mehrdimensional normalverteilte VariablenSind beide Variablen bivariat normalverteilt (wie die Variablen in der Abbildung rechts), ist endliche Varianz automatisch gegeben. In diesem Fall ist der Korrelationskoeffizient der Stichprobe auch gleichzeitig der Maximum-Likelihood Schätzer der des Korrelationskoeffizienten der Grundgesamtheit. Er ist damit asymptotisch erwartungstreu und effizient. Das bedeutet vereinfacht ausgedrückt, dass es dadurch unmöglich ist, eine genauere Schätzung der Korrelation zu machen als durch den Korrelationskoeffizienten. Für nicht-normalverteilte Stichproben bleibt der Korrelationskoeffizient annähernd erwartungstreu, aber eventuell nicht mehr effizient. Daher bleibt der Korrelationskoeffizient der Stichprobe ein beständiger Schätzer des Korrelationskoeffizienten der Grundgesamtheit, solange die Varianz und Kovarianz endlich sind (was durch das Gesetz der Großen Zahlen gewährleistet wird).

Deshalb liest man in einigen Büchern oft, dass eine der Vorraussetzungen des Korrelationskoeffizienten die bivariate Normalverteilung der Variablen sei. Dies ist nicht der Fall. Normalverteilte Variablen sind allerdings wichtig, wenn die Signifikanz mittels des t-Tests überprüft werden soll. Hier gelten dann ähnliche Voraussetzungen, wie für den t-Test als Hypothesentest.

Bei nicht gegebener endlicher Varianz sollte auf ein nicht-paramtrisches Varfahren zurückgegriffen werden, wie beispielsweise Spearman’s Rho oder Kendall’s Tau.

Linearität

Korrelation ist ein Maß für lineare Abhängigkeit. Kann eine Variable nicht als lineare Funktion der anderen geschrieben werden, so kann keine perfekte Korrelation von -1 oder +1 erreicht werden. Zwar existieren Möglichkeiten die Verteilungseigenschaften der Variablen durch Transformationen zu verändern, nur sollte man vorsichtig sein und diese Transformationen mit Bedacht anwenden. Eine zu rigorose Verwendung könnte zwar die Korrelation verbessern, allerdings zu Lasten der tatsächlichen Anwendbarkeit und Interpretierbarkeit der Befunde.

Die Annahme der Linearität ist am einfachsten visuell, mit einem Streudiagramm, zu überprüfen.

Normalverteilung & Homoskedastizität

Zwar müssen die beiden korrelierten Variablen selbst nicht bivariat normalverteilt sein um Pearson’s r berechnen zu können, will man allerdings später die Signifikanz überprüfen, müssen weitere Voraussetzungen erfüllt sein. Diese Voraussetzung entsprechen denen des t-Tests, da eine entsprechende t-Statistik verwendet wird, um die Signifikanz zu überprüfen.

Anwendungsmöglichkeiten

  • Der Überprüfung der Stärke des linearen Zusammenhangs zwischen zwei Variablen.
  • Korrelationen werden eingesetzt, um zu überprüfen, ob zwei Variablen unabhängig sind. Ist r=0, kann man von stochastischer Unabhängigkeit ausgehen. Der umgelehrte Fall bewahrheitet sich allerdings meist nicht, daher, wenn zwei Variablen stochastisch unabhängig sind, ist r nicht unbedingt Null.
  • Entwickelt man neue Skalen, Fragebögen und Instrumente, werden diese meist an bereits etablierten und anerkannten validiert. Eine hohe Korrelation zwischen dem neuen und dem bestehenden ist wünschenswert, da es darauf hindeutet, dass beide dasselbe Konstrukt messen.

Mathematische Eigenschaften

Die wahrscheinlich wichtigste mathematische Eigenschaft des Korrelationskoeffizienten ist, dass invariant gegenüber linearen Transformationen ist. Die Addition, Subtraktion und Multiplikation jedes Werts mit einem konstanten Wert stellt eine lineare Transformation dar. Durch eine lineare Transformation behalten die einzelnen Werte ihre relative Position in der Verteilung.

Diese Eigenschaft beruht darauf, dass die Variablen im Prinzip z-Transformiert werden und durch die Transformation zwar ihre Verteilungsform behalten aber dadurch einen Mittelwert von Null und eine Standardabweichung von Eins haben. Damit würde jede lineare Transformation aufgehoben werden.

Weitere wichtige Eigenschaften des Korrelationskoeffizienten sind:

  • r kann nur Werte von -1 bis +1 annehmen.
  • Bei einer perfekten Korrelation von -1 sind zwar die Beträge der z-Werte beider Variablen gleich, jedoch die Vorzeichen immer anders.
  • Ist eine der beiden Variablen eine Konstante, so ist der Korrelationskoeffizient nicht definiert, da eine Standardabweichung Null wäre.
  • Der Korrelationskoeffizient ist symmetrisch, was bedeutet, dass corr(X, Y) = corr(Y, X).

Interpretation des Korrelationskoeffizienten

Interpretation von r nach Cohen (1988)
kleiner Effekt |r| = .10
mittlerer Effekt |r| = .30
großer Effekt |r| = .50
Für die Interpretation sollte immer beachtet werden, dass r ein Maß für den linearen Zusammenhang ist. Es existieren viele Verschiedene Faustregeln und Empfehlungen für die Interpretation des Korrelationskoeffizienten. Zu den meistverwendeten zählen die Faustregeln von Cohen (1988). Auch wenn es verlockend erscheint, sich bedingungslos diesen Empfehlung anzuschließen, sollte immer auch das konkrete Anwendungsgebiet berücksichtigt werden. Oft existieren für ein Forschungsgebiet eigene Richtlinien zur Interpretation; oft sogar in Teilgebieten.

Auch sollte man vorsichtig sein, wenn Korrelationskoeffizienten nahe 1 sind. Solche Werte können darauf hinweisen, dass wir in Wirklichkeit dieselbe Variable gemessen haben. 

Verzerrungen der Produkt-Moment Korrelation

Der Korrelationskoeffizient kann erheblich durch die Eigenschaften der Stichprobe beeinflusst werden. Dadurch kann der Korrelationskoeffizient sowohl künstlich erhöht als auch gesenkt werden. Die wesentlichen Punkte, die verzerrend auf den Korrelationskoeffizienten einwirken, sind Ausreißer, eine Einschränkung der Variabilität und das Zusammenfassen heterogener Gruppen.

Ausreißer

Ausreißer bei KorrelationenAusreißer sind extreme Werte. Es gibt verschiedene komplizierte Methoden und Verfahren um Ausreißer zu erkennen und zu entfernen, allerdings wird oft einfach angenommen, dass Ausreißer solche Werte sind, die – je nach Quelle – mindestens 1,5 bis 3 Standardabweichungen von Mittelwert entfernt sind. Unabhängig von solchen einfachen Regeln sollte immer das entsprechende Streudiagramm betrachtet werden. 

Der Korrelationskoeffizient ist nicht robust gegenüber Ausreißern. Dies bedeutet, dass Ausreißer den Korrelationskoeffizienten sowohl künstlich erhöhen als auch künstlich senken können. In der Abbildung rechts sehen wir eine Punktewolke mit einer relativ geringen Korrelation (dargestellt durch die gestrichelte blaue Linie). Durch einen einzigen Ausreißer erhöht sich die Korrelation dramatisch (dargestellt durch die rote Linie).

Einschränkung der Variabilität

Einschränkung der VariabilitätEine Einschränkung der Variabilität tritt ein, wenn eine Variable ähnliche Werte aufweist. Dies passiert beispielsweise, wenn die Stichprobe nicht alle bzw. nur einen sehr eingeschränkten Ausschnitt der möglichen Ausprägungen einer Variablen umfasst. Damit repräsentiert die Stichprobe nicht ausreichend die Grundgesamtheit.

Nehmen wir als Beispiel an, dass ein Forscher den Zusammenhang zwischen Abiturnote und Bachelornote untersuchen will. Da der Forscher selbst Psychologe ist, will er sich das Leben einfacher machen und greift auf Archivdaten aus seinem Institut zurück. Seine Stichprobe umfasst damit allerdings nur Psychologiestudenten. Zusätzlich kommt hinzu, dass der Studiengang Psychologie einen NC von durchgehend 1,4 für den Untersuchungszeitraum hatte. Der Forscher will allerdings eine gültige Aussage für die gesamte Bevölkerung treffen.

Dies wird so nicht funktionieren. Die Stichprobe des Forschers ist in zweierlei Hinweis in ihrer Variabilität eingeschränkt: erstens besteht die Stichprobe nur aus Psychologiestudenten; zweitens umfasst die Stichprobe nur Studenten mit einer Abiturnote von 1,4 oder besser. Da die Abiturnote Werte von 1,0 bis 4,0 umfassen kann, allerdings hier nur Werte von 1,0 bis 1,4 annimmt, die Bachelornote allerdings wieder von 1,0 bis 4,0 reichen kann, ist die Variabilität zusätzlich eingeschränkt.

In der Regel führt eine Einschränkung der Variabilität zu einer Senkung der Korrelation.

Zusammenfassung von heterogenen Gruppen

Zusammenfassung von heterogenen GruppenOft kann es sein, dass zwei oder mehr Gruppen in eine Korrelation eingehen, die eigentlich getrennt untersucht werden müssen. Ein klassisches Beispiel hierfür sind Geschlechtsunterschiede. Es kann sein, dass ein Geschlecht beispielsweise besser auf ein Medikament anspricht als das andere. Auch gewisse andere physiologische oder psychologische Eigenschaften unterscheiden sich stark zwischen Geschlechtern. Somit hätte man nach den Auftragen beider Variablen eine Situation in der zwei (oder mehr) distinkte Gruppen (sogenannt Kluster) in dem Diagramm zu sehen sind (wie hier im Bild rechts: Eine Gruppe entspricht den Werten der Männer, die andere denen der Frauen). Berechnet man den Korrelationskoeffizienten für beide Geschlechter zusammen, stellt man fest, dass er wesentlich höher ist (rote Linie) als hätte man ihn getrennt berechnet (gestrichelte Linien).

Dieses Problem wird oft auch mittels partieller Korrelation umgangen, bei der mögliche Drittvariablen statistisch konstant gehalten werden. Damit wird in unserem Beispiel der Effekt des Geschlechts herausgerechnet und der Gesamtkorrelationskoeffizient wieder ähnlich der gestichelten Linien.

Die Zusammenfassung heterogener Gruppen kann sowohl zu einer Senkung als auch zu einer Erhöhung des Korrelationskoeffizienten führen.

Signifikanz des Korrelationskoeffizienten

Die Teststatistik der Korrelationskoeffizienten ist t-Verteilt. Getestet wird gegen die Nullhypothese dass rx,y = 0.

Definition

Für die Umrechnung eines Korrelationskoeffizienten r in eine t-Statistik und die Umrechnung einer t-Statistik in einen Korrelationskoeffizienten r gelten folgende Formeln:

  • t ist die Prüfgröße der t-Verteilung
  • r ist der Pearson Korrelationskoeffizient
  • N ist die Stichprobengröße, d.h. die Anzahl an Messpunkten

Getestet wird meistens beidseitig mit N − 2 Freiheitsgraden, auch wenn auch einseitig (je nach Hypothese) getestet werden kann. Ein zweiseitiger Test würde dabei Aufschluss darüber geben, ob r größer oder kleiner als 0 ist; ein einseitiger Test würde die Richtung mit einbeziehen (= r ist größer bzw. kleiner als 0).

Korrelation bei kleinen Stichproben

Stichprobengröße80% Grenzen für r
5 -.69 bis .69
15 -.35 bis .35
25 -.26 bis .26
50 -.18 bis .18
100 -.13 bis .13
200 -.09 bis .09
Die Stichprobengröße hat maßgeblich einen Einfluss auf die Größe des Korrelationskoeffizienten. Korrelationen für kleine Stichproben sind nur wenig aussagekräftig.

  • Hohe Korrelationen sind einfacher in kleineren Stichproben zu erhalten, als in größeren. Dies erklärt sich damit, dass der Fehler in kleineren Stichproben größer ist als in größeren.
  • Hohe Korrelationen werden oft in kleinen Stichproben nicht statistisch signifikant sein, auch wenn dieselbe (oder sogar eine kleinere) Korrelation in einer größeren Stichprobe signifikant geworden wäre.
  • Sogar praktisch kaum relevante Korrelationen von beispielsweise r = .03 werden bei größeren Stichproben signifikant

In der Tabelle (rechts) kann man sehen in welches Intervall 80% der Korrelationen fallen, wenn die tatsächliche Korrelation der Grundgesamtheit 0 ist.

Interaktives Beispiel

Das interaktive Beispiel soll veranschaulichen, wie sich die Größe einer zufälligen Stichprobe auf die Höhe des Korrelationskoeffizienten auswirken kann. Je größer die Stichporbe, desto höher die Wahrscheinlichkeit, dass r nahe Null liegt. Selbst bei einer für viele Studien üblichen Stichprobengröße von 30 oder 40 finden sich immer noch recht häufig mittlere Korrelationen. Die Einteilung nach kleiner, mittlerer und großer Korrelation erfolgt nach den Faustregeln von Cohen (1988). 

Mittelwert mehrerer Korrelationen berechnen

Oft ist es notwendig, den Mittelwert aus verschiedenen Korrelationen zu berechnen. Es ist wichtig, zu bemerken, dass man nicht einfach das arithmetische Mittel der verschiedenen Korrelationen berechnen darf. Stattdessen muss man eine Fisher z-Transformation durchführen. Dabei werden die Korrelationen zuerst z-transformiert (was nichts anderes ist, als der inverse hyperbolische Tangens), diese Werte können dann gemittelt werden. Zuletzt wird die Transformation rückgängig gemacht indem der hyperbolische Tangens des Mittelwerts genommen wird.

r z-transformiert .478

.445
(.443)

.452 .487
.379 .399
.528 .587
.413 .439

In der letzten Spalte der Tabelle sieht man den Mittelwert der Korrelationen aus der ersten Spalte. In Klammern unterhalb ist der Wert den wir erhalten hätten, wenn wir einfach nur den Mittelwert der Korrelationen berechnet hätten.

Rangkorrelationskoeffizienten


Rangkorrelationskoeffizienten ermitteln, inwieweit ein Anstieg einer Variablen auch mit einem Anstieg einer anderen Variablen einhergeht, ohne dass das Verhältnis beider Variablen linear sein muss. Steigt eine Variable, während eine andere fällt, wird der Rangkorrelationskoeffizient negativ sein. Die Interpretation der Rangkorrelationskoeffizienten erfolgt somit analog zu der des Korrelationskoeffizient r.

Manche Autoren empfehlen Rangkorrelationskoeffizienten als Alternativen zu Peasons Produkt-Moment-Korrelation, meist entweder um die Berechnung zu vereinfachen oder wegen einer vermeintlich besseren Robustheit bei Verletzungen von Normalverteilungsannahmen. Allerdings fußen diese Empfehlungen nur auf schwachem mathematischen Fundament, da Rangkorrelationskoeffizienten eine andere Art Zusammenhang messen. Damit sind sie weniger eine Alternative als viel mehr eine andere Klasse, die auch eine andere Art Zusammenhang misst (Kendall, 1955). Ebenfalls zu bedenden ist, dass durch die Rangtransformation viel Information verloren geht.

Zwei bekannte Rangkorrelationskoeffizienten sind Spearman’s Rangkorrelationskoeffizient (auch Spearman’s Rho genannt) und Kendall’s Tau.

Spearman’s Rho

Spearman’s ρ (gesprochen Rho, auch manchmal als rs geschrieben) ist ein nicht-parametrisches Verfahren, um den Zusammenhang zwischen zwei Datensätzen zu messen. ρ kann Werte zwischen -1 und +1 annehmen. Existieren keine Werte doppelt, so würde ein perfekter Zusammenhang von +1 bzw. -1 bestehen, wenn eine Variable eine monotone Funktion der anderen ist (daher, wenn eine Funktion steigt, steigt auch die andere und umgekehrt).

Spearman’s Rho ist nichts anderes als Pearson’s Produkt-Moment Korrelation angewendet auf rangtransformierte Daten.

Definition

Kendall’s Tau

Kendalls τ (Tau) basiert auf der Idee von konkordanten und diskordanten Rängen. Es vergleicht alle möglichen Kombinationen von Wertepaaren untereinander. Da es damit auf dem Vergleich aller Ränge basiert, gilt es unter vielen Statistikern als das überlegenere Maß (gegenüber Spearman’s Rho). Außerdem besitzt es bessere Verteilungseigenschaften und ist in der Regel einfacher zu interpretieren.

Definition

  • N ist die Anzahl an Paaren

Spearman vs. Kendell vs. Pearson

XY
0 1
10 100
100 550
105 3500
Um die Unterschiede zwischen der Produkt-Moment-Korrelation und den Rangkorrelationskoeffizienten von Spearman und Tau zu betrachten, nehmen wir die beiden Messreihen X und Y (rechts) als Beispiel.

Wie man sehen kann, steigt der Wert von X und Y von einem Mal zu nächsten immer weiter an. Damit besteht ein Zusammenhang in den Daten und zwar solch einer, das ein Anstieg von X immer von einem Anstieg von Y begleitet wird. Damit haben wir einen perfekten Rangkorrelationskoeffizienten: sowohl Spearman’s Rho als auch Kendall’s Tau haben einen Wert von 1, wohingegen Pearsons Produkt-Moment-Korrelation bei .713 liegt. Dies bedeutet in Falle von Pearson, dass einige Punkte nicht perfekt auf einer Linie liegen, oder anders ausgedrückt: Ein Anstieg von X geht verhältnismäßig nicht mit einem ebenso gleichen Anstieg von Y einher, auch wenn beide ansteigen.

Auch wenn dieses Beispiel nahe legen könnte, dass die Rangkorrelationskoeffizienten von Spearman und Tau vergleichbare Ergebnisse liefern, so ist dies in der Regel nur bei einer perfekten Rangkorrelation, wie hier im Beispiel, der Fall (Kendall, 1955).

Partielle Korrelation


Menschen unterscheiden sich auf viele verschiedene Weisen. Wenn eines dieser Unterschiede mit der Kriterium stark korreliert, kann man sich nicht sicher sein, dass der Korrelationskoeffizient korrekt ist. Partielle Korrelation erlaubt es uns, die Berechnung des Korrelationskoeffizienten so durchzuführen, als ob diese Drittvariablen konstant wären. Die resultierende Korrelation macht damit eine Aussage über eine Situation in der alle Personen in einem Datensatz denselben Wert auf einer Variablen hätten. Partielle Korrelation findet man vor allem in Studien, in denen steht, dass für eine oder mehrere Variablen kontrolliert wurde.

Man unterscheidet dabei zwischen partieller Korrelation und semipartieller Korrelation.

  • Partielle Korrelation. Partielle Korrelation kontrolliert beide Variablen für eine Drittvariable.
  • Semipartielle Korrelation. Oft will man allerdings den Einfluss einer Variablen nicht aus beiden, sondern nur aus einer Variablen statistisch herausrechnen. Dies geschieht mittels semipartieller Korrelation.

Untersucht man beispielsweise den Zusammenhang zwischen Körpergröße und Haarlänge, wird man eine gewisse Korrelation feststellen. Kontrolliert man allerdings für Geschlecht, wird dieser Zusammenhang höchstwahrscheinlich verschwinden, da Frauen in der Regel längere Haare haben, allerdings von der Statur her kleiner sind.

Partielle Korrelation ist ein wichtiges Werkzeug, dass bei vielen Studien – vor allem klinischen und pharmakologischen Trials – angewendet wird. Oft werden bei solchen Studien zusätzlich dutzende demografische (Alter, Geschlecht) und andere Variablen erhoben, unter denen später einige ausgewählt werden, für die dann kontrolliert wird. Forscher wollen damit sicherstellen, dass der Zusammenhang nicht durch den Einfluss einer anderen vermittelt wurde. Allerdings ist auch Vorsicht geboten: Variablen sollten mit Bedacht ausgewählt werden. Kontrolliert man für zu viele Variablen, erhöht man die Gefahr der Überanpassung (engl. overfitting)!

Bestimmtheitsmaß R²


Siehe hierzu auch den Hauptartikel Effektstärke.

Während der Korrelationskoeffizient ein Maß für die Beziehung zwischen zwei Variablen ist, gibt das Bestimmtheitsmaß (auch Determinationskoeffizient genannt) Aufschluss darüber, wie viel Varianz durch die Regression erklärt wird. Damit ist es ein Maß für den Goodness-of-Fit des statistischen Modells, da es Aufschluss darüber gibt, wie gut die durch die Korrelation gebildete Gerade den Messungen entsprechen. Er wird einfach berechnet indem man den Korrelationskoeffizienten r quadriert. Der Determinationskoeffizient ist dadurch immer positiv und nimmt Werte zwischen 0 und 1 an.

Korrelation und Kausalität


„Korrelation heißt nicht Kausalität“ ist ein Satz den jeder Teilnehmer einer Statistikvorlesung früher oder später schon einmal gehört hat. Und ja: Korrelation alleine impliziert auch keine Kausalität. Allerdings ist das nicht die ganze Wahrheit...

In vielen populärwissenschaftlichen Magazinen liest man oft, dass eine Größe eine andere bedingt. Dies dient vor allem dazu, dem unerfahrenen Leser eine einfach merkbare Schlagzeile zu liefern. Liest man sich allerdings die Originalpublikation durch, sind die beteiligten Forscher meist wesentlich konservativer, was ihre Forschung angeht – und das aus guten Grund.

Kriterien für Kausalität

Wenn eine Korrelation keinen Beleg für Kausalität darstellt, wie ließe sich dann überhaupt beweisen, dass eine Variable eine andere ursächlich beeinflusst? Vor allem in der Medizin suchen Forscher bereits seit Jahrzehnten nach Kriterien für Kausalität. Es gibt einige Ansätze, aber zu den einflussreichsten und heute noch angewendeten gehören die neun Kriterien von Hill (1965).

Bradford-Hill Kriterien

  1. Stärke der Assoziation (Effektstärke): Eine geringe Effektsstärke bedeutet nicht, dass keine Beziehung zwischen den Variablen existiert, aber bei einer größeren Effektstärke ist eine kausale Beziehung wahrscheinlicher.
  2. Konsistenz (Reproduzierbarkeit): Übereinstimmende Befunde, festgestellt durch verschiedene Personen an verschiedenen Orten mit verschiedenen Stichproben, verstärkt die Wahrscheinlichkeit eines Effekts.
  3. Spezifität: Kausalität ist wahrscheinlich, wenn es keine andere bessere Erklärung für das Auftreten des Ereignisses gibt. Je spezifischer die Beziehung zwischen einem Faktor und einem Effekt ist, desto höher die Wahrscheinlichkeit eines kausalen Zusammenhangs.
  4. Zeitbedingtheit: Die Ursache muss der Wirkung vorausgehen (wenn erwartet wird, dass es eine Verzögerung nach der Ursache und dem erwarteten Effekt gibt, dann muss der Effekt nach der Verzögerung eintreten).
  5. Dosis-Wirkungs-Beziehung: Größere Exposition sollte gewöhnlich auch zu einer größeren Auftretenshäufigkeit des Effekts führen. In einigen Fällen jedoch kann bereits die bloße Anwesenheit eines Faktors einen Effekt auslösen. In anderen Fällen wird der umgekehrte Fall beobachtet: die Anwesenheit eines Faktors reduziert die Auftretenshäufigkeit.
  6. (Biologische) Plausibilität: Ein plausibler Mechanismus zwischen Ursache und Wirkung ist hilfreich (allerdings fügte Hill auch hinzu, dass das Verständnis von Ursache und Wirkung durch unseren aktuellen Wissensstand begrenzt sein kann).
  7. Koheränz: Die Stimmigkeit zwische epidemiologischen- und Laborbefunden erhöht die Wahrscheinlichkeit eines Effekts. Hill fügte allerdings hinzu, dass das Fehlen eines Laborbefundes nicht einen epidemiologischen Effekt auf die Beziehung ungültig machen kann.
  8. Experiment: Es ist wahrscheinlicher, dass eine Beziehung kausal ist, wenn sie experimentell verifiziert werden kann.
  9. Analogie: Der Effekt ähnlicher Faktoren darf berücksichtigt werden.

Allerdings sollten diese Kriterien vielmehr als Faktoren betrachtet werden, denn auch wenn eine positive Korrelation als Grundlage für weitere Forschung verwendet werden kann, sollte niemals alleinig aus einer Korrelation auf einen kausalen Zusammenhang geschlossen werden.

Korrelation ist nicht gleich Kausalität

Die Warnung, dass Korrelation nicht gleich Kausalität ist, soll uns daran erinnern, dass ein Korrelationskoeffizient auch einen nicht-kausalen Zusammenhang oder eine Beziehung charakterisieren kann. Ein großer Korrelationskoeffizient deutet nicht notwendigerweise auf einen kausalen Zusammenhang hin. Auf der anderen Seite kann man auch nicht ohne Weiteres  behaupten, eine notwendige, wenn auch nicht hinreichende Bedingung für Kausalität ist Korrelation. Die Aussage, dass Kausalität nicht ohne Korrelation auftreten kann, ist nicht notwendigerweise wahr. Es gibt viele mögliche Gründe für mangelnde Korrelation in einer kausalen Beziehung (z.B. Ausreißer, nicht-lineare Beziehungen oder inadäquate Stichproben).

Ist man nun zufrieden mit der Stärke der Beziehung und der Dosis-Wirkungs-Beziehung, besteht der nächste Schritt darin, das genaue Muster des Verhältnisses zu untersuchen. Zuerst würde man die Zeitbedingtheit der Daten untersuchen. Wenn die Ursache nicht immer vor der Wirkung eintritt, könnte es sich um einen Rückkopplungseffekt handeln. Wenn Ursache und Wirkung nicht simultan gemessen werden, könnte die Zeitbedingtheit verzerrt sein.

Welches Muster haben die Variablen zueinander? Diese Frage kann man oft mit einem Blick auf die Diagramme beantworten. Es ist gleichzeitig ein relativ schwieriger Schritt, da nicht alle Beziehung offensichtlich sind. Die Beziehung könnte beispielsweise auf einem Rückkopplungseffekt beruhen, aber auch auf Mediation, Supression, einem Schwellenwert oder der Kombination mehrerer Faktoren.

Betrachtet man die übrigen Kriterien, könnte man argumentieren, dass Plausibilität und Kohärenz die Kriterien darstellen, die am einfachsten zu erfüllen sind. Meistens findet sich für so gut wie jedes Phänomen eine zufriedenstellend plausible Erklärung.

Analogie ist schwieriger nachzuweisen, vor allem weil ein Phänomen zwar von außen gleich aussehen mag, aber vollkommen verschiedene Hintergründe haben kann. Man sollte sich nicht alleine auf Spezifität verlassen, da Spezifität anders ausgedrückt auch bedeuten kann, dass es keine andere (bessere) Erklärung gibt. Auf der anderen Seite kann es sein, dass es tatsächlich keine andere Erklärung gibt (vgl. Ockhams Rasiermesser).

Wenn man allerdings wirklich Kausalität nachweisen will, sind die vielleicht wichtigsten Kriterien Reproduzierbarkeit und ein experimenteller Beleg. Ein Experiment erfordert ein entsprechendes Forschungsdesign, was ein Modell für die Beziehung der Variablen erstellt,  sowie Hypothesen entsprechend diesem Modell formuliert, Möglichkeiten für die Testung dieser Hypothesen bereitstellt und mögliche Störfaktoren berücksichtigt.

Wenn die Beziehung experimentell nachgewiesen werden kann, vor allem dann, wenn sie durchgängig von anderen Wissenschaftlern ebenfalls nachgewiesen werden konnte, erhärten sich die Argumente, die eine kausale Beziehung implizieren. Allerdings ist zu beachten, dass dies meist mit einem erheblichen Ressourcenaufwand einhergeht und auch nicht jede Beziehung experimentell nachgewiesen werden kann.

Zuletzt sollte man noch bedenken, dass Hills Kriterien für die Medizin entwickelt wurden. Daher sind seine Kriterien stark durch diese Disziplin geprägt und nicht immer auf andere Wissenschaften anwendbar. Oft beginnen wissenschaftliche Erkenntnisse mit Beobachtungen, viele davon auch durch Zufall. Diese Beobachtungen werden auf plausible, kohärente Muster untersucht. Viele medizinische und pharmakologische Hypothesen können so überprüft werden. Auch etliche psychologische und einige biologische Hypothesen können so überprüft werden. Naturphenomäne oder Ereignisse wie der Urknall können beispielsweise nicht so nachgewiesen werden. Manchmal sind die Bedingungen einfach einmalig.

Korrelation und Linearität


Wie bereits erwähnt, misst der Korrelationskoeffizient die Stärke eines linearen Zusammenhangs zwischen zwei Variablen. Aber der Wert von r charakterisiert nicht die genaue Art des Zusammenhangs oder das Aussehen des Punktdiagramms beider Variablen.

Anscombe (1973) erstellte vier verschiedene Datensätze (unten), die alle dieselbe Korrelation von r = .816 haben, allerdings vollkommen anders aussehen:

Anscombe #1 Anscombe #2

Die Variablen im ersten Diagramm scheinen normalverteilt zu sein. Ein Diagramm wie dieses würde man erwarten, wenn man davon ausgeht, dass beide Variablen (etwa) normalverteilt sind.

Während ganz klar auch hier ein Zusammenhang zwischen beiden Variablen besteht, ist dieser nicht linear. Hier sagt uns die Produkt-Moment-Korrelation zwar das ein Zusammenhang besteht, aber nur so weit, wie er sich linear abbilden lässt.

Anscombe #3 Anscombe #4

In diesem Diagramm besteht eine perfekte lineare Beziehung zwischen beiden Variablen, bis auf einen einzigen Ausreißer. Dies zeigt wie anfällig der Korrelationskoeffizient für das Vorhandensein von Ausreißern sein kann.

In diesem Beispiel wird gezeigt, wie ein Ausreißer den Korrelationskoeffizienten künstlich erhöhen kann, auch wenn die Beziehung zwischen beiden Variablen nicht linear ist.

 

Andere Korrelationen


Neben dem Pearson-Produkt-Moment-Korrelationskoeffizienten r existieren noch etliche weitere Korrelationskoeffizienten und Zusammenhangsmaße. Die meisten hiervon sind Sonderfälle der Pearson-Produkt-Moment-Korrelation. Die Tabelle (unten) zeigt, wann welcher Koeffizient berechnet werden soll, abhängig von dem Skalenniveau der beteiligten Variablen.

Wann welchen Korrelationskoeffizienten einsetzen (Tabelle)?

   IntervallskaliertOrdinalskaliertNomialskaliert
dichotompolytom
künstlichnatürlich
Intervallskaliert
  • Pearson Produkt-Moment-Korrelation
  • Spearman’s Rho
  • Kendall’s Tau
  • polychorische Korrelation
  • punktbiseriale Korrelation
  • biseriale Korrelation
  • punktbiseriale Korrelation
  • η-Koeffizient
Ordinalskaliert
  • Spearman’s Rho
  • Kendall’s Tau
  • polychorische Korrelation
  • biseriale Rangkorrelation
  • polychorische Korrelation
  • biseriale Rangkorrelation
  • Cramér’s V
Nomialskaliert
(künstlich dichotom)
  • Punkttetrachorische Korrelation (φ-Koeffizient)
  • Tetrachorische Korrelation
  • Punkttetrachorische Korrelation (φ-Koeffizient)
  • v-Koeffizient
  • Cramér’s V
Nomialskaliert
(natürlich dichotom)
  • Punkttetrachorische Korrelation (φ-Koeffizient)
  • Yule’s Y
  • Cramér’s V
Nomialskaliert
(polytom)
  • Cramér’s V

 Abgewandelt nach Leonhart (2004)

Punktbiseriale Korrelation

Die Punktbiserials Korrelation (rpb) ist ein Sonderfall der Pearson-Produkt-Moment Korrelation. Sie wird verwendet, wenn eine Variable dichotom ist (sowohl natürlich dichotom als auch künstlich dichotomisiert). In der Regel wird allerdings nicht empfohlen, Variablen künstlich zu dichotomisieren. Dichotomisiert man dennoch eine Variable künstlich, die eigentlich eine zugrundeliegende Kontinuität besitzt, sollte man in Erwägung ziehen, eventuell eher die biseriale Korrelation zu verwenden.

Die Punktbiseriale Korrelation erfordert es, dass die dichotome Variable mit den Werte 0 und 1 kodiert wird.

Definition

  • yx=0 ist der Mittelwert aller y-Werte für die x = 0
  • yx=1 ist der Mittelwert aller y-Werte für die x = 1
  • sx ist die Standardabweichung aller x-Werte
  • nx=0 ist die Anzahl aller Werte, für die x = 0 ist
  • nx=1 ist die Anzahl aller Werte, für die x = 1 ist

Tetrachorische Korrelation

Wenn man zwei künstlich dichotome Merkmale hat, die aus normalverteilten Variablen stammen, kann man die tetrachorische Korrelation rtet berechnen. Allerdings haben Simulationsstudien gezeigt, dass rtet in der Regel relativ robust gegenüber Verletzungen der Normalvertielungsannahme ist (Salking, 2010). Die tetrachorische Korrelation kann Werte zwischen -1 und 1 annehmen, wobei die Interpretation analog zu der des Korrelationskoeffizienten erfolgt.

Die tetrachorische Korrelation wird gerne bei der Faktoranalyse statt r verwendet, vor allem wenn die zu untersuchenden Variablen nicht intervallskaliert sind. Hier wird die tetrachorische Korrelation auch meistens der Chi-Korrelation vorgezogen, da sie ein geringeres Bias für extreme p-Werte hat. In der Regel gilt dabei: rtet > r.

Definition
 X=0X=1
Y=0 a b
Y=1 c d

  • a, b, c und d sind die Anzahl der Werte entsprechend der Tabelle (rechts)

Die tetrachorische Korrelation ist ein Spezialfall der polychorischen Korrelation, die für ordinalskalierte Variablen verwendet wird.

Phi-Koeffizient

Wie auch die Produkt-Moment-Korrelation stammt die auch der Phi-Koeffizient von Karl Pearson. Er wird für zwei binäre Variablen berechnet, daher für eine 2×2-Kontingenztabelle.

Definition
 X=0X=1 
Y=0 a b a+b
Y=1 c d c+d
a+c b+d a+b+c+d

Der Phi-Koeffizient wird wie folgt berechnet:

  • X und Y sind die binären Zufallsvariablen
  • a, b, c und d sind die Anzahl der Werte in der jeweiligen Kategorie

Zwei binäre Variablen gelten demnach als positiv korreliert wenn mehr Werte auf der Diagonalen (a und d) liegen. Umgekehrt ist Phi negative wenn die meisten Werte nicht auf der Diagonalen liegen.

Cramér’s V

Cramér’s V basiert auf der Chi-Quadrat-Teststatistik ist eine Möglichkeit die Stärke des Zusammenhangs zwischen nomial skalierten Variablen mit zwei oder mehr Ausprägungen zu berechnen. V kann Werte zwischen 0 und +1 annehmen. Für eine 2×2-Kontingenztabelle entspricht Cramer’s V dem Phi-Koeffizienten.

Definition

  • φ² ist der Phi-Koeffizient
  • χ² ist abgeleitet von dem Chi-Quadrat-Test
  • n ist die gesamte Anzahl an Boabachtungen
  • k ist die Anzahl an Spalten
  • r ist die Anzahl der Zeilen

Kontingenzkoeffizient nach Pearson (C)

Der Kontingenzkoeffizient C ist eine weitere Möglichkeit den Grad der Beziehung zu quantifizieren. C hat allerdings den Nachteil, dass es nicht zwischen -1 und 1 schwankt, wie man es erwarten würde. Das Maximum wird durch die Größe der Tabelle gegeben. Für eine 2×2-Tabelle würde dieses Maximum bei .707 liegen; für eine 4×4-Tabelle .870. Je größer die Tabelle, desto näher 1 wird das Maximum sein.

Definition

 

  • χ ist abgeleitet von dem Chi-Quadrat-Test
  • N ist die gesamte Anzahl aller Beobachtungen

Quellen


  1. Anscombe, F. J. (1973). Graphs in Statistical Analysis. The American Statistician, 27(1), 17. doi:10.2307/2682899
  2. Cohen, J. (1988). Statistical power analysis for the behavioral sciences (2nd ed.). Hillsdale, N.J.: L. Erlbaum Associates.
  3. Damghani, B. M. (2013). The Non-Misleading Value of Inferred Correlation: An Introduction to the Cointelation Model. Wilmott, 2013(67), 50–61. doi:10.1002/wilm.10252
  4. Eid, M., Gollwitzer, M., & Schmitt, M. (2010). Statistik und Forschungsmethoden: Lehrbuch mit Online-Materialien (1. Aufl.). Weinheim: Beltz.
  5. Haack, S. (2014). Evidence matters: Science, Proof, and Truth in the Law. Cambridge University Press.
  6. Hill, A. B. (1965). The Environment and Disease: Association or Causation? The Environment and Disease: Association or Causation? Proceedings of the Royal Society of Medicine, 58, 295–300.
  7. Kendall, M. G. (1955). Rank correlation methods. London: Charles Griffin.
  8. Mood, A. M., Graybill, F. A., & Boes, D. C. (1974). Introduction to the theory of statistics (3rd ed., International student ed.). McGraw-Hill series in probability and statistics. Auckland, Singapore: McGraw-Hill International.
  9. Salkind, N. J. (2010). Encyclopedia of research design. Los Angeles: SAGE.
Mathematik für Schule und Studium