Begriff | Erklärung |
---|---|
A posteriori Kontrast | Der Unterschied zwischen zwei Gruppen wird im Nachhinein auf Signifikanz geprüft (Varianzanalyse) |
A priori Kontrast | Über den Unterschied zwischen zwei Gruppen besteht bereits vor der Untersuchung eine (meist gerichtete) Hypothese |
abhängige Variable | Merkmal, das in einem Quasi-Experiment erfasst wird, um zu überprüfen, wie sich systematisch variierte unabhängige Variablen auf die abhängige Variable auswirken |
Ähnlichkeitsmaße | Sie werden im Rahmen der Clusteranalyse benötigt, um die Ähnlichkeit der zu gruppierenden Objekte zu ermitteln |
Allgemeines Lineares Modell (ALM) | Verfahren, das die Varianzanalyse sowie die lineare Regressionsrechnung integriert |
Alternativhypothese | Gegenhypothese zur Nullhypothese. Man unterscheidet gerichtete und ungerichtete sowie spezifische und unspezifische Alternativhypothesen |
Axiome | Aussagen, die nicht bewiesen werden, sondern deren Gültigkeit vorausgesetzt wird |
Bayes-Statistik | Eine Variante der statistischen Entscheidungstheorie, bei der Wahrscheinlichkeiten für verschiedene Hypothesen unter der Voraussetzung eines empirisch ermittelten Untersuchungsergebnisses berechnet werden |
bimodale Verteilung | Verteilung mit zwei Gipfeln |
Binomialverteilung | Wahrscheinlichkeitsverteilung, die aussagt, wie wahrscheinlich x Erfolges bei n Wiederholungen eines Zufallsexperiments sind. Ein Erfolg tritt dabei in jedem Versuch mit der Wahrscheinlichkeit π ein, ein Misserfolg mit Wahrscheinlichkeit (1 − π). Beispiel Münzwurf: Erfolg = Zahl, Misserfolg = Kopf |
biseriale Korrelation | Korrelationskoeffizient rbis für ein metrisches und ein künstlich dichotomes Merkmal |
biseriale Rangkorrelation | Korrelationskoeffizient für ein (echt oder künstlich) dichotomes und ein rangskaliertes Merkmal |
bivariate Normalverteilung | Verteilung, die sich ergibt, wenn zwei Merkmale gemeinsam erhoben werden und dabei nicht nur die Verteilung jedes Merkmals für sich allein, sondern auch deren gemeinsame Verteilung normal ist; in diesem Fall ergibt die grafische Darstellung der gemeinsamen Verteilung eine (dreidimensionale) Glockenform |
bivariate Verteilung | Verteilung zweier gemeinsam erhobener Variablen; grafische Darstellung als Punktwolke oder dreidimensional |
Bonferroni-Korrektur | Korrektur des festgelegten Fehlers 1. Art bei mehreren Einzelhypothesen zur Überprüfung einer Gesamthypothese |
Bootstrap-Technik | Der Monte-Carlo-Methode ähnliche Computersimulationstechnik, mit der die Verteilung eines Stichprobenkennwertes erzeugt wird |
Box-Test | Verfahren zur Überprüfung der Homogenität einer Varianz-Kovarianz-Matrix. Wird bei multivariaten Mittelwertvergleichen benötigt |
Chi-Quadrat-Methoden | Signifikanztests zur Analyse von Häufigkeiten |
Chi-Quadrat-Unabhängigkeitstest | Verfahren, mit dem die Nullhypothese überprüft werden kann, nach der ein k-fach und ein l-fach gestuftes Merkmal voneinander unabhängig sind |
Clusteranalyse | Heuristisches Verfahren zur systematischen Klassifizierung der Objekte einer gegebenen Objektmenge |
Cochran-Test | Verfahren zur Überprüfung von Veränderungen eines dichotomen Merkmals bei Wiederholungsuntersuchungen. Es wird die H0 überprüft, dass sich die Verteilung der Merkmalsalternativen nicht verändert |
Dendrogramm | Eine grafische Darstellung des Ergebnisses einer hierarchischen Clusteranalyse, die über die Anzahl der bedeutsamen Cluster informiert |
deskriptive Statistik | Statistik, die die Daten einer Stichprobe z. B. durch Grafiken oder Kennwerte (Mittelwert, Varianz etc.) beschreibt |
Determinationskoeffizient | Anteil der Variabilität des Kriteriums, der durch einen oder mehrere Prädiktoren vorhergesagt werden kann |
Dichotomisierung | Künstliche Einteilung eines Merkmals, das von Natur aus eigentlich mehrere Ausprägungen besitzt (z.B. Körpergröße - im Gegensatz zum Geschlecht), in nur zwei Ausprägungen, z.B. bei metrischen Daten durch Teilung am Median (>178 cm vs. <178 cm) |
disjunkt | Zwei einander ausschließende (d. h. keine gemeinsamen Elementarereignisse beinhaltende) Ereignisse sind disjunkt. Ihr Durchschnitt (A∩B) ist die leere Menge |
diskret | Ein Merkmal ist diskret, wenn es nur bestimmte Werte annehmen kann. Beispiel: Die Anzahl der Freunde einer Person lässt sich nur in ganzen Zahlen angeben |
Diskriminanzanalyse | Verfahren, das aufgrund der linearen Gewichtung eines Satzes abhängiger Variablen zu einer maximalen Trennung der untersuchten Gruppen führt |
Diskriminanzraum | Er besteht aus einer bestimmten Anzahl von Diskriminanzfaktoren, deren Reihenfolge so festgelegt wird, dass die verglichenen Stichproben sukzessiv maximal getrennt werden |
Effektgröße | Um eine spezifische Alternativhypothese formulieren zu können, muss man die erwartete Effektgröße im Voraus angeben. Die Festlegung einer Effektgröße ist auch notwendig, um den für die geplante Untersuchung benötigten Stichprobenumfang zu bestimmen bzw. die Teststärke eines Signifikanztests angeben zu können. Da sich bei großen Stichproben auch sehr kleine (für die Praxis unbedeutende) Effekte als statistisch signifikant erweisen können, sollte ergänzend zur statistischen Signifikanz immer auch die Effektgröße betrachtet werden |
Effizienz | Kriterium der Parameterschätzung: Je größer die Varianz der Stichprobenverteilung eines Kennwertes, desto geringer ist seine Effizienz |
Eigenwert | Gesamtvarianz der Indikatoren, die durch einen Faktor aufgeklärt wird (Faktorenanalyse) |
Eigenwertediagramm | Grafische Darstellung der Eigenwerte einer PCA in einem Diagramm (Faktorenanalyse) |
eindimensionaler Chi-Quadrat-Test | χ2-Methode zur Signifikanzprüfung der Häufigkeiten eines k-fach gestuften Merkmals; hierbei kann getestet werden, ob die untersuchten Daten gleich verteilt sind oder ob sie einer bestimmten Verteilungsform (z. B. Normalverteilung) folgen |
einfacher Haupteffekt | Unterschiedlichkeit der Stufen des Faktors A für eine Stufe des Faktors B (und umgekehrt). Unterschiedlichkeit der Stufen des Faktors A für eine Stufe des Faktors B (und umgekehrt) |
einseitiger Test | Statistischer Test, der eine gerichtete Hypothese überprüft |
Einzelvergleich | Alternative Bezeichnung für Kontrast |
Elementarereignis | Ein einzelnes Ergebnis eines Zufallsexperiments (z. B. beim Würfeln eine bestimmte Augenzahl würfeln) |
empirisches Relativ | Aus empirischen Objekten bestehendes Relationensystem (im Gegensatz zu einem numerischen Relativ) |
Epsilon-Korrektur | Korrektur der Freiheitsgrade im Rahmen einer Varianzanalyse mit Messwiederholungen, die erforderlich wird, wenn bestimmte Voraussetzungen dieses Verfahrens verletzt sind |
Ereignis | Mehrere Elementarereignisse werden zu einem Ereignis zusammengefasst (z.B. beim Würfeln das Ereignis „alle geraden Zahlen“) |
Erwartungstreue | Eigenschaft eines statistischen Kennwertes im Hinblick auf die Schätzung eines Populationsparameters, wenn das Mittel der Stichprobenverteilung bzw. deren Erwartungswert dem Populationsparameter entspricht |
Erwartungswert | Mittelwert einer theoretischen (nicht empirischen) Verteilung einer Zufallsvariablen; bezeichnet durch den Buchstaben μ bzw. durch E(X) |
Eta | Korrelationskoeffizient, der die linearen und nonlinearen Zusammenhänge zwischen unabhängiger und abhängiger Variable erfasst (Varianzanalyse) |
Exhaustion | Modifikation oder Erweiterung einer Theorie aufgrund von Untersuchungsergebnissen, die die ursprüngliche Form der Theorie falsifizieren |
Experiment | Untersuchung mit randomisierten Stichproben, um die Auswirkung einer oder mehrerer unabhängigen Variablen auf die abhängige Variable zu überprüfen |
externe Validität | Liegt vor, wenn das Ergebnis einer Untersuchung über die untersuchte Stichprobe und die Untersuchungsbedingungen hinaus generalisierbar ist. Sie sinkt, je unnatürlicher die Untersuchungsbedingungen sind und je weniger repräsentativ die untersuchte Stichprobe für die Grundgesamtheit ist |
Faktor | Im Rahmen der Varianzanalyse ist ein Faktor eine unabhängige Variable, deren Bedeutung für eine abhängige Variable überprüft wird |
Faktorenanalyse | Datenreduzierendes Verfahren zur Bestimmung der dimensionalen Struktur korrelierter Merkmale |
Faktorladung | Korrelation zwischen einer Variablen und einem Faktor (Faktorenanalyse) |
Faktorwert | Der Faktorwert kennzeichnet die Position einer Person auf einem Faktor (Faktorenanalyse) |
Fehler 1. Art | In der statistischen Entscheidungstheorie die fälschliche Entscheidung zugunsten der H1, d. h., man nimmt an, die Alternativhypothese sei richtig, obwohl in Wirklichkeit die Nullhypothese richtig ist |
Fehler 2. Art | In der statistischen Entscheidungstheorie die fälschliche Entscheidung zugunsten der H0, d. h., man nimmt an, die Nullhypothese sei richtig, obwohl in Wirklichkeit die Alternativhypothese richtig ist |
Fehlerquadratsumme | Kennzeichnet im Rahmen der Varianzanalyse die Unterschiedlichkeit der Messwerte innerhalb der Stichproben |
Felduntersuchung | Untersuchung, die in einem natürlichen Umfeld stattfindet |
Feste Effekte | Systematische Auswahl der Faktorstufen, über die letztlich Aussagen gemacht werden sollen (Varianzanalyse) |
Fisher Z-Transformation | Transformation von Korrelationen in sog. Z-Werte (nicht verwechseln mit standardisierten Werten (z-Transformation) oder z-Werten der Standardnormalverteilung); die Fisher Z-Transformation ist z. B. erforderlich, wenn Korrelationen gemittelt werden sollen |
Fmax-Test | Verfahren zur Überprüfung der Varianzhomogenitäts-Voraussetzung im Rahmen der Varianzanalyse. Lässt nur gleich große Stichprobenumfänge zu |
Freiheitsgrade | Die Anzahl der bei der Berechnung eines Kennwerts frei variierbaren Werte. Beispiel: Die Summe der Differenzen aller Werte von ihrem Mittelwert ergibt null. Sind von zehn Werten neun bereits zufällig gewählt, steht fest, wie groß die zehnte Differenz sein muss. Die Varianz – deren Formel diese Differenzen vom Mittelwert beinhaltet – hat daher neun Freiheitsgrade. Anwendung bei der Bestimmung der für verschiedene statistische Tests adäquaten Prüfverteilung |
Fusionskriterien | Kriterien, nach denen entschieden wird, welche Objekte oder Cluster zu einem neuen Cluster zusammengefasst werden (z.B. Single Linkage, Complete Linkage oder Average Linkage) (Clusteranalyse) |
gerichtete Alternativhypothese | Annahme (statistische Hypothese), die nicht einen irgendwie gearteten Unterschied oder Zusammenhang behauptet, sondern die eine bestimmte Richtung vorgibt. Beispiel: Männer sind im Durchschnitt größer als Frauen |
geschachtelte Faktoren | Ein Faktor, dessen Stufen nur unter bestimmten Stufen eines anderen Faktors auftreten (Varianzanalyse) |
geschichtete Stichprobe | Stichprobe, in der sich ausgewählte Merkmale (Alter, Geschlecht, Einkommen etc.) nach bestimmten Vorgaben verteilen; liegt eine proportional geschichtete Stichprobe vor, entspricht die prozentuale Verteilung der Schichtungsmerkmale in der Stichprobe der prozentualen Verteilung in der Grundgesamtheit |
Griechisch-lateinische Quadrate | Erweiterung eines lateinischen Quadrats um einen Faktor (Varianzanalyse). |
Haupteffekt | In Abgrenzung zu einem Interaktionseffekt in der mehrfaktoriellen Varianzanalyse kennzeichnet ein Haupteffekt die Wirkungsweise eines bestimmten Faktors bzw. einer bestimmten unabhängigen Variablen |
Hauptkomponentenanalyse | Wichtigstes Verfahren zur Extraktion von Faktoren. Faktoren einer Hauptkomponentenanalyse sind voneinander unabhängig und erklären sukzessiv maximale Varianzanteile (Faktorenanalyse) |
Helmert-Kontraste | Regeln zur Erzeugung eines vollständigen Satzes orthogonaler Einzelvergleiche (Varianzanalyse) |
Hierarchische Versuchspläne | Versuchspläne, bei denen durch Schachtelung je eines Faktors unter den vorherigen eine Hierarchie der Faktoren entsteht (Varianzanalyse) |
Histogramm | Trägt man in einer Grafik die empirische Häufigkeitsverteilung einer diskreten Variablen in Form von Balken ab, erhält man ein Histogramm |
Holm-Korrektur | Technik zur Korrektur des Fehlers 1. Art beim multiplen Testen. Sie ist weniger konservativ als die Bonferroni-Korrektur |
homomorph | Lässt sich ein empirisches durch ein numerisches Relativ so abbilden, dass eine bestimmte Relation im empirischen Relativ der Relation im numerischen Relativ entspricht, bezeichnet man diese Abbildung als homomorph. Beispiel: empirisches Relativ: Mathekenntnisse der Schüler einer Klasse; numerisches Relativ: Mathenoten. Bilden die Mathenoten die Kenntnisse der Schüler „wirklichkeitsgetreu“ ab, ist diese Abbildung homomorph |
Homoskedastizität | Liegt vor, wenn bei einer bivariaten Verteilung zweier Variablen x und y die zu jedem beliebigen Wert xi gehörenden y-Werte gleich streuen. Beispiel: Erhebt man Körpergröße (x) und Schuhgröße (y), sollten die Schuhgrößen von Menschen, die 180 cm groß sind, die gleiche Varianz aufweisen wie die Schuhgrößen von Menschen, die 170 cm groß sind |
Hotellings T2-Test | Verfahrensgruppe zur Überprüfung multivariater Unterschiedshypothesen, d. h. Unterschiedshypothesen auf der Basis mehrerer abhängiger Variablen |
Inferenzstatistik | Statistik, die auf der Basis von Stichprobenergebnissen induktiv allgemeingültige Aussagen formuliert. Zur Inferenzstatistik zählen die Schätzung von Populationsparametern (Schließen) und die Überprüfung von Hypothesen (Testen) |
Interaktion | Effekt der Kombination mehrerer Faktoren. Man unterscheidet zwischen ordinaler, hybrider und disordinaler Interaktion (Varianzanalyse) |
interne Validität | Liegt vor, wenn das Ergebnis einer Untersuchung eindeutig interpretierbar ist. Sie sinkt mit der Anzahl plausibler Alternativerklärungen für das Ergebnis |
Intervallskala | Eine Intervallskala erlaubt Aussagen über Gleichheit (Äquivalenzrelation), Rangfolge (Ordnungsrelation) und Größe des Unterschieds der Merkmalsausprägung von Objekten. Eine Intervallskala hat keinen empirisch begründbaren Nullpunkt. Beispiel: Temperaturskalen; mit Fahrenheit- und Celsiusskala lassen sich die gleichen Aussagen machen; ihr Nullpunkt ist verschieden. Intervallskala und Verhältnisskalen bezeichnet man zusammenfassend als metrische Skalen |
K-means-Methode | Ein Verfahren der nichthierarchischen Clusteranalyse |
Kaiser-Guttmann-Kriterium | Nur Faktoren mit einem Eigenwert größer 1 sind als bedeutsam einzustufen. Überschätzt in der Regel die Anzahl bedeutsamer Faktoren (Faktorenanalyse) |
kanonische Korrelation | Erfasst den Zusammenhang zwischen mehreren Prädiktorvariablen und mehreren Kriteriumsvariablen |
Kappa-Maß | Verfahren, mit dem man die Übereinstimmung von zwei Klassifikationen derselben Objekte erfassen und überprüfen kann |
Klassifikation | Verfahren, mit dem man überprüfen kann, zu welcher von k Gruppen ein Individuum aufgrund eines individuellen Merkmalsprofils am besten passt (Diskriminanzanalyse) |
Klumpenstichprobe | Als Klumpen (Cluster) bezeichnet man eine definierte Teilgruppe einer Population (z.B. die Schüler einer Schulklasse, die Patienten eines Krankenhauses etc.). Eine Klumpenstichprobe besteht aus allen Individuen, die sich in einer Zufallsauswahl von Klumpen befinden. Beispiel: Alle Alkoholiker aus zufällig ausgewählten Kliniken |
Kommunalität | Ausmaß, in dem die Varianz einer Variablen durch die Faktoren aufgeklärt wird (Faktorenanalyse) |
Konfidenzintervall | Wertebereich, in dem sich der Populationsparameter mit einer vorgegebenen Sicherheit (z.B. 95% oder 99%) befindet |
Konfigurationsfrequenzanalyse | Verallgemeinerung der Kontingenztafelanalyse auf eine mehrdimensionale „Tafel“, mit der die Häufigkeiten mehrerer nominalskalierter Merkmale mit mehreren Stufen verglichen werden können. Geprüft wird die stochastische Unabhängigkeit der Merkmale voneinander |
konservative Entscheidung | Wenn ein statistischer Signifikanztest aufgrund von Voraussetzungsverletzungen eher zugunsten von H0 entscheidet |
Konsistenz | Kriterium der Parameterschätzung: Eigenschaft eines Schätzwertes, wenn er sich mit wachsendem Stichprobenumfang dem zu schätzenden Parameter nähert |
Kontingenzkoeffizient | Maß zur Charakterisierung des Zusammenhangs zweier nominalskalierter Merkmale |
Kontingenztabelle | Tabellarische Darstellung der gemeinsamen Häufigkeitsverteilung mehrerer kategorialer Merkmals |
Kontrast | Dienen der Überprüfung von Unterschieden zwischen einzelnen Stufen eines Treatments im Rahmen der Varianzanalyse. Man unterscheidet a priori und a posteriori Kontraste. Eine andere Bezeichnung für Kontrast ist Einzelvergleich |
Korrelationskoeffizient | Zusammenhangsmaß, welches einen Wert zwischen −1 und +1 annimmt. Ein positiver Korrelationskoeffizient besagt, dass hohe x-Werte häufig mit hohen y-Werten auftreten. Ein negativer Korrelationskoeffizient besagt, dass hohe x-Werte häufig mit niedrigen y-Werten auftreten |
Kovarianz | Maß für den Grad des Miteinander-Variierens zweier Messwertreihen x und y. Eine positive Kovarianz besteht, wenn viele Versuchspersonen bei einem hohen x-Wert auch einen hohen y-Wert haben; eine negative Kovarianz besteht, wenn viele Versuchspersonen bei einem hohen x-Wert einen niedrigen y-Wert haben. Die Kovarianz z-transformierter Variablen entspricht der Produkt-Moment-Korrelation |
Kovarianzanalyse | Verfahren zur Überprüfung der Bedeutsamkeit einer Kovariaten für eine Untersuchung. Der Einfluss dieser Variablen wird „neutralisiert“ (Varianzanalyse) |
Kovariate | Merkmal, das weder abhängige noch unabhängige Variable ist, sondern nur miterhoben wird, um prüfen zu können, ob es einen Einfluss auf das Untersuchungsergebnis hatte |
Kreuzvalidierung | Verfahren, bei dem zwei Regressionsgleichungen aufgrund von zwei Teilstichproben bestimmt werden, deren Vorhersagekraft in Bezug auf die Kriteriumswerte der anderen Stichprobe geprüft wird |
Kriteriumsrotation | Eine Rotationstechnik, mit der eine empirische Faktorenstruktur einer vorgegebenen Kriteriumsstruktur maximal angenähert wird (Faktorenanalyse) |
Kriteriumsvariable | Variable, die mittels einer oder mehrerer Prädiktorvariablen und einer Regressionsgleichung vorhergesagt werden kann |
Lateinisches Quadrat | Besondere Variante unvollständiger Versuchspläne mit drei Faktoren, die alle dieselbe Stufenzahl aufweisen (Varianzanalyse) |
LISREL | Computerprogramm von Jöreskog und Sörbom (1993) zur Überprüfung linearer Strukturgleichungsmodelle |
Mann-Whitney-U-Test | Verteilungsfreier Signifikanztest für den Vergleich zweier unabhängiger Stichproben auf der Basis rangskalierter Daten |
Matched Samples | Strategie zur Erhöhung der internen Validität bei quasi-experimentellen Untersuchungen mit kleinen Gruppen. Zur Erstellung von Matched Samples wird die Gesamtmenge der Untersuchungsobjekte hinsichtlich bestimmter Merkmale in möglichst ähnliche Paare gruppiert. Die beiden Untersuchungsgruppen werden anschließend so zusammengestellt, dass jeweils in Paarling zufällig der einen Gruppe, der andere Paarling der anderen Gruppe zugeordnet wird. Man beachte, dass Matched Samples Beobachtungspaaren führen, die auch mit entsprechenden Signifikanztests (z.B. t-Test für Beobachtungspaare) auszuwerten sind |
Maximum-Likelihood-Methode | Methode, nach der Populationsparameter so geschätzt werden, dass die Wahrscheinlichkeit bzw. Likelihood des Auftretens der beobachteten Daten maximiert wird |
McNemar-Test | χ2-Methode zur Signifikanzprüfung der Häufigkeiten eines dichotomen Merkmals, das bei derselben Stichprobe zu zwei Zeitpunkten erhoben wurde (vorher – nachher) |
Median | Derjenige Wert einer Verteilung, der die Gesamtzahl der Fälle halbiert, sodass 50% aller Werte unter dem Median und 50% aller Fälle über ihm liegen |
Messwiederholung | An einer Stichprobe wird dasselbe Merkmal bei jeder Versuchsperson mehrmals gemessen (z. B. zu zwei Zeitpunkten, vorher – nachher); solche Stichproben bezeichnet man als verbunden |
Methode der kleinstenQuadrate | Methode zur Schätzung unbekannter Parameter. Hierbei wird die Summe der quadrierten Abweichungen der beobachteten Messungen vom gesuchten Schätzwert minimiert. Wird z. B. in der Regressionsrechnung angewendet |
metrische Skala | Zusammenfassender Begriff für Intervall- und Verhältnisskalen |
Mittelwert | Ergibt sich, wenn die Summe aller Werte einer Stichprobe durch die Gesamtzahl der Werte geteilt wird |
Modalwert | Wert einer Verteilung, der am häufigsten vorkommt. In einer grafischen Darstellung der Verteilung deren Maximum. Eine Verteilung kann mehrere Modalwerte (und somit Maxima) besitzen (bimodale Verteilung) |
Monte-Carlo-Methode | Mittels Computer werden aus einer festgelegten Population viele Stichproben gezogen (Computersimulation), um anhand dieser Simulation zu erfahren, wie sich statistische Kennwerte (z.B. Mittelwerte) verteilen oder wie sich Verletzungen von Testvoraussetzungen auf die Ergebnisse des Tests auswirken |
Multikollinearität | Wechselseitige Abhängigkeit von Variablen im Kontext multivariater Verfahren |
multiple Korrelation | Bestimmt den Zusammenhang zwischen mehreren Prädiktorvariablen und einer Kriteriumsvariablen |
multiple Regression | Vorhersage einer Kriteriumsvariablen mittels eines linearen Gleichungsmodells aufgrund mehrerer Prädiktorvariablen |
Multivariate Verfahren | Gruppe statistischer Verfahren, mit denen die gleichzeitige, natürliche Variation von zwei oder mehr Variablen untersucht wird |
nicht-orthogonaleVarianzanalysen | Varianzanalysen mit ungleichen Stichprobenumfängen; auch unbalancierte Varianzanalyse genannt |
Nominalskala | Ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass Objekte mit gleicher Merkmalsausprägung gleiche Zahlen, Objekte mit verschiedener Merkmalsausprägung verschiedene Zahlen erhalten. Eine Nominalskala erlaubt nur Aussagen über Gleichheit von Objekten (Äquivalenzrelation), nicht aber über deren Rangfolge. Beispiel: Zuweisung des Wertes 0 für männliche, 1 für weibliche Versuchspersonen |
Normalverteilung | Wichtige Verteilung der Statistik; festgelegt durch die Parameter μ (Erwartungswert) und σ (Streuung); glockenförmig, symmetrisch, zwischen den beiden Wendepunkten (μ±1σ) liegen ca. 68% der gesamten Verteilungsfläche |
Nullhypothese | Behauptung über einen oder mehrere Populationsparameter, die besagt, dass der von der Alternativhypothese behauptete Unterschied bzw. Zusammenhang nicht besteht |
numerisches Relativ | Aus Zahlen bestehendes Relationensystem (z.B. Menge der reellen Zahlen), mit dem sich ein empirisches Relativ homomorph abbilden lässt |
oblique Rotation | Faktorenrotation, die zu schiefwinkligen bzw. korrelierten Faktoren führt (Faktorenanalyse) |
Operationalisierung | Umsetzung einer eher abstrakten Variable bzw. eines theoretischen Konstruktes in ein konkret messbares Merkmal; Beispiel: Operationalisierung der Variable „mathematische Begabung“ durch die Variable „Mathematiknote“. Wichtig ist, dass die operationalisierte Variable die abstrakte Variable tatsächlich widerspiegelt |
Ordinalskala | Ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass von jeweils zwei Objekten das Objekt mit der größeren Merkmalsausprägung die größere Zahl erhält. Eine Ordinalskala erlaubt Aussagen über die Gleichheit (Äquivalenzrelation) und die Rangfolge (Ordnungsrelation) von Objekten. Sie sagt aus, ob ein Objekt eine größere Merkmalsausprägung besitzt als ein anderes, nicht aber, um wie viel größer diese Ausprägung ist. Beispiel: Rangfolge für die Schönheit dreier Bilder: 1=am schönsten; 3=am wenigsten schön. Bild 2 muss nicht „mittelschön“ sein, sondern kann fast so schön sein wie Bild 1 |
orthogonale Faktoren | Unkorrelierte Faktoren (Faktorenanalyse) |
P-Wert | Wahrscheinlichkeit, dass das gefundene Ergebnis oder ein extremeres Ergebnisse bei Gültigkeit von H0 eintritt.Wahrscheinlichkeit, dass das gefundene Ergebnis oder ein extremeres Ergebnisse bei Gültigkeit von H0 eintritt |
Parameter | Kennwerte einer theoretischen Verteilung oder Grundgesamtheit (im Gegensatz zu Stichprobenkennwerten) wie z. B. Erwartungswert, Streuung etc. Bezeichnung durch griechische Buchstaben |
partielle Korrelation | Gibt den Zusammenhang zweier Variablen an, aus dem der lineare Einfluss einer dritten Variable eliminiert wurde. Sie stellt eine bivariate Korrelation zwischen den Regressionsresiduen dar |
PCA | Principal Components Analysis (s. Hauptkomponentenanalyse) |
Permutation | Werden in einem Zufallsexperiment (z.B. Urne, Kartenspiel) alle Objekte gezogen und nicht zurückgelegt, bezeichnet man die bei einer Durchführung dieses Experiments aufgetretene Reihenfolge der Objekte als eine Permutation. Bei n Objekten gibt es n! Permutationen |
Perzentil | Das p-te Perzentil ist derjenige Skalenwert, welcher die unteren p% einer Verteilung abschneidet. In einer Grafik werden die unteren p% der Verteilungsfläche abgeschnitten |
Pfadanalyse | Mit ihrer Hilfe werden anhand empirischer Daten a priori formulierte „Kausalhypothesen“ zur Erklärung von Merkmalszusammenhängen geprüft |
Pfaddiagramm | Grafische Veranschaulichung eines Kausalmodells |
Phi-Koeffizient | Korrelationskoeffizient für zwei natürlich dichotome Merkmale; diese werden im Allgemeinen in einer 2 × 2-Tabelle dargestellt |
Polygon | Grafik zur Veranschaulichung einer empirischen Häufigkeitsverteilung einer metrischen Variablen. Auf den Kategorienmitten werden Lote errechnet, deren Länge jeweils der Kategorienhäufigkeit (absolut oder prozentual) entspricht. Verbindet man die Endpunkte der Lote, erhält man das Polygon |
Population | Alle untersuchbaren Objekte, die ein gemeinsames Merkmal aufweisen. Beispiel: Bewohner einer Stadt, Frauen, dreisilbige Substantive |
Prädiktorvariable | Variable, mittels derer unter Verwendung der Regressionsgleichung eine Vorhersage über eine andere Variable (Kriteriumsvariable) gemacht werden kann |
progressive Entscheidung | Wenn ein statistischer Signifikanztest aufgrund von Voraussetzungsverletzungen eher zugunsten von H1 entscheidet |
punktbiseriale Korrelation | Verfahren zur Berechnung eines Korrelationskoeffizienten rpbis für ein metrisches und ein natürlich dichotomes Merkmal |
Punktschätzung | Schätzung des Wertes eines Parameters (im Unterschied zur Intervallschätzung) |
Quadratsumme | Summe der quadrierten Abweichungen aller Messwerte einer Verteilung vom Mittelwert |
Quasi-Experiment | Untersuchung, bei der auf Randomisierung verzichtet werden muss, weil natürliche bzw. bereits bestehende Gruppen untersucht werden; Beispiel: Raucher vs. Nichtraucher, männliche vs. weibliche Personen (man kann nicht per Zufall entscheiden, welcher Gruppe eine Person angehören soll) |
Quasi-F-Brüche | Nach dem theoretischen Erwartungsmodell gebildete F-Brüche, um nicht direkt zu testende Effekte approximativ zu testen (Varianzanalyse) |
Rand-Index | Ein Index zur Evaluation clusteranalytischer Lösungen mit ungleicher Clusteranzahl |
Randomisierung | Zufällige Zuordnung der Versuchsteilnehmer bzw. -objekte zu den Versuchsbedingungen |
Rangkorrelation nach Spearman | Verfahren zur Berechnung eines Korrelationskoeffizienten welches auf den Rängen der Merkmale basiert |
Redundanz | In der Korrelationsrechnung der prozentuale Anteil der Varianz der y-Werte, der aufgrund der x-Werte erklärbar bzw. redundant ist |
Regressionsgleichung | Beschreibt den Mittelwert eines Kriteriums in Abhängigkeit eines oder mehrerer Prädiktoren. Mit Hilfe der Regressionsgleichung kann ein Vorhersagewert für die Kriteriumsvariable berechnet werden |
Regressionsresiduum | Kennzeichnet die Abweichung eines empirischen Werts von seinem durch die Regressionsgleichung vorhergesagten Wert. Es enthält Anteile der Kriteriumsvariablen, die durch die Prädiktorvariable nicht erfasst werden |
rekursive Systeme | Systeme, in denen nur einseitig gerichtete kausale Wirkungen angenommen und in denen die Variablen bezüglich ihrer kausalen Priorität hierarchisch angeordnet werden (Pfadanalyse) |
Relationensystem | Menge von Objekten und einer oder mehrerer Relationen (z.B. Gleichheitsrelation, die besagt, dass zwei Objekte gleich sind; Ordnungsrelation, die besagt, dass sich Objekte in eine Rangreihe bringen lassen) (empirisches bzw. numerisches Relativ) |
relative Häufigkeit | Wird ein Zufallsexperiment n-mal wiederholt, besagt die relative Häufigkeit, wie oft ein Ereignis in Relation zu n aufgetreten ist. Die relative Häufigkeit liegt daher immer zwischen 0 und 1,0 |
robuster Test | Ein Signifikanztest ist robust, wenn er trotz verletzter Voraussetzungen das festgelegte Signifikanzniveau α einhält |
Scheffé-Test | Mit diesem Test wird der gesamte, mit allen möglichen Einzelvergleichen verbundene Hypothesenkomplex der Varianzanalyse auf dem festgelegten Niveau eines Fehlers 1. Art abgesichert |
Schiefe | Eigenschaft einer Verteilung, wenn diese auf einer Seite steiler ansteigt als auf der anderen, also asymmetrisch ist |
Schrumpfungskorrektur | Korrektur, die erforderlich wird, wenn ein bestimmter Kennwert den wahren Wert in der Population überschätzt (z.B. bei der multiplen Korrelation) |
Scree-Test | Identifikation der bedeutsamen Faktoren in der Faktorenanalyse anhand des Eigenwertediagramms |
Sequenzeffekte | Effekte, die bei wiederholter Untersuchung von Versuchspersonen auftreten und die Treatmenteffekte überlagern können (z. B. Lerneffekte; Varianzanalyse) |
Signifikanzniveau | Vom Versuchsleiter festgelegter Wert für α. Im Allgemeinen spricht man von einem signifikanten Ergebnis, wenn der ermittelte p-Wert höchstens α = 0,05, von einem sehr signifikanten Ergebnis, wenn er höchstens α = 0,01 beträgt |
spezifische Alternativhypothese | Annahme, die nicht nur einen Unterschied oder Zusammenhang generell, sondern auch dessen Mindestgröße voraussagt. Beispiel: Männer sind im Durchschnitt mindestens 5 cm größer als Frauen (im Gegensatz zur unspezifischen Alternativhypothese: Männer sind im Durchschnitt größer als Frauen). Spezifische Hypothesen werden meistens in Verbindung mit Effektgrößen formuliert |
Standardabweichung | Wurzel aus der Varianz; bezeichnet durch s für Stichproben, durch σ für theoretische Verteilungen (z.B. Population) |
Standardfehler | Standardabweichung einer Stichprobenverteilung. Sie informiert darüber, wie unterschiedlich Stichprobenkennwerte (z.B. Mittelwerte) von Stichproben aus einer Population bei einem gegebenen Stichprobenumfang sein können. Wichtig für die Inferenzstatistik |
Standardnormalverteilung | Normalverteilung mit Erwartungswert (μ) 0 und Standardabweichung (σ) 1,0. Jede Normalverteilung kann durch z-Transformation in die Standardnormalverteilung überführt werden, was den Vergleich verschiedener Normalverteilungen ermöglicht |
Standardschätzfehler | Kennzeichnet die Streuung der y-Werte um die Regressionsgerade und ist damit ein Gütemaßstab für die Genauigkeit der Regressionsvorhersagen. Je kleiner der Standardschätzfehler, desto genauer ist die Vorhersage. Der Standardschätzfehler ist identisch mit der Streuung der Regressionsresiduen |
Stängel-Blatt-Diagramm | Spezielle Form eines Histogramms, dem nicht nur die Häufigkeit von Messwerten, sondern auch deren Größe entnommen werden kann |
stetig | Ein Merkmal ist stetig, wenn es zumindest theoretisch beliebig genau gemessen werden kann. Beispiel: Größe, Gewicht etc. |
Stichprobe | In der Regel zufällig ausgewählte Personengruppe, die als Grundlage für inferenzstatistische Schlüsse dienen soll |
Stichprobenkennwert | Wert, der die beobachteten Werte einer Stichprobe zusammenfasst, um eine Aussage zur Verteilung der Werte zu machen. Beispiel: Mittelwert, Modalwert, Varianz |
Stichprobenverteilung | Verteilung der Kennwerte eines Merkmals aus mehreren Stichproben, die derselben Grundgesamtheit entnommen wurden. Beispiel: Verteilung der Mittelwerte aus Untersuchungen zur Körpergröße von Zehnjährigen |
Suffizienz | Kriterium der Parameterschätzung: Eigenschaft eines Schätzwertes, wenn er alle in den Daten einer Stichprobe enthaltenen Informationen berücksichtigt |
Suppressorvariable | Variable, die den Vorhersagebeitrag einer anderer Variablen erhöht, indem sie irrelevante Varianzen in der anderen Variablen unterdrückt (multiple Regression) |
t-Test für Beobachtungspaare | Statistischer Signifikanztest, der zwei Gruppen (parallelisierte Stichproben oder Messwiederholung) auf einen Unterschied bezüglich ihrer Mittelwerte eines intervallskalierten Merkmals untersucht. |
t-Test für unabhängige Stichproben | Statistischer Signifikanztest, der zwei Gruppen auf einen Unterschied bezüglich ihrer Mittelwerte eines intervallskalierten Merkmals untersucht |
Teststärke | Gegenwahrscheinlichkeit des Fehlers 2. Art: 1 − β. Sie gibt an, mit welcher Wahrscheinlichkeit ein Signifikanztest zugunsten einer spezifischen Alternativhypothese entscheidet, sofern diese wahr ist, d. h. mit welcher Wahrscheinlichkeit ein Unterschied oder Zusammenhang entdeckt wird, wenn er existiert |
tetrachorische Korrelation | Verfahren zur Berechnung eines Korrelationskoeffizienten rtet für zwei künstlich dichotomisierte Merkmale; diese werden im Allgemeinen in einer 2 × 2-Tabelle dargestellt. Treatment: Im Rahmen der Varianzanalyse synonym |
Treatment | Im Rahmen der Varianzanalyse synonym mit dem Begriff Faktor |
Treatmentquadratsumme | Die Treatmentquadratsumme kennzeichnet im Rahmen der einfaktoriellen Varianzanalyse die Unterschiedlichkeit der Messwerte zwischen den Stichproben. Ihre Größe hängt von der Wirksamkeit der geprüften unabhängigen Variablen (Treatment) ab |
Trendtests | Durch Trendtests wird die Treatmentquadratsumme in orthogonale Trendkomponenten zerlegt, die auf verschiedene Trends (linear, quadratisch, kubisch usw.) in den Mittelwerten der abhängigen Variablen zurückzuführen sind (Varianzanalyse) |
unabhängige Variable | Merkmal, das systematisch variiert wird, um seine Auswirkung auf die abhängige Variable zu untersuchen |
Unabhängigkeit | Verhältnis zweier Ereignisse zueinander, wenn das Auftreten des einen Ereignisses nicht davon beeinflusst wird, ob das andere eintritt oder nicht. Mathematisch drückt sich dies darin aus, dass die Wahrscheinlichkeit für das gemeinsame Auftreten beider Ereignisse dem Produkt der Einzelwahrscheinlichkeiten der beiden Ereignisse entspricht |
ungerichtete Alternativhypothese | Annahme, die einen Unterschied oder Zusammenhang voraussagt, ohne deren Richtung zu spezifizieren. Beispiel: Männer und Frauen sind im Durchschnitt unterschiedlich groß (im Gegensatz zur gerichteten H1: Männer sind im Durchschnitt größer als Frauen) |
unspezifische Alternativhypothese | Annahme, die einen Unterschied oder Zusammenhang voraussagt, ohne deren Größe zu spezifizieren |
Varianz | Summe der quadrierten Abweichungen aller Messwerte einer Verteilung vom Mittelwert, die am Stichprobenumfang relativiert wird. Maß für die Unterschiedlichkeit der einzelnen Werte einer Verteilung |
Varianzanalyse | Allgemeine Bezeichnung für eineVerfahrensklasse zur Überprüfung von Unterschiedshypothesen. Man unterscheidet ein- und mehrfaktorielle Varianzanalysen, uni- undmultivariate Varianzanalysen, hierarchische und nicht-hierarchische Varianzanalysen sowie Kovarianzanalysen |
Variationsbreite | Gibt an, in welchem Bereich sich die Messwerte einer Stichprobe befinden; ergibt sich als Differenz des größten und kleinsten Werts der Verteilung |
Varimax-Kriterium | Rotationskriterium, das die Varianz der quadrierten Ladungen pro Faktor maximiert (Faktorenanalyse) |
Verhältnisskala | Ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass das Verhältnis zwischen je zwei Zahlen dem Verhältnis der Merkmalsausprägungen der jeweiligen Objekte entspricht. Eine Verhältnisskala erlaubt Aussagen über Gleichheit (Äquivalenzrelation), Rangfolge (Ordnungsrelation) und Größe des Unterschieds der Merkmalsausprägung von Objekten. Sie hat außerdem einen empirisch begründbaren Nullpunkt. Beispiel: Länge |
Versuchsleitereffekte | (Unbewusste) Beeinflussung des Untersuchungsergebnisses durch das Verhalten oder die Erwartungen des Versuchsleiters |
verteilungsfreie Verfahren | Statistische Tests, die keine besondere Verteilungsform der Grundgesamtheit (insbesondere Normalverteilung) voraussetzen. Sie sind vor allem für die inferenzstatistische Auswertung kleiner Stichproben geeignet; auch nichtparametrische Tests genannt |
Verteilungsfunktion | Kumulation der Wahrscheinlichkeitsfunktion einer Zufallsvariablen. Die Werte dieser Funktion benennen keine Einzelwahrscheinlichkeiten, sondern die Wahrscheinlichkeit des Wertes selbst sowie aller kleineren Werte. Die Verteilungsfunktion berechnet sich bei stetigen Zufallsvariablen durch das Integral der Dichtefunktion |
Wahrscheinlichkeitsfunktion | Funktion, die bei diskreten Zufallsvariablen angibt, mit welcher Wahrscheinlichkeit jedes Ereignis bei einem Zufallsexperiment auftritt. Bei stetigen Variablen bezeichnet man die Wahrscheinlichkeitsfunktion als Dichtefunktion |
Ward-Methode | Hierarchisches Verfahren, das zur Clusteranalyse gehört |
Wilcoxon-Test | Verteilungsfreier Signifikanztest, der zwei Gruppen, die nicht unabhängig voneinander ausgewählt wurden (Matched Samples oder Messwiederholung), auf einen Unterschied bezüglich ihrer zentralen Tendenz eines ordinalskalierten Merkmals untersucht |
z-Transformation | Ein Wert einer beliebigen Verteilung wird durch Subtraktion des Mittelwerts und anschließende Division durch die Standardabweichung der Verteilung in einen z-Wert umgewandelt. Eine derart umgewandelte Verteilung hat einen Mittelwert von 0 und eine Standardabweichung von 1,0. Beliebige Normalverteilungen werden durch die z-Transformation in die Standardnormalverteilung überführt |
zentrale Grenzwerttheorem | Besagt, dass die Verteilung von Mittelwerten gleich großer Stichproben aus derselben Grundgesamtheit bei wachsendem Stichprobenumfang (n) in eine Normalverteilung übergeht. Dies gilt, unabhängig von der Verteilungsform der Messwerte in der Grundgesamtheit, für Stichproben mit n > 30 |
zentrale Tendenz | Charakterisiert die „Mitte“ bzw. das „Zentrum“ einer Verteilung. Bei intervallskalierten Daten wird die zentrale Tendenz durch das arithmetische Mittel oder den Median beschrieben |
zufällige Effekte | Ein Faktor überprüft zufällige Effekte, wenn die Auswahl der Effekte zufällig aus einer Population erfolgte. Beispiel: Lehrer, Therapeuten oder Versuchsleiter als Stufen eines Faktors |
Zufallsexperiment | Ein beliebig oft wiederholbarer Vorgang, der nach einer ganz bestimmten Vorschrift ausgeführt wird und dessen Ergebnis vom Zufall abhängt, d. h. nicht im Voraus eindeutig bestimmt werden kann (z.B. Würfeln, Messung der Reaktionszeit) |
Zufallsstichprobe | Zufällige Auswahl von Untersuchungseinheiten; jedes Element der Grundgesamtheit wird, unabhängig von den bereits ausgewählten Elementen, mit gleicher Wahrscheinlichkeit ausgewählt |
Zufallsvariable | Funktion, die den Ergebnissen eines Zufallsexperiments (d. h. Elementarereignissen oder Ereignissen) reelle Zahlen zuordnet, z. B. beim Würfeln Zuordnung einer Zahl von 1 bis 6 zu jedem Wurf |
Zusammenhangshypothese | Annahme, die besagt, dass zwei oder mehr zu untersuchende Merkmale miteinander zusammenhängen. Überprüfung durch Korrelationsstatistik |
zweiseitiger Test | Statistischer Test, der eine ungerichtete Hypothese (im Gegensatz zu einer gerichteten Hypothese) überprüft |