Zufall und Wahrscheinlichkeit in der Statistik

Zufall ist das Auftreten von Ereignissen ohne offensichtlichen Grund oder Ursache. Es ist einfach die Möglichkeit, dass etwas passiert. Wenn der Zufall in der Mathematik definiert wird, nennt man ihn Wahrscheinlichkeit.

Die Wahrscheinlichkeit ist das Ausmaß, in dem ein Ereignis wahrscheinlich eintritt, gemessen durch das Verhältnis der günstigen Fälle zur Gesamtzahl der möglichen Fälle.

Mathematisch gesehen ist die Wahrscheinlichkeit, dass ein Ereignis eintritt, gleich dem Verhältnis zwischen der Anzahl der für ein bestimmtes Ereignis günstigen Fälle und der Anzahl aller möglichen Fälle.

P(E ) = (Anzahl der Ergebnisse, die für E günstig sind) / (Anzahl aller möglichen Ergebnisse des Experiments)

Die theoretische Wahrscheinlichkeit eines Ereignisses wird als P(E) bezeichnet.

Angenommen, wir nehmen eine Münze und werfen sie. Die Wahrscheinlichkeit, dass sie Kopf anzeigt, ist gleich groß wie die, dass sie Zahl zeigt. In ähnlicher Weise besteht bei jedem dieser Ereignisse die gleiche Wahrscheinlichkeit, dass einer der verschiedenen Fälle eintritt. Beim Würfeln zum Beispiel ist die Wahrscheinlichkeit, alle sechs Zahlen zu erhalten, gleich groß. Wir gehen auch davon aus, dass der Würfel oder die Münze, die wir verwenden, unvoreingenommen und fair sind, d. h. dass sie nicht mit der Absicht manipuliert wurden, ein bestimmtes Ergebnis zu begünstigen.

Alle möglichen Ergebnisse eines Zufallsexperiments zusammengenommen werden als Stichprobenraum bezeichnet.

Die einzelnen möglichen Ergebnisse eines Ereignisses werden als Ergebnis bezeichnet. Wenn ein Ereignis nur ein Ergebnis hat, nennt man es ein Elementarereignis.

Die Summe aller Wahrscheinlichkeiten für jedes Elementarereignis ist 1. Zum Beispiel sind beim Werfen einer Münze die beiden möglichen Ergebnisse Kopf oder Zahl.

P (Kopf) = 0,5

P (Zahl) = 0,5

Die Summe aller möglichen Ergebnisse umfasst nun die Wahrscheinlichkeit für Kopf und die Wahrscheinlichkeit für Zahl.

P (Werfen einer Münze) = P (Kopf) + P (Zahl) = 0,5 + 0,5 = 1

Wenn wir nun die Wahrscheinlichkeit ermitteln müssen, dass ein Ereignis nicht eintritt. Sie wird mit einem Balken über dem E dargestellt. P(E¯) ist die Wahrscheinlichkeit, dass das Ereignis E nicht eintritt, und wird als Komplement des Ereignisses E bezeichnet. Daher können wir sagen, dass E und komplementär sind.

P (E) + P(E¯) = 1

(Hinweis: Aus Formatierungsgründen ist hier ein Minus neben dem E -> in der mathematisch korrekten Schreibweise muss aber der Strich direkt über den Buchstaben.)

Dies bedeutet auch, dass P(E¯) = 1 – P(E)

Die Wahrscheinlichkeit eines unmöglichen Ereignisses ist 0. Man nennt dies ein unmögliches Ereignis.

Die Wahrscheinlichkeit für ein sicheres Ereignis ist 1. Man spricht von einem sicheren Ereignis.

Alle Wahrscheinlichkeiten, die sich auf dasselbe Ereignis beziehen, liegen zwischen 0 und 1.

0 ≤ P(E) ≤ 1

Beispiele für Problemfälle

1. Würfel-Probleme

Finde die Wahrscheinlichkeit, eine rote, blaue und grüne Kugel zu wählen, wenn ein Beutel 5 blaue, 8 rote und 10 grüne Kugeln enthält.

a. Wahrscheinlichkeit der Wahl einer roten Kugel

Mögliche Ergebnisse = 23

Die Wahrscheinlichkeit, dass eine rote Kugel gewählt wird, ist also 8/23.

b. Ebenso ist die Wahrscheinlichkeit, eine grüne Kugel zu wählen, 10/23

c. und die Wahrscheinlichkeit, dass die blaue Kugel gewählt wird, ist 5/23

2. Probleme mit Kartenstapeln

Wenn eine Karte aus einem Kartenspiel gezogen wird, wie groß ist dann die Wahrscheinlichkeit, dass die Karte,

a. Eine Zwei

b. Keine Zwei gezogen wird

I. Es gibt vier 2en in einem Kartenspiel

Somit ist die Gesamtzahl der günstigen Ergebnisse = E = 4

Gesamtzahl der möglichen Ergebnisse = 52

Die Wahrscheinlichkeit, dass eine 2 aus einem Kartenspiel mit 52 Karten gezogen wird, ist also:

P(E) = 4/52 = 1/13

II. T sei das Ereignis “gezogene Karte ist keine 2”.

Somit ist die Wahrscheinlichkeit, eine Karte zu ziehen, die keine 2 ist, = T

T = 52 – 4 = 48

Daraus folgt,

P(T) = 48/52 = 12/13

Eine andere Möglichkeit, die gleiche Lösung zu finden, ist,

P(T) = P(E) – 1 = 1 – 1/13 = 12/13

SQL Überblick

Was ist SQL?

  • SQL steht für Structured Query Language (strukturierte Abfragesprache).
  • Mit SQL können Sie auf Datenbanken zugreifen und diese bearbeiten.
  • SQL wurde 1986 ein Standard des American National Standards Institute (ANSI) und 1987 der International Organization for Standardization (ISO).

Was kann SQL?

  • SQL kann Abfragen an eine Datenbank stellen
  • SQL kann Daten aus einer Datenbank abrufen
  • SQL kann Datensätze in eine Datenbank einfügen
  • SQL kann Datensätze in einer Datenbank aktualisieren
  • SQL kann Datensätze aus einer Datenbank löschen
  • SQL kann neue Datenbanken erstellen
  • SQL kann neue Tabellen in einer Datenbank erstellen
  • SQL kann gespeicherte Prozeduren in einer Datenbank erstellen
  • SQL kann Ansichten in einer Datenbank erstellen
  • SQL kann Berechtigungen für Tabellen, Prozeduren und Ansichten festlegen

SQL ist ein Standard mit vielen Versionen

Obwohl SQL ein ANSI/ISO-Standard ist, gibt es verschiedene Versionen der SQL-Sprache.

Um jedoch dem ANSI-Standard zu entsprechen, unterstützen sie alle zumindest die wichtigsten Befehle (wie SELECT, UPDATE, DELETE, INSERT, WHERE) auf ähnliche Weise.

Hinweis: Die meisten SQL-Datenbankprogramme haben neben dem SQL-Standard auch ihre eigenen proprietären Erweiterungen!

Überblick von ausgewählten SQL-Anweisungen, Schlüsselwörter, Funktionen,Klauseln, Operatoren für BigQuery

 SQL select distinct Statement
 SQL where Klausel
 SQL Operatoren and or und not
 SQL order by schluesselwort
die  SQL insert into Anweisung
die  SQL update Anweisung
 SQL delete Anweisung
die  SQL select limit Klausel
die  SQL Funktionen min und max
die  SQL Funktionen count avg und sum
der  SQL like Operator
der  SQL Operator in
der  SQL between Operator
 SQL group by Anweisung
die  SQL having Klausel
der  SQL exists Operator
die  SQL Anweisung case

Was ist ein Z-Wert?

Der Z-Wert ist eine Teststatistik für Z-Tests, die die Differenz zwischen einer beobachteten Statistik und ihrem hypothetischen Populationsparameter in Einheiten der Standardabweichung misst. Ein Beispiel: Eine Auswahl von Fabrikformen hat eine mittlere Tiefe von 10 cm und eine Standardabweichung von 1 cm. Eine Form mit einer Tiefe von 12 cm hat einen Z-Wert von 2, da ihre Tiefe um zwei Standardabweichungen größer ist als der Mittelwert. Die vertikale Linie stellt diese Beobachtung und ihre Lage in Bezug auf die gesamte Population dar:

Der z-Score für Schüler A betrug 1, was bedeutet, dass Schüler A eine Standardabweichung über dem Mittelwert lag. Somit lag Schüler A im 84,13-Perzentil des SAT-Tests.
Der z-Score für Schüler B betrug 0,6, was bedeutet, dass Schüler B 0,6 Standardabweichungen über dem Mittelwert lag. Somit lag Schüler B im 72,57-Perzentil des SAT-Tests.

Die Umwandlung einer Beobachtung in einen Z-Wert wird als Standardisierung bezeichnet. Zur Standardisierung einer Beobachtung in einer Grundgesamtheit wird der Mittelwert der Grundgesamtheit von der betreffenden Beobachtung abgezogen und das Ergebnis durch die Standardabweichung der Grundgesamtheit dividiert. Das Ergebnis dieser Berechnungen ist der Z-Wert für die betreffende Beobachtung.

Anhand des Z-Werts können Sie feststellen, ob die Nullhypothese abzulehnen ist. Um festzustellen, ob die Nullhypothese abzulehnen ist, vergleichen Sie den Z-Wert mit Ihrem kritischen Wert, der in den meisten Statistikbüchern in einer Standardnormaltabelle zu finden ist. Der kritische Wert ist Z1-α/2 für einen zweiseitigen Test und Z1-α für einen einseitigen Test. Wenn der absolute Wert des Z-Werts größer ist als der kritische Wert, wird die Nullhypothese verworfen. Ist dies nicht der Fall, wird die Nullhypothese nicht zurückgewiesen.

Sie möchten zum Beispiel wissen, ob eine zweite Gruppe von Formen ebenfalls eine mittlere Tiefe von 10 cm aufweist. Sie messen die Tiefe der einzelnen Formen in der zweiten Gruppe und berechnen die mittlere Tiefe der Gruppe. Ein 1-Stichproben-Z-Test berechnet einen Z-Wert von -1,03. Sie wählen ein α von 0,05, was zu einem kritischen Wert von 1,96 führt. Da der absolute Wert des Z-Werts kleiner als 1,96 ist, können Sie die Nullhypothese nicht zurückweisen und nicht zu dem Schluss kommen, dass sich die mittlere Tiefe der Form von 10 cm unterscheidet.

Was ist eine Normalverteilung?

Die Normalverteilung, auch bekannt als Gauß-Verteilung, ist eine Wahrscheinlichkeitsverteilung, die symmetrisch um den Mittelwert ist und zeigt, dass Daten in der Nähe des Mittelwerts häufiger vorkommen als Daten, die weit vom Mittelwert entfernt sind. In grafischer Form wird die Normalverteilung als Glockenkurve dargestellt.


Gut zu wissen

  • Eine Normalverteilung ist die richtige Bezeichnung für eine Wahrscheinlichkeitsglockenkurve.
  • Bei einer Normalverteilung ist der Mittelwert gleich Null und die Standardabweichung gleich 1. Sie hat eine Schiefe von Null und eine Kurtosis von 3.
  • Normalverteilungen sind symmetrisch, aber nicht alle symmetrischen Verteilungen sind normal.
  • In der Realität sind die meisten Verteilungen nicht vollkommen normal.

Verständnis der Normalverteilung

Die Normalverteilung ist der häufigste Verteilungstyp, der in statistischen Analysen angenommen wird. Die Standard-Normalverteilung hat zwei Parameter: den Mittelwert und die Standardabweichung. Bei einer Normalverteilung liegen 68 % der Beobachtungen innerhalb von +/- einer Standardabweichung des Mittelwerts, 95 % liegen innerhalb von +/- zwei Standardabweichungen und 99,7 % innerhalb von +- drei Standardabweichungen.

Das Modell der Normalverteilung wird durch den zentralen Grenzwertsatz begründet. Diese Theorie besagt, dass Durchschnittswerte, die aus unabhängigen, identisch verteilten Zufallsvariablen berechnet werden, annähernd normalverteilt sind, unabhängig von der Art der Verteilung, aus der die Variablen entnommen werden (vorausgesetzt, sie hat eine endliche Varianz). Die Normalverteilung wird manchmal mit der symmetrischen Verteilung verwechselt. Eine symmetrische Verteilung ist eine Verteilung, bei der eine Trennlinie zwei Spiegelbilder erzeugt, aber die tatsächlichen Daten könnten neben der Glockenkurve, die eine Normalverteilung anzeigt, auch zwei Buckel oder eine Reihe von Hügeln aufweisen.

Bei der Normalverteilung machen die Werte, die weniger als eine Standardabweichung vom Mittelwert abweichen, 68,27 % der Menge aus, während zwei Standardabweichungen vom Mittelwert 95,45 % und drei Standardabweichungen 99,73 % ausmachen.

Was ist eine Verteilung in der Statistik?

Wenn wir in der Statistik den Begriff Normalverteilung verwenden, meinen wir gewöhnlich eine Wahrscheinlichkeitsverteilung. Gute Beispiele sind die Normalverteilung, die Binomialverteilung und die Uniformverteilung.

Nun gut. Beginnen wir mit einer Definition!

Eine Verteilung in der Statistik ist eine Funktion, die die möglichen Werte für eine Variable und deren Häufigkeit angibt.

Denken Sie an einen Würfel. Er hat sechs Seiten, die von 1 bis 6 nummeriert sind. Wir würfeln mit dem Würfel. Wie groß ist die Wahrscheinlichkeit, eine 1 zu erhalten?

Es ist eine von sechs, also ein Sechstel, richtig? Wie groß ist die Wahrscheinlichkeit, eine 2 zu erhalten? Auch hier: ein Sechstel. Das Gleiche gilt für 3, 4, 5 und 6.

Und jetzt. Wie hoch ist die Wahrscheinlichkeit, eine 7 zu bekommen? Es ist unmöglich, eine 7 zu erhalten, wenn man einen Würfel wirft.

Daher ist die Wahrscheinlichkeit 0.

Die Verteilung eines Ereignisses besteht nicht nur aus den Eingangswerten, die beobachtet werden können, sondern aus allen möglichen Werten.

Die Verteilung des Ereignisses – das Würfeln eines Würfels – ist also folgende. Die Wahrscheinlichkeit, eine Eins zu bekommen, ist 0,17, die Wahrscheinlichkeit, eine 2 zu bekommen, ist 0,17 usw… Sie sind sicher, dass Sie alle möglichen Werte ausgeschöpft haben, wenn die Summe der Wahrscheinlichkeiten gleich 1% oder 100% ist. Für alle anderen Werte ist die Wahrscheinlichkeit des Auftretens 0.

Statistische Momente in der Data Science

Momente sind eine Reihe von statistischen Parametern, die zur Beschreibung einer Verteilung verwendet werden. Die Berechnungen sind einfach und werden daher oft als erster quantitativer Einblick in die Daten verwendet. Ein gutes Verständnis der Daten sollte immer der erste Schritt vor dem Training eines fortgeschrittenen ML-Modells sein. So lässt sich der Zeitaufwand für die Auswahl der Methodik und die Interpretation der Ergebnisse minimieren.

In der Physik beziehen sich Momente auf Masse und informieren uns darüber, wie die physikalische Größe angeordnet ist. In der Mathematik beziehen sich die Momente auf etwas Ähnliches – die Wahrscheinlichkeitsverteilung – eine Funktion, die erklärt, wie wahrscheinlich die verschiedenen möglichen Ergebnisse eines Experiments sind. Um verschiedene Datensätze vergleichen zu können, können wir sie mit den ersten vier statistischen Momenten beschreiben:

  1. Der Erwartungswert
  2. Die Varianz
  3. Schiefe
  4. Kurtosis

Verschieben eines Datensatzes vs. Skalieren eines Datensatzes

Eine Verschiebung des Datensatzes um eine Konstante k bedeutet, dass k zu jedem Wert des Datensatzes addiert oder von jedem Wert des Datensatzes subtrahiert wird.

Eine Skalierung des Datensatzes um eine Konstante k bedeutet dagegen, dass jeder Wert im Datensatz mit k multipliziert oder dividiert wird.

Wir haben gelernt, dass eine Verschiebung des Datensatzes den Mittelwert, den Median und den Modus um den gleichen Betrag wie die Konstante verschiebt, dass aber der Bereich und der IQR gleich bleiben. Die Verschiebung eines Datensatzes um k könnte zum Beispiel so aussehen:

Orginal Data SetVerschobenes Data Set
Mittelwert: 66+k
Median: 77+k
Modus: 33+k
Bereich: 1010
IQA: 88

Wir haben auch gelernt, dass die Skalierung des Datensatzes Mittelwert, Median, Modus, Bereich und IQR gleichermaßen skaliert. Mit anderen Worten: Sie skalieren alle mit demselben Faktor. Die Skalierung eines Datensatzes durch Multiplikation mit kk könnte zum Beispiel so aussehen:

Orginal Data SetVerschobenes Data Set
Mittelwert: 66k
Median: 77k
Modus: 33k
Bereich: 1010k
IQA: 88k

Verstehen und Berechnen der Varianz

Die Varianz ist ein Maß für die Variabilität. Sie wird berechnet, indem man den Durchschnitt der quadrierten Abweichungen vom Mittelwert nimmt.

Die Varianz gibt Aufschluss über den Grad der Streuung in Ihrem Datensatz. Je stärker die Daten gestreut sind, desto größer ist die Varianz im Verhältnis zum Mittelwert.

Varianz vs. Standardabweichung

Die Standardabweichung ist von der Varianz abgeleitet und gibt an, wie weit jeder Wert im Durchschnitt vom Mittelwert entfernt ist. Sie ist die Quadratwurzel der Varianz.

Beide Maße spiegeln die Variabilität in einer Verteilung wider, aber ihre Einheiten unterscheiden sich:

  • Die Standardabweichung wird in denselben Einheiten wie die ursprünglichen Werte ausgedrückt (z. B. in Metern).
  • Die Varianz wird in viel größeren Einheiten ausgedrückt (z. B. Meter zum Quadrat).

Da die Einheiten der Varianz viel größer sind als die eines typischen Wertes eines Datensatzes, ist es schwieriger, die Varianzzahl intuitiv zu interpretieren. Aus diesem Grund wird die Standardabweichung oft als Hauptmaß für die Variabilität bevorzugt.

Die Varianz ist jedoch informativer über die Variabilität als die Standardabweichung und wird für statistische Schlussfolgerungen verwendet.

Beispiel für Stichproben aus zwei Populationen mit gleichem Mittelwert, aber unterschiedlichen Varianzen. Die rote Population hat einen Mittelwert von 100 und eine Varianz von 100 (SD=10), während die blaue Population einen Mittelwert von 100 und eine Varianz von 2500 (SD=50) hat.

Schritte zur Berechnung der Varianz

Die Varianz wird normalerweise automatisch von der Software berechnet, die Sie für Ihre statistische Analyse verwenden. Sie können sie aber auch von Hand berechnen, um besser zu verstehen, wie die Formel funktioniert.

Es gibt fünf Hauptschritte, um die Varianz von Hand zu ermitteln. Wir verwenden einen kleinen Datensatz von 6 Werten, um die Schritte zu erläutern.

Data set
466932605241

Schritt 1: Ermitteln des Mittelwerts
Um den Mittelwert zu ermitteln, addieren Sie alle Punkte und teilen Sie sie durch die Anzahl der Punkte.

Mittelwert (x̅)
x̅ = (46 + 69 + 32 + 60 + 52 + 41) ÷ 6 = 50

Schritt 2: Ermitteln Sie die Abweichung der einzelnen Werte vom Mittelwert
Ziehen Sie den Mittelwert von jeder Punktzahl ab, um die Abweichungen vom Mittelwert zu ermitteln.

Da x̅ = 50 ist, ziehst du von jeder Punktzahl 50 ab.

ScoreAbweichung vom Mittelwert
4646 – 50 = -4
6969 – 50 = 19
3232 – 50 = -18
6060 – 50 = 10
5252 – 50 = 2
4141 – 50 = -9

Schritt 3: Quadrieren Sie jede Abweichung vom Mittelwert
Multiplizieren Sie jede Abweichung vom Mittelwert mit sich selbst. Das Ergebnis sind positive Zahlen.

Quadratische Abweichung vom Mittelwert
(-4)2 = 4 × 4 = 16
192 = 19 × 19 = 361
(-18)2 = -18 × -18 = 324
102 = 10 × 10 = 100
22 = 2 × 2 = 4
(-9)2 = -9 × -9 = 81

Schritt 4: Ermitteln der Summe der Quadrate
Addieren Sie alle quadrierten Abweichungen. Dies wird die Summe der Quadrate genannt.

Summe der Quadrate
16 + 361 + 324 + 100 + 4 + 81 = 886

Schritt 5: Teilen Sie die Summe der Quadrate durch n – 1 oder N
Teilen Sie die Summe der Quadrate durch n – 1 (bei einer Stichprobe) oder N (bei einer Grundgesamtheit).

Da wir mit einer Stichprobe arbeiten, verwenden wir n – 1, wobei n = 6 ist.

Varianz
 886 ÷ (6 – 1) = 886 ÷ 5 = 177.2

Warum ist die Varianz wichtig?

Die Varianz ist vor allem aus zwei Gründen wichtig:

  • Parametrische statistische Tests sind empfindlich gegenüber Varianz.
  • Der Vergleich der Varianz von Stichproben hilft bei der Beurteilung von Gruppenunterschieden.

Homogenität der Varianz bei statistischen Tests

Die Varianz ist wichtig, bevor parametrische Tests durchgeführt werden. Diese Tests erfordern gleiche oder ähnliche Varianzen, auch Homogenität der Varianz oder Homoskedastizität genannt, wenn verschiedene Stichproben verglichen werden.

Ungleiche Varianzen zwischen Stichproben führen zu verzerrten und schiefen Testergebnissen. Bei ungleichen Varianzen zwischen Stichproben sind nicht-parametrische Tests besser geeignet.

Verwendung der Varianz zur Bewertung von Gruppenunterschieden

Statistische Tests wie Varianztests oder die Varianzanalyse (ANOVA) verwenden die Stichprobenvarianz, um Gruppenunterschiede zu bewerten. Sie verwenden die Varianzen der Stichproben, um zu beurteilen, ob sich die Populationen, aus denen sie stammen, voneinander unterscheiden.

Beispiel aus der Forschung

Als Bildungsforscher möchten Sie die Hypothese testen, dass unterschiedliche Häufigkeiten von Quizfragen zu unterschiedlichen Endnoten von Studenten führen. Sie erheben die Endnoten von drei Gruppen mit jeweils 20 Studenten, die während eines Semesters häufig, selten oder gar nicht an Tests teilgenommen haben.

  • Probe A: Einmal pro Woche
  • Stichprobe B: Einmal alle 3 Wochen
  • Stichprobe C: Einmal alle 6 Wochen

Um die Gruppenunterschiede zu bewerten, führen Sie eine ANOVA durch.

Der Grundgedanke einer ANOVA besteht darin, die Varianzen zwischen den Gruppen und die Varianzen innerhalb der Gruppen zu vergleichen, um festzustellen, ob die Ergebnisse am besten durch die Gruppenunterschiede oder durch individuelle Unterschiede erklärt werden können.

Wenn die Varianz zwischen den Gruppen höher ist als die Varianz innerhalb der Gruppen, ist es wahrscheinlich, dass sich die Gruppen aufgrund der Behandlung unterscheiden. Ist dies nicht der Fall, können die Ergebnisse stattdessen auf individuelle Unterschiede zwischen den Stichprobenmitgliedern zurückzuführen sein.

Beispiel aus der Forschung

In Ihrer ANOVA wird untersucht, ob die Unterschiede in den mittleren Endnoten zwischen den Gruppen auf die Unterschiede in der Häufigkeit der Tests oder auf die individuellen Unterschiede der Schüler in jeder Gruppe zurückzuführen sind.

Zu diesem Zweck erhalten Sie ein Verhältnis zwischen der Varianz der Endnoten zwischen den Gruppen und der Varianz der Endnoten innerhalb der Gruppen – dies ist die F-Statistik. Bei einer großen F-Statistik ermitteln Sie den entsprechenden p-Wert und schließen daraus, dass sich die Gruppen signifikant voneinander unterscheiden.

Häufig gestellte Fragen zur Varianz

Welches sind die 4 wichtigsten Maße der Variabilität?

Die Variabilität wird am häufigsten mit den folgenden deskriptiven Statistiken gemessen:

  • Spannweite: die Differenz zwischen dem höchsten und dem niedrigsten Wert
  • Interquartilsbereich: der Bereich der mittleren Hälfte einer Verteilung
  • Standardabweichung: durchschnittlicher Abstand vom Mittelwert
  • Varianz: Durchschnitt der quadrierten Abstände vom Mittelwert

Was ist der Unterschied zwischen Standardabweichung und Varianz?

Die Varianz ist die durchschnittliche quadrierte Abweichung vom Mittelwert, während die Standardabweichung die Quadratwurzel aus dieser Zahl ist. Beide Maße spiegeln die Variabilität in einer Verteilung wider, aber ihre Einheiten sind unterschiedlich:

  • Die Standardabweichung wird in denselben Einheiten wie die ursprünglichen Werte ausgedrückt (z. B. in Minuten oder Metern).
  • Die Varianz wird in viel größeren Einheiten ausgedrückt (z. B. Meter zum Quadrat).

Obwohl die Einheiten der Varianz intuitiv schwieriger zu verstehen sind, ist die Varianz bei statistischen Tests wichtig.

Wofür wird die Varianz in der Statistik verwendet?

Statistische Tests wie Varianztests oder die Varianzanalyse (ANOVA) verwenden die Stichprobenvarianz, um Gruppenunterschiede in Populationen zu bewerten. Sie verwenden die Varianzen der Stichproben, um zu beurteilen, ob sich die Populationen, aus denen sie stammen, signifikant voneinander unterscheiden.

Was ist Homoskedastizität?

Homoskedastizität oder Homogenität der Varianzen ist die Annahme gleicher oder ähnlicher Varianzen in verschiedenen zu vergleichenden Gruppen.

Dies ist eine wichtige Voraussetzung für parametrische statistische Tests, da sie auf Ungleichheiten empfindlich reagieren. Ungleiche Varianzen in Stichproben führen zu verzerrten und schiefen Testergebnissen.

Statistische Signifikanz und Stichprobengröße

Ein Vergleich der statistischen Signifikanz, des Stichprobenumfangs und der erwarteten Auswirkungen ist wichtig, bevor ein Experiment durchgeführt wird.

Eine Power-Analyse wird verwendet, um die Mindeststichprobengröße zu ermitteln, die im Vergleich zum Signifikanzniveau und den erwarteten Auswirkungen erforderlich ist.

Viele Wirkungen wurden aufgrund einer unzureichenden Planung einer Studie und eines zu geringen Stichprobenumfangs verpasst. Auch gegen eine zu große Stichprobe ist nichts einzuwenden, aber oft sind viel Geld und Aufwand erforderlich, um die Stichprobe zu vergrößern, was sich als unnötig erweisen könnte.

Verallgemeinerung


Wenn Sie die Ergebnisse Ihrer Forschung an einer kleinen Stichprobe auf eine ganze Population verallgemeinern wollen, sollte Ihre Stichprobe mindestens so groß sein, dass das Signifikanzniveau angesichts der erwarteten Auswirkungen erreicht werden kann. Die erwarteten Auswirkungen werden häufig anhand von Pilotstudien, dem gesunden Menschenverstand oder durch den Vergleich ähnlicher Experimente ermittelt. Die erwarteten Wirkungen sind möglicherweise nicht ganz korrekt.

Der Vergleich der statistischen Signifikanz und des Stichprobenumfangs wird durchgeführt, um die für die gegebene Stichprobe erzielten Ergebnisse auf die gesamte Population übertragen zu können.

Es ist sinnvoll, dies vor der Durchführung des Experiments zu tun – manchmal stellt man fest, dass man einen viel größeren Stichprobenumfang benötigt, um ein signifikantes Ergebnis zu erhalten, als es machbar ist (was dazu führt, dass man das ganze Verfahren überdenkt).

Verschiedene Experimente haben immer unterschiedliche Stichprobengrößen und Signifikanzniveaus. Die Konzepte sind sehr nützlich bei biologischen, wirtschaftlichen und sozialen Experimenten und bei allen Arten von Verallgemeinerungen, die auf Informationen über eine kleinere Teilmenge basieren.

Power (Teil 1)

Die Ergebnisse Ihres Experiments werden validiert und können nur akzeptiert werden, wenn die Ergebnisse für das jeweilige Experiment einen Signifikanztest bestehen. Der Stichprobenumfang wird anhand der statistischen Aussagekraft angepasst.

Wenn beispielsweise ein Experimentator eine Umfrage unter einer Gruppe von 100 Personen durchführt und auf der Grundlage dieser Daten über die Bundestagswahlen entscheidet, sind die Ergebnisse höchstwahrscheinlich fehlerhaft, da die Grundgesamtheit im Vergleich zur Stichprobengröße sehr groß ist.

Konfidenzniveau

Der Stichprobenumfang hängt von dem Konfidenzintervall und dem Konfidenzniveau ab. Je geringer das erforderliche Konfidenzintervall ist, desto größer muss der Stichprobenumfang sein.

Wenn Sie z. B. 1000 Personen in einer Stadt zu ihrer Wahl des Bürgermeisters befragen, können Ihre Ergebnisse mit einer Genauigkeit von +/- 4 % ausfallen. Wenn Sie das Konfidenzintervall auf +/- 1 % verringern möchten, müssen Sie natürlich mehr Personen befragen, was eine Vergrößerung der Stichprobe bedeutet.

Wenn Sie möchten, dass die Ergebnisse Ihrer Bürgermeisterbefragung ein Konfidenzniveau von 99 % anstelle von 95 % erreichen, müssen Sie eine viel größere Stichprobe von Personen befragen. Das bedeutet, dass die Umfrage eine höhere Aussagekraft benötigt, um eine Hypothese zu bestätigen.

Vergrößerung der Stichprobengröße

Einige Forscher entscheiden sich dafür, ihren Stichprobenumfang zu erhöhen, wenn sie einen Effekt haben, der fast innerhalb des Signifikanzniveaus liegt. Dies geschieht, weil der Forscher vermutet, dass es ihm an Stichproben mangelt, und nicht, dass es keinen Effekt gibt. Diese Methode ist mit Vorsicht zu genießen, da sie die Wahrscheinlichkeit eines falsch positiven Ergebnisses erhöht.

Bei einem höheren Stichprobenumfang sinkt die Wahrscheinlichkeit, dass Fehler vom Typ I und II auftreten, zumindest wenn andere Teile der Studie sorgfältig aufgebaut und Probleme vermieden werden. Ein höherer Stichprobenumfang ermöglicht es dem Forscher, das Signifikanzniveau der Ergebnisse zu erhöhen, da die Sicherheit des Ergebnisses mit einem höheren Stichprobenumfang wahrscheinlich zunimmt. Dies ist zu erwarten, denn je größer die Stichprobe ist, desto genauer dürfte sie das Verhalten der gesamten Gruppe widerspiegeln.

Wenn Sie also Ihre Nullhypothese ablehnen wollen, sollten Sie sicherstellen, dass Ihre Stichprobengröße mindestens der Stichprobengröße entspricht, die für die gewählte statistische Signifikanz und die erwarteten Auswirkungen erforderlich ist.

Signifikanz (p = 0,05)

Lassen Sie uns als nächstes die statistische Signifikanz erörtern, da sie den Eckpfeiler der Inferenzstatistik bildet. Wir werden die Signifikanz im Zusammenhang mit echten Experimenten erörtern, da sie am relevantesten und am leichtesten zu verstehen ist. Ein echtes Experiment wird verwendet, um eine oder mehrere spezifische Hypothesen über die kausale Beziehung zwischen einer oder mehreren Variablen zu testen. Konkret stellen wir die Hypothese auf, dass eine oder mehrere Variablen (d. h. unabhängige Variablen) eine Veränderung in einer anderen Variablen (d. h. abhängigen Variablen) bewirken. Diese Veränderung ist die von uns abgeleitete Kausalität.


Ein Beispiel: Wir wollen die Hypothese testen, dass ein autoritärer Unterrichtsstil bei den Schülern zu höheren Testergebnissen führt. Um diese Hypothese genau zu testen, wählen wir nach dem Zufallsprinzip 2 Gruppen von Schülern aus, die nach dem Zufallsprinzip in eines von zwei Klassenzimmern eingeteilt werden. Ein Klassenzimmer wird von einem autoritären Lehrer und eines von einem autoritären Lehrer unterrichtet. Während des gesamten Halbjahres sammeln wir die Testergebnisse aller Klassenräume. Am Ende des Jahres werden alle Ergebnisse gemittelt, um einen Gesamtdurchschnitt für jede Klasse zu ermitteln.

Nehmen wir an, der Durchschnitt der Testergebnisse in der autoritären Klasse liegt bei 80 %, in der autoritativen Klasse bei 88 %. Es sieht so aus, als ob Ihre Hypothese richtig wäre: Die Schüler, die von der autoritären Lehrkraft unterrichtet wurden, haben im Durchschnitt 8 % mehr Punkte in ihren Tests erzielt als die Schüler, die von der autoritären Lehrkraft unterrichtet wurden. Was aber, wenn wir dieses Experiment 100 Mal durchführen würden, jedes Mal mit anderen Schülergruppen? Wie hoch ist die Wahrscheinlichkeit, dass dieser Effekt des Unterrichtsstils auf die Testergebnisse der Schüler durch Zufall oder eine andere latente (d. h. nicht gemessene) Variable zustande kommt? Und nicht zuletzt: Sind 8 % “hoch genug”, um sich so sehr von 80 % zu unterscheiden?


Nullhypothese: Angenommene Hypothese, die besagt, dass es keine signifikanten Unterschiede zwischen den Gruppen gibt. In unserem Beispiel zum Unterrichtsstil würde die Nullhypothese keine Unterschiede zwischen den Testergebnissen der Schüler je nach Unterrichtsstil vorhersagen.


Alternativ- oder Forschungshypothese: Unsere ursprüngliche Hypothese, die besagt, dass der autoritative Unterrichtsstil die höchsten durchschnittlichen Testergebnisse der Schüler hervorbringt.
Nachdem wir nun die Voraussetzungen geschaffen haben, wollen wir definieren, was ein p-Wert ist und was es bedeutet, dass Ihre Ergebnisse signifikant sind.


Der p-Wert (auch als Alpha bekannt) ist die Wahrscheinlichkeit, dass unsere Nullhypothese wahr ist. Ein signifikantes Ergebnis bedeutet einfach, dass der p-Wert Ihres statistischen Tests gleich oder kleiner als Ihr Alpha-Wert ist, der in den meisten Fällen 0,05 beträgt.


Ein p-Wert von 0,05 ist ein gängiger Standard, der in vielen Forschungsbereichen verwendet wird.
Ein signifikanter p-Wert (d. h. weniger als 0,05) würde bedeuten, dass die Wahrscheinlichkeit, dass Ihre Nullhypothese richtig ist, weniger als 5 % beträgt. Wenn dies der Fall ist, verwerfen wir die Nullhypothese, akzeptieren unsere Alternativhypothese und stellen fest, dass sich die Testergebnisse der Schüler signifikant voneinander unterscheiden.

Beachten Sie, dass wir nicht gesagt haben, dass die unterschiedlichen Unterrichtsstile die signifikanten Unterschiede in den Testergebnissen der Schüler verursacht haben. Der p-Wert sagt uns nur, ob sich die Gruppen voneinander unterscheiden oder nicht. Wir müssen den Schluss ziehen, dass die Lehrmethoden die Unterschiede zwischen den Gruppen beeinflusst haben.


Eine andere Möglichkeit, einen signifikanten p-Wert zu betrachten, besteht darin, die Wahrscheinlichkeit zu berücksichtigen, dass bei einer 100-maligen Durchführung dieses Experiments mindestens fünf Mal die Testergebnisse der Schüler sehr ähnlich ausfallen würden.


Wenn wir unser Alpha auf 0,01 setzen, müsste unser resultierender p-Wert gleich oder kleiner als 0,01 (d. h. 1 %) sein, um unsere Ergebnisse als signifikant zu betrachten. Dies würde natürlich ein strengeres Kriterium darstellen, und wenn wir die Ergebnisse als signifikant einstufen, würden wir zu dem Schluss kommen, dass die Wahrscheinlichkeit, dass die Nullhypothese richtig ist, weniger als 1 % beträgt.

Statistische Power (Teil 2)

Die Stichprobengröße bzw. die Anzahl der Teilnehmer an Ihrer Studie hat einen enormen Einfluss darauf, ob Ihre Ergebnisse signifikant sind oder nicht. Je größer der tatsächliche Unterschied zwischen den Gruppen ist (z. B. die Testergebnisse der Schüler), desto kleiner ist die Stichprobe, die wir benötigen, um einen signifikanten Unterschied zu finden (d. h. p ≤ 0,05). Theoretisch kann man bei den meisten Experimenten einen signifikanten Unterschied feststellen, wenn die Stichprobe groß genug ist. Extrem große Stichproben erfordern jedoch teure Studien und sind äußerst schwierig zu beschaffen.

Fehler vom Typ I (α) oder falsch-positive Ergebnisse, d. h. die Wahrscheinlichkeit, dass ein signifikanter Unterschied zwischen den Gruppen festgestellt wird, obwohl dies in Wirklichkeit nicht der Fall ist. Die Wahrscheinlichkeit, dass wir die Nullhypothese fälschlicherweise ablehnen, liegt bei 5 %.

Fehler vom Typ II (β) oder falsche Negative sind die Wahrscheinlichkeit, dass wir zu dem Schluss kommen, dass sich die Gruppen nicht signifikant unterscheiden, obwohl sie es in Wirklichkeit tun. Wir können die Wahrscheinlichkeit eines Fehlers vom Typ II verringern, indem wir dafür sorgen, dass unser statistischer Test eine angemessene Potenz hat.

Die Aussagekraft ist definiert als 1 – Wahrscheinlichkeit eines Fehlers vom Typ II (β). Mit anderen Worten, sie ist die Wahrscheinlichkeit, einen Unterschied zwischen den Gruppen festzustellen, wenn der Unterschied tatsächlich besteht (d. h. die Wahrscheinlichkeit, die Nullhypothese korrekt zurückzuweisen). Je höher die Aussagekraft eines statistischen Tests ist, desto größer ist seine Fähigkeit, einen signifikanten (d. h. p ≤ 0,05) Unterschied zwischen den Gruppen festzustellen.

Es ist allgemein anerkannt, dass wir eine Aussagekraft von 0,8 oder mehr anstreben sollten.

Dann besteht eine 80 %ige Chance, einen statistisch signifikanten Unterschied zu finden. Allerdings besteht immer noch eine 20-prozentige Chance, keinen tatsächlich signifikanten Unterschied zwischen den Gruppen festzustellen.

Effektgröße

Wenn Sie sich an unser Beispiel für den Unterrichtsstil erinnern, haben wir signifikante Unterschiede zwischen den beiden Gruppen von Lehrern festgestellt. Im autoritären Klassenzimmer lag die durchschnittliche Testpunktzahl bei 80 %, im autoritativen Klassenzimmer bei 88 %. Die Effektgröße versucht, die Frage zu beantworten: “Sind diese Unterschiede groß genug, um trotz ihrer statistischen Signifikanz aussagekräftig zu sein?”.


Die Effektgröße bezieht sich auf das Konzept des “minimal wichtigen Unterschieds”, das besagt, dass ein signifikanter Unterschied (d. h. p≤ 0,05) ab einem bestimmten Punkt so gering ist, dass er in der realen Welt keinen Nutzen mehr bringt. Mit der Effektgröße wird daher versucht festzustellen, ob der 8 %ige Anstieg der Testergebnisse der Schüler zwischen autoritären und autoritären Lehrern groß genug ist, um als signifikant zu gelten oder nicht. Denken Sie daran, dass wir mit klein nicht einen kleinen p-Wert meinen.


Eine andere Art, die Effektgröße zu betrachten, ist das quantitative Maß dafür, wie sehr die IV die DV beeinflusst hat. Eine hohe Effektgröße würde auf ein sehr wichtiges Ergebnis hinweisen, da die Manipulation des IV eine große Wirkung auf den DV hat.


Die Effektgröße wird in der Regel als Cohen’s d ausgedrückt. Cohen beschreibt einen kleinen Effekt = 0,2, eine mittlere Effektgröße = 0,5 und eine große Effektgröße = 0,8.

Effektgröße = ([Mittelwert der Testgruppe] – [Mittelwert der Kontrollgruppe})/Standardabweichung

Kleinere p-Werte (0,05 und darunter) deuten nicht auf große oder wichtige Effekte hin, ebenso wenig wie hohe p-Werte (0,05+) auf eine unbedeutende Bedeutung und/oder kleine Effekte hindeuten. Bei einem ausreichend großen Stichprobenumfang können selbst sehr kleine Effekte signifikante p-Werte (0,05 und darunter) ergeben. Mit anderen Worten: Die statistische Signifikanz untersucht die Wahrscheinlichkeit, dass unsere Ergebnisse auf Zufall beruhen, und die Effektgröße erklärt die Bedeutung unserer Ergebnisse.

Stichprobe vs Grundgesamtheit

Eine Grundgesamtheit ist die gesamte Gruppe, über die Sie Schlussfolgerungen ziehen wollen.

Eine Stichprobe ist die spezifische Gruppe, von der Sie Daten sammeln. Die Größe der Stichprobe ist immer kleiner als die Gesamtgröße der Grundgesamtheit.

In der Forschung bezieht sich eine Grundgesamtheit nicht immer auf Menschen. Es kann sich auch um eine Gruppe handeln, die Elemente von allem enthält, was Sie untersuchen möchten, z. B. Objekte, Ereignisse, Organisationen, Länder, Arten, Organismen usw.

Stichprobe vs Grundgesamtheit

GrundgesamtheitStichprobe
Inserate für IT-Stellen in Deutschland     Die 50 besten Suchergebnisse für Anzeigen für IT-Stellen in Deutschland am 30.12.2021
Lieder aus dem Eurovision Song ContestSiegerlieder des Eurovision Song Contest, die in englischer Sprache vorgetragen wurden
Studenten im Grundstudium in Deutschland300 Studenten von drei Deutschen Universitäten, die freiwillig an Ihrer Psychologie-Forschungsstudie teilnehmen
Alle Länder der Welt     Länder mit veröffentlichten Daten zu Geburtenraten und BIP seit 2000

Erhebung von Daten aus einer Grundgesamtheit

Erhebung der kompletten Grundgesamtheit werden verwendet, wenn Ihre Forschungsfrage Daten von allen Mitgliedern der Grundgesamtheit erfordert oder wenn Sie Zugang dazu haben.

Normalerweise ist es nur dann einfach, Daten von einer ganzen Grundgesamtheit zu sammeln, wenn diese klein, zugänglich und kooperativ ist.

Bei größeren und weit verstreuten Populationen ist es oft schwierig oder unmöglich, Daten von jeder einzelnen Person zu erfassen.

Beispiel

Ein Schuldirektor möchte die Ergebnisse der Abschlussprüfungen aller Absolventen analysieren, um festzustellen, ob es einen Trend gibt. Da er seine Ergebnisse nur auf die Abschlussschüler dieser Schule anwenden möchte, hat er problemlosen Zugang zu allen Daten.

Erhebung von Daten aus einer Stichprobe

Wenn Ihre Grundgesamtheit groß, geografisch verstreut oder schwer zu erreichen ist, müssen Sie eine Stichprobe verwenden. Bei der statistischen Analyse können Sie Stichprobendaten verwenden, um Schätzungen vorzunehmen oder Hypothesen über Bevölkerungsdaten zu testen.

Im Idealfall sollte eine Stichprobe zufällig ausgewählt werden und repräsentativ für die Grundgesamtheit sein. Die Verwendung von Wahrscheinlichkeitsstichprobenverfahren (wie einfache Zufallsstichproben oder geschichtete Stichproben) verringert das Risiko von Stichprobenverzerrungen und erhöht die interne und externe Validität.

Aus praktischen Gründen verwenden Forscher häufig Nicht-Wahrscheinlichkeitsstichprobenverfahren. Nicht-Wahrscheinlichkeitsstichproben werden nach bestimmten Kriterien ausgewählt; sie können bequemer oder billiger zugänglich sein. Aufgrund der nicht zufälligen Auswahlmethoden sind die statistischen Rückschlüsse auf die Grundgesamtheit schwächer als bei einer Wahrscheinlichkeitsstichprobe.

Gründe für die Erhebung von Stichprobel

  • Notwendigkeit: Manchmal ist es einfach nicht möglich, die gesamte Population zu untersuchen, weil sie zu groß oder zu unzugänglich ist.
  • Zweckmäßigkeit: Es ist einfacher und effizienter, Daten anhand einer Stichprobe zu erheben.
  • Kosteneffizienz: Es fallen weniger Kosten für Teilnehmer, Labor, Ausrüstung und Forscher an.
  • Verwaltbarkeit: Die Speicherung und Durchführung statistischer Analysen ist bei kleineren Datensätzen einfacher und zuverlässiger.

Beispiel

Sie möchten die politischen Einstellungen junger Menschen untersuchen. Ihre Grundgesamtheit sind die 300.000 Studenten in Deutschland, die ein Studium absolvieren. Da es nicht praktikabel ist, von allen Studenten Daten zu erheben, verwenden Sie eine Stichprobe von 300 freiwilligen Studenten von drei deutschen Universitäten – das ist die Gruppe, die Ihre Online-Umfrage ausfüllen wird.