Übersicht

1
2
3
4
5
6
7
8
9
10
11
12
13
14

PDF Vorschau

0. Einführender Text: ein quickly prototyping

 

Mit der zunehmenden Computerunterstützung bei der Anwendung statistischer Verfahren haben sich zugleich die Schwierigkeiten beim Einsatz der Statistik verschoben. Vor der Anwendung von Computerprogrammen bestand die Hauptschwierigkeit darin, für ein bestehendes Problem die entsprechende rechnerische Lösung erst selbst von Hand durchführen zu müssen. Heutzutage gibt es dagegen kaum ein statistisches Problem, wofür nicht bereits eine fertig programmierte Lösung vorliegt. Für den Nutzer von Statistiksoftwa­re stellt sich dafür umso dringender die Frage, welche als Programm bereits realisierte Lösung denn nun für das jeweils vorliegende statistische Problem geeignet sei.

Dieser Verlagerung der Schwierigkeiten beim Einsatz von Statistik muss auch eine Einführung in die Statistik Rechnung tragen: Nicht die Vermittlung einzelner Rechenschritte hat im Vordergrund zu stehen (auch keine formalen Ableitungsregeln)  - Statistik ist kein Flickwerk arithmetischer Details -, sondern die Vermittlung der theoretischen Zusammenhänge. Dabei sind insbesondere folgende Fragen zu berücksichtigen: Welche Wahrscheinlichkeitsschlüsse liegen prinzipiell einer statistischen Analyse zugrunde? Welche statistischen Verfahren sind bei welchen empirisch erhobenen Daten anzuwenden?

Die schließende Statistik oder auch Inferenzstatistik ist Thema dieses Sommersemesters. Sie baut auf die im letzten Semester behandelte deskriptive Statistik auf. Während letztere sich auf eine Zusammenfassung und Darstellung der emp­irisch erhobenen Daten beschränkt, geht es in ersterer um die Frage, mit welcher Wahrscheinlichkeit die untersuchten Daten mit einer aufgrund einer Theorie formulierten Hypothese verträglich sind.

Aber auch die Erarbeitung der inneren Logik statistischer Ent­scheidungsfindung kann nicht ohne die Vermittlung mathematischer Detailkenntnisse erfolgen. Um nun nicht vor lauter Bäumen den Wald aus den Blick zu verlieren, sei gleich am Beginn der eigentliche Haupt­zweck an zwei prototypischen Beispielen - in freilich grob vereinfachender Form - vorweggenommen. Eine solche Vorgehensweise wird im EDV-Bereich gelegentlich als "quickly prototyping" bezeichnet. Darun­ter versteht man die Erprobung eines Großprojekts am Beispiel eines Miniaturprojekts, mit dessen Hilfe Chancen und Risiken des Großprojekts ohne großen Zeitaufwand abgeschätzt werden kann. Unser Großprojekt ist im konkreten Fall die Einführung in die Inferenzstatistik. Die beiden folgenden prototypischen Beispiele sind unsere - aus Gründen der Didaktik und Einfachheit - stilisierten Miniaturprojekte, an denen grob abgeschätzt werden soll, worauf die Inferenzstatistik schlussendlich abzielt.

 

 

1. Beispiel: der Falschspieler

 

Man stelle sich einen gewöhnlichen Würfel vor, wie er beispiels­weise beim bekannten Spiel Mensch-ärgere-dich-nicht verwendet wird. Ein solcher Würfel hat 6 Augenzahlen. Wurde er nicht mani­puliert (indem beispielsweise eine seiner 6 Seiten angebohrt und mit einem Bleigewicht ausgestattet wurde), so hat jede der 6 Augenzahlen die gleiche Chance, bei einmaligem Würfeln aufzutre­ten. Es gibt keinen physikalischen (oder anderen) Grund, der das Würfeln einer bestimmten Augenzahl wahrscheinlicher macht als das einer anderen Zahl. Ganz nebenbei und vorläufig lassen sich an diesem Beispiel zwei zentrale Begriffe der Wahrscheinlichkeits­theorie einführen: Unter dem Würfeln einer bestimmten Augenzahl -  beispielsweise einer "6" - versteht man in der Wahrscheinlich­keitslehre ein Ereignis. Ein Ereignis ist, fürs erste betrachtet, nichts anderes als ein bestimmtes Resultat, das wir bei einmali­gem Würfeln bekommen können.  Beim Würfelspiel können wir sechs verschiedene Resultate (nämlich die Augenzahlen von 1 bis 6) erhalten. Diese sechs verschiedenen Resultate bezeichnet man in der Wahrscheinlichkeitslehre als Ereignisraum. Aus diesem Ereig­nisraum kann bei einmaligem Würfeln immer nur jeweils eines der insgesamt 6 möglichen Ereignisse auftreten (Wir können unmöglich gleichzeitig eine 1 oder eine 6 würfeln). Da alle 6 Ereignisse bei einem normalen Würfel gleich wahrscheinlich sind, beträgt die Wahrscheinlichkeit, eine bestimmte Augenzahl zu würfeln genau ein Sechstel (die Chance, eine 6 zu bekommen, steht 1 : 6).

Bevor wir uns mit einem konkreten Beispiel befassen, stellen wir noch folgende allgemeine Überlegung an: Statt eines Würfels hätten wir ein Zahlenschloss, wie es bei Fahrrädern verwendet wird. Unser Zahlenschloss bestünde im einfachsten Falle aus einem einzigen Ring mit insgesamt sechs Einstellmöglichkeiten. In diesem Falle wäre die Wahrscheinlichkeit, per Zufall die richtige Einstellung zu erraten, gleich einem Sechstel.

Stellen wir uns nun weiters vor, unser Zahlenschloss bestünde aus zwei Ringen und jeder Ring hätte wiederum sechs Wahlmöglichkei­ten. Überlegen wir uns, wie viele Einstellmöglichkeiten ein sol­ches Zahlenschloss insgesamt hat. Dreht man den rechten Ring auf eine bestimmte Zahl (beispielsweise auf die Zahl 1), so gibt es 6 verschiedene Möglichkeiten, den linken Ring einzustellen. Bei jeder Einstellung des rechten Ringes können wir also den linken Ring 6 mal verstellen. Nachdem aber auch der rechte Ring insge­samt 6-mal verstellt werden kann, haben wir bei unserem fiktiven Zahlenschloss insgesamt 6 x 6 verschiedene Einstellmöglichkeiten. Die möglichen Einstellungen reichen von "11", "21", "31", ... bis "66". Dies ergibt 36 Wahlmöglichkeiten. Man kann an diesen Über­legungen ohne Schwierigkeiten erkennen: Die Wahrscheinlichkeit, bei zwei Ringen mit je 6 Einstellmöglichkeiten rein zufällig die richtige Einstellung des Zahlenschlosses zu erraten, beträgt 1: 62 (= 1: 36). Bei drei Ringen beträgt diese Wahrscheinlichkeit 1: 63.

Übertragen wir diese Überlegungen auf das Beispiel eines Würfels, so ergibt sich daraus das folgende. Wollen wir beispielsweise wissen, wie wahrscheinlich es ist, 10-mal hintereinander eine 6 zu würfeln, dann brauchen wir uns lediglich ein Zahlenschloss mit 10 Ringen vorzustellen, wobei jeder Ring 6 Einstellmöglichkeiten hat. Diese Wahrscheinlichkeit beträgt 1: 610!

Nun ist diese Wahrscheinlichkeit äußerst gering. Dennoch haben wir mit der Berechnung dieser Wahrscheinlichkeit (1 : 610) genau jene Wahrscheinlichkeit ausgerechnet, mit einem fairen (nicht manipulierten) Würfel 10 mal hintereinander die Augenzahl 6 zu würfeln. Theoretisch lässt sich auf die gleiche Weise auch die Wahrscheinlichkeit berechnen, 1000 mal hintereinander die Augen­zahl 6 zu bekommen (1 : 61000).

Kommen wir vor dem Hintergrund dieser abstrakten Überlegungen zu einem konkreten Beispiel. Mit dem Beispiel soll die zentrale Logik von Wahrscheinlichkeitsschlüssen, wie sie in der Inferenz­statistik generell zum Tragen kommt, auf einen möglichst knappen Punkt gebracht werden.

Nehmen wir an, wir wären Besitzer eines Spielsalons und folgen­der, freilich äußerst unwahrscheinlicher Fall, würde eintreten. Einer der anwesenden Spieler würde tatsächlich 1000-mal hinter­einander eine 6 würfeln. Stellen wir uns weiters vor, wir ließen sowohl den Würfel genau untersuchen und würden auch den Spieler unter Beobachtung stellen, ohne dabei irgendwelche Unregelmäßig­keiten feststellen zu können. Vermutlich würde man den Spieler mit Lokalverbot belegen, und zwar aus dem einfachen Grund, weil die Wahrscheinlichkeit, ohne besondere Tricks (Manipulieren des Würfels und ähnliches) 1000-mal eine 6 zu würfeln, verschwindend gering ist. Der Hinauswurf des Spielers erfolgte also nicht deshalb, weil er etwa beim Falschspiel ertappt wurde, sondern aufgrund von Wahrscheinlichkeitsüberlegungen. Dennoch spräche bei unserer - auf einem Wahrscheinlichkeitsschluss beruhenden - Ent­scheidung (Hinauswurf des Spielers) auch etwas zugunsten des Spielers, nämlich eben die Wahrscheinlichkeit 1 : 61000! Diese Zahl ist aber so klein, dass wir uns - obwohl gegen den Spieler keine konkreten Verdachtsmomente vorliegen - gegen die Unschuld des Spielers entscheiden würden.

Dieses künstliche Beispiel enthält - wenngleich in zugespitzter und äußerst knapper Form - die wesentlichen Grundprinzipien, die in der statistischen Entscheidungsfindung zum Tragen kommen. Man kann sich die schließende Statistik als eine Art Indizienprozess vorstellen, bei dem zunächst die Wahrscheinlichkeit für die Unschuldsbehauptung ausgerechnet wird. Wir nehmen in dem Indizienprozess zunächst also die Position des Verteidigers ein. Dieser geht von der Unschuld des Angeklagten aus. In unserem konkreten Beispiel (dem potentiellen Falschspieler) gehen wir davon aus, dass alle Verdachtsmomente rein zufälliger Natur sind. Diese Position des Verteidigers bezeichnet man in der Statistik als die Nullhypothese. Im Unterschied dazu geht die Alternativhypothese davon aus, dass die Verdachtsmomente zu stark sind, um noch sinn­voll von einem Zufall sprechen zu können.

Was immer zuerst berechnet wird, ist die Wahrscheinlichkeit für die Unschuldsbehauptung, also für die Nullhypothese. In unserem konkreten Beispiel ist dies die Wahrscheinlichkeit, bei einem nicht manipulierten Würfel und ohne Tricks 1000 mal eine 6 zu würfeln, wie bereits mehrfach erwähnt, 1 : 61000.

Ist diese Wahrscheinlichkeit (nochmals gesagt: die Wahrschein­lichkeit für die Nullhypothese) sehr gering, so entscheidet man sich gegen die Nullhypothese. In unserem konkreten Beispiel bedeutet diese Entscheidung, dass wir den Spieler mit Lokalverbot belegen. Nachdem aber immer noch eine, wenngleich geringe, Wahr­scheinlichkeit zugunsten der Nullhypothese spricht (letztere ist in unserem Indizienprozess ja nur eine Hypothese, deren Wahr­scheinlichkeit wir berechnen), ist diese Wahrscheinlichkeit zugleich jene Wahrscheinlichkeit, mit der wir uns irrtümlicher­weise gegen die Nullhypothese entscheiden. Es besteht ja immerhin die (allerdings sehr schwache) Chance, dass jemand zufällig 1000- mal eine 6 würfelt. Die Wahrscheinlichkeit, aufgrund derer wir uns gegen die Nullhypothese entscheiden, wird in der Statistik daher auch als Irrtumswahrscheinlichkeit bezeichnet.

 

 

 

2. Beispiel: der Einfluß eines bestimmten Medikamentes auf das Reaktionsvermögen im Straßenverkehr

 

In einer psychologischen Untersuchung interessiert uns in der Regel nicht das Ergebnis eines Würfelspiels, unsere empirischen Daten sind dahingegen beobachtete Eigenschaften von Versuchsper­sonen, die auf ganz bestimmte, im  Rahmen einer Theorie aufge­stellte Hypothesen hin untersucht werden.

Im folgenden soll gezeigt werden, wie die - am Beispiel eines Würfelspiels demonstrierten - Wahrscheinlichkeitsaussagen auch auf typische Fragestellungen übertragen werden können, wie wir sie in der Psychologie antreffen.

Betrachten wir hierzu das folgende Beispiel: In einem Experiment soll herausgefunden werden, ob ein bestimmtes Medikament das Reaktionsvermögen im Straßenverkehr beeinträchtigt. Eine mögli­che, wenngleich wenig Zielführende Methode, um dies festzustel­len, bestünde darin, bei allen Verkehrsteilnehmern nachstehenden Test durchzuführen. Zuerst messen wir das Reaktionsvermögen (in ms) der Verkehrsteilnehmer vor Verabreichung des Medikaments und später, nach Verabreichung des Medikaments, wiederholen wir die Messung. Unterscheiden sich die Reaktionszeiten vor und nach Verabreichung des Medikaments voneinander, so könnte man sagen: Das Medikament beeinflusst das Verhalten im Straßenverkehr.

Offensichtlich ist ein derartiges Experiment in der Praxis nicht durchführbar. Wir können unmöglich alle Verkehrsteilnehmer für ein bestimmtes Experiment erfassen. Tatsächlich können wir immer nur eine Zufallsstichprobe der Verkehrsteilnehmer erheben. Statt also alle Verkehrsteilnehmer zu untersuchen, greifen wir rein zufällig eine kleine Anzahl von Testpersonen (beispielsweise 30) aus allen potentiellen Verkehrsteilnehmern heraus und führen mit diesen unser Experiment durch. Bei 30 Personen messen wir also die Reaktionszeit vor (Zeitpunkt T1) und nach (Zeitpunkt T2) Verabreichung des Medikaments. Die Ergebnisse dieser beiden Messungen über alle Versuchspersonen lassen sich etwa wie folgt zusammenfassen:

 

                                         T1                    T2

 

Hans Meier                       15                    30

Franz Huber                      20                    45

                                         .                       .

                                         .                       .

                                         .                       .

usw.

 

Vergleicht man die beiden Zahlenkolonnen, so stellt sich fürs erste die Frage, wie wir zunächst nur für diese eine Stichprobe, bestehend aus den 30 Probanden, feststellen können, ob zwischen den beiden Reaktionszeiten überhaupt ein Unterschied besteht und, falls sich ein solcher ermitteln lässt, welcher Größenordnung er angehört. Wir brauchen also einen statistischen Kennwert, um für diese eine Stichprobe generell den Unterschied in den beiden Reaktionszeiten abschätzen zu können. Unser Interesse richtet sich schließlich nicht auf Unterschiede von Reaktionszeiten zwischen den einzelnen Probanden der Stichprobe. So wollen wir nicht wissen, ob beispielsweise Hans Meier verschiedene Reakti­onszeiten hat, wir wollen dahingegen wissen, ob für alle Personen in der Stichprobe ein gemeinsames Unterschiedsmaß berechnet werden kann. Die hier interessierende Frage ist schließlich: Beeinflusst das Medikament die Reaktionszeit im Straßenverkehr, und zwar ungeachtet vom speziellen Verhalten einer einzelnen Person?

Stellen wir uns folgende Vorgehensweise vor. Zuerst berechnen wir getrennt für jeden einzelnen Probanden den Unterschied in der Reaktionszeit vor und nach Verabreichung des Medikaments. Für jedes Messwertpaar bekommen wir auf diese Weise eine bestimmte Differenz. Diese Differenz beträgt z.B. bei Hans Meier -15 ms, bei Franz Huber -25 ms usw. Bei 30 Versuchspersonen erhalten wir auf diese Weise 30 verschiedene Differenzen. Nachdem wir nicht an den Unterschieden in den Reaktionszeiten der einzelnen Testperso­nen interessiert sind, berechnen wir anschließend den durch­schnittlichen Wert der Differenzen, den so genannten Mittelwert. Dieser ist die Summe der einzelnen Differenzen dividiert durch die Anzahl der Versuchspersonen. Im Kontext der folgenden Überlegung gehen wir von einem angenommenen Mittelwert der Differenzen von ca. -18 ms aus.

Laut Annahme handelt es sich bei den 30 untersuchten Personen nun aber lediglich um eine Stichprobe aus allen potentiell vorhande­nen Verkehrsteilnehmern. Wir können daher von vornherein nicht wissen, ob sich bei allen Verkehrsteilnehmern ebenfalls ein derartiger Unterschied im Reaktionsvermögen feststellen lässt oder ob unsere durchschnittliche Abweichung von -18 ms nur auf Zu­fallsschwankungen zurückzuführen ist.

Um diese Frage zu klären, gehen wir von ganz analogen Überlegun­gen aus, wie sie bereits beim Falschspieler beschrieben wurden. Zunächst gehen wir von der Unschuldsbehauptung aus und dann berechnen wir die Wahrscheinlichkeit für die Unschuldbehauptung.

Im vorliegenden Beispiel stellen sich somit zwei Fragen: 1) Was ist hier unter der Unschuldsbehauptung zu verstehen? 2) Wie können wir die Wahrscheinlichkeit für diese Unschuldsbehauptung berechnen?

Zur ersten Frage: Unter der Unschuldbehauptung verstehen wir im vorliegenden Fall die Annahme, dass der berechnete Unterschied in den Reaktionszeiten lediglich auf einen Zufall bei der Auswahl der Versuchspersonen zurückzuführen ist. Diese Annahme bezeichnet man, wie bereits erwähnt, auch als die Nullhypothese. Dieser Hypothese zufolge hat das Medikament generell keinen Einfluss auf die Reaktionszeit der Verkehrsteilnehmer. Würde man also alle Verkehrsteilnehmer in Betracht ziehen können, so erhielte man eine durchschnittliche Differenz von 0 ms. Lediglich unsere per Zufall ausgewählten Personen weisen eine derartige durchschnitt­liche Differenz auf.

Zur zweiten Frage: Um nun die Wahrscheinlichkeit für die Nullhy­pothese berechnen zu können, gehen wir von folgender Überlegung aus. Nehmen wir an, tausende von Psychologen würden das gleiche Experiment durchführen. Um den Einfluss eines bestimmten Medika­ments auf das Reaktionsvermögen zu ermitteln, würden sie jeweils 30 zufällig ausgewählte Personen untersuchen. Jede dieser psycho­logischen Untersuchungen würde also eine andere Zufallsstichprobe verwenden und käme daher auch rein zufällig zu einer etwas ande­ren durchschnittlichen Abweichung in den Reaktionszeiten (eine Untersuchung käme zu einer durchschnittlichen Abweichung von -5 ms, eine andere von -2 ms, eine weitere von +5 ms usw.).

Denken wir nun daran, dass wir bei unserer Fragestellung zunächst von der Nullhypothese ausgehen. Gemäß dieser Hypothese hat das Medikament, bezogen auf alle Verkehrsteilnehmer, keinen Einfluss auf das Reaktionsvermögen. Aus diesem Grunde dürfte sich in der Gesamtpopulation aller Verkehrsteilnehmer auch kein Unterschied in den Reaktionszeiten feststellen lassen. Folgen wir der Nullhy­pothese, so sind die in den einzelnen psychologischen Untersuch­ungen errechneten durchschnittlichen Abweichungen lediglich auf Zufallsschwankungen zurückzuführen. Für alle Verkehrsteilnehmer erwarten wir, wie bereits erwähnt, eine Differenz von 0 ms. Ziehen wir aus dieser Gesamtpopulation nun Zufallsstichproben, so werden die durchschnittlichen Differenzen der Reaktionszeiten in diesen Stichproben nicht exakt 0 ergeben, sondern mehr oder weniger von dieser Differenz abweichen. Unter Geltung der Nullhy­pothese (die Differenz in der Gesamtpopulation ist 0) werden größere Abweichungen von 0 eher selten und kleinere Abweichungen eher häufig zu erwarten sein.

In unserer angenommenen Stichprobe haben wir nun tatsächlich eine durchschnittliche Abweichung von - 18 ms errechnet. Ein solches Resultat dürfte unter Geltung der Nullhypothese eher selten vorkommen - vielleicht mit einer ebenso geringen Häufigkeit wie jene, bei einem Würfelexperiment 1000-mal hintereinander eine 6 zu erhalten.

Um herauszufinden, wie sich unser tatsächliches empirisches Ergebnis - eine durchschnittliche Abweichung von - 18 ms in der Stichprobe - mit der Nullhypothese (wir erwarten in der Populati­on eine durchschnittliche Abweichung von 0) verträgt, sind wir an der Wahrscheinlichkeit interessiert, unter Geltung der Nullhypo­these rein zufällig ein derartiges Ergebnis zu bekommen. Um diese Wahrscheinlichkeit berechnen zu können, muss die Verteilung der durchschnittlichen Abweichungen aller Zufallstichproben unter Geltung der Nullhypothese bekannt sein. Denn nur in diesem Falle können wir die Frage, wie häufig bzw. selten die durchschnittli­che Abweichung einer ganz bestimmten Stichprobe vorkommt, quanti­fizieren. Unter ganz bestimmten theoretischen Voraussetzungen (Annahmen bzw. Hypothesen) in der Inferenzstatistik (die sich erst später genau darstellen lassen) läßt sich diese Verteilung aller durchschnittlichen Abweichungen mathematisch exakt be­schreiben. Da es in diesem einführenden Teil nur darum geht, das wesentliche Prinzip des inferenzstatistischen Schließens prototy­pisch vorzustellen, gehen wir davon aus, diese Verteilung sei bekannt. Unter dieser Annahme könnten wir die Wahrscheinlichkeit berechnen, unter Geltung der Nullhypothese eine durchschnittliche Abweichung von - 18 ms zu erhalten. Die konkrete Durchführung dieser Berechnung erfordert freilich genaue Kenntnisse der Grund­lagen der Inferenzstatistik, die wir uns erst schrittweise aneig­nen können. 

Um diese Wahrscheinlichkeit dennoch an dieser Stelle möglichst praxisnahe darzustellen, wenden wir als Behelfsmittel ein Compu­terprogramm an, das uns diese Wahrscheinlichkeit als bereits fertiges Resultat ausgibt. Aber auch ein derartiges Computerpro­gramm liefert uns Ergebnisse, deren Interpretation erst nach dem Studium der Inferenzstatistik möglich sind. Um dieses Problem zu umgehen, müssen wir die Ergebnisse fürs erste unter einem ganz bestimmten Blickwinkel interpretieren. Am besten versetzen wir uns bei der Lektüre der folgenden Ausgabe des Computerprogramms SPSS in die Rolle einer Person, die an einer Swatchuhr, an der neben Stunden- und Minutenzeiger das ganze Räderwerk sichtbar ist, die  Zeit abliest. Ähnlich wie wir uns im Falle der Swatch­uhr beim Ablesen der Zeit nicht um das Räderwerk kümmern, konzen­trieren wir uns im nachstehenden Ausdruck lediglich auf die Angabe der Wahrscheinlichkeit. Alle anderen Angaben sind im Kontext dieser einführenden Darstellung ein zu vernachlässigender Hintergrund.

 

Nun zu dem Beispiel:

 

      

t-tests for Paired Samples

 

 

                 Number of           2-tail

 Variable          pairs      Corr   Sig         Mean          SD     SE of Mean

 ¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾-

 V1   Reaktionszeit vor Medikament            22,4333       7,229          1,320

                    30        ,114    ,550

 V2   Reaktionszeit nach Medikament           40,0333       8,385          1,531

 ¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾-

 

 

          Paired Differences       

    Mean          SD    SE of Mean         t-value             df      2-tail Sig

 

                                                

 ¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾-

-17,6000      10,431         1,904          -9,24              29            ,000

 95% CI (-21,495; -13,705)         

 

 

In dem angeführten Beispiel wurde bei 30 Probanden die durch­schnittliche Abweichung in der Reaktionszeit berechnet. Diese beträgt hier -17,6. Die Wahrscheinlichkeit, eine derartige durch­schnittliche Abweichung unter Geltung der Nullhypothese zu erhal­ten, wird von SPSS mit 0.000 angegeben (tatsächlich ist der Wert nicht exakt gleich Null; Ziffern, die aber erst in weiteren Nachkommastellen als den angegebenen aufscheinen, werden im Ausdruck jedoch abgeschnitten). Um dieses Ergebnis interpretieren zu können, gehen wir wiederum von ganz analogen Überlegungen aus wie im vorherigen Falle des Falschspielers. Zunächst sollten wir daran denken, dass die Nullhypothese, derzufolge in der Gesamtpo­pulation kein Unterschied zwischen den beiden Reaktionszeiten besteht, nur eine rein theoretische Annahme (eben eine Hypothese) ist, die es zuallererst zu überprüfen gilt. Als empirische Daten für diese Hypothese stehen uns die nach dem Zufallsprinzip ausge­wählten 30 Probanden zur Verfügung. Ist die Wahrscheinlichkeit, unter Geltung der Nullhypothese zu einer derartigen durchschnitt­lichen Abweichung von -17,6 zu kommen, eher gering, so spricht dies gegen unsere theoretische Annahme. Man kann dies auch so ausdrücken: Unsere theoretische Annahme wird durch das empirische Resultat nicht unterstützt. Wir werden im vorliegenden konkreten Falle die Nullhypothese verwerfen und davon ausgehen, dass das Medikament tatsächlich einen Einfluss auf das Reaktionsvermögen hat. Nachdem aber diese  geringe Wahrscheinlichkeit, aufgrund derer wir die Nullhypothese im vorliegenden Falle verwerfen, zugleich die Wahrscheinlichkeit ist, unter Geltung der Nullhypo­these eine derartige Abweichung zu erhalten, wird sie auch als Irrtumswahrscheinlichkeit (d.h. als die Wahrscheinlichkeit, mit der wir uns irrtümlicherweise gegen die Nullhypothese entschei­den) bezeichnet.

Das angegebene Beispiel enthält, in freilich äußerst knapper Darstellung, die wesentlichen Entscheidungsregeln, wie sie in der schließenden Statistik zur Anwendung kommen. Wie das Ergebnis des Programms SPSS gezeigt hat, ist ein Kernpunkt der statistischen Tests die ausgegebene Wahrscheinlichkeit. Sie ist sozusagen die entscheidende 'Kennzahl' in dem jeweils ausgegebenen Test, auf die wir uns stützen, wenn wir uns für oder gegen die Nullhypothe­se entscheiden.

Aus dem Beispiel sollte allerdings auch hervorgehen, dass am Anfang jeder statistischen Analyse die Auswahl des für die jewei­lige Untersuchung angemessenen Tests steht. Diese  Auswahl hängt unter anderem von der Qualität der Messdaten ab. Wie das Beispiel gezeigt hat, gehen wir zunächst von einem bestimmten statisti­schen Kennwert in der Stichprobe aus (im angegebenen Beispiel war dies die durchschnittliche Abweichung der Reaktionszeiten), um im Anschluss daran zu fragen, mit welcher Wahrscheinlichkeit dieser Kennwert (unser empirisch gewonnenes Resultat) sich mit einer vorher formulierten theoretischen Annahme (Nullhypothese) ver­trägt.  Je nach Datenqualität lassen sich nun aber verschiedene statistische Kennwerte berechnen. Nicht in jedem Falle ist der Mittelwert ein geeignetes Mittel zur Beschreibung der Daten. Diese Frage wurde in Zusammenhang mit der im letzten Semester behandelten Messtheorie angesprochen.