A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

A

Alternativhypothese
Die Alternativhypothese ist die Gegenhypothese H1 zur Nullhypothese H0 beim statistischen Test. Sowohl H0 als auch H1 sind Aussagen über die Grundgesamtheit, die in einem statistischen Test überprüft werden sollen. (siehe auch einseitige und zweiseitige Alternative)

Analytische Statistik  (Schließende Statistik, Inferenzstatistik)
Die analytische Statistik liefert Verfahren, die es erlauben, von einer auf die StichprobeGrundgesamtheit mit einem bestimmten Grad an Sicherheit zu schließen. Die Methoden der analytischen Statistik lassen sich in zwei Hauptgruppen einteilen:

  1. Methoden des Schätzens unbekannter Parameter und
  2. Statistische Tests zum Prüfen von Hypothesen (siehe auch deskriptive Statistik)  

Ausprägungen  
Die Gesamtheit aller möglichen Werte eines Merkmals nennt man Ausprägungen. Die Liste der Ausprägungen eines Merkmals muss disjunkt und vollständig sein. (siehe auch Daten)

Ausreißer  
Ein Ausreißer in der Datenreihe eines Merkmals ist ein extrem großer oder extrem kleiner Wert, der nicht zu der gleichen Grundgesamtheit gehört wie die übrigen Elemente der untersuchten Stichprobe. Verfahren der analytischen Statistik, die gegenüber vorhandenen Ausreißern wenig empfindlich sind, werden robust genannt.

Axiome von Kolmogoroff  
Die axiomatische Definition der Wahrscheinlichkeit erfolgte durch A. N. Kolmogoroff (1903-1987). Durch deren Formulierung im Jahr 1933 wurde die Wahrscheinlichkeitsrechnung zu einem Zweig der modernen Mathematik. Die drei Axiome lauten:  

  1. Jedem Ereignis A ist eindeutig eine Zahl P(A)≥0, die Wahrscheinlichkeit von A, zugeordnet.  
  2. Die Wahrscheinlichkeit des sicheren Ereignisses ist 1.  
  3. Schließen sich zwei Ereignisse A und B gegenseitig aus, d.h. die Ereignisse A und B sind disjunkt, dann ist die Wahrscheinlichkeit der Summe von und gleich der Summe der Einzelwahrscheinlichkeiten:

B

Bayessche Formel
Der Satz von Bayes (1702-1761) ist ein grundlegender Satz  der Wahrscheinlichkeitstheorie zur Berechnung bedingter  Wahrscheinlichkeiten.  Z. B. lässt sich die Wahrscheinlichkeit einer Krankheit A bei  Vorliegen des Symptoms B, P(A|B), ausrechnen aus der allgemeinen Wahrscheinlichkeit P(A)der Krankheit und  der bedingten Wahrscheinlichkeit P(B|A) für das Symptom B bei der Krankheit A.

Bedingte Wahrscheinlichkeit
Die bedingte Wahrscheinlichkeit P(A|B) ist die Wahrscheinlichkeit des Ereignisses A unter einer vorhandenen Bedingung B, z. B. die Wahrscheinlichkeit, eine Krankheit A zu haben, wenn ein Symptom B vorhanden ist.

Behandlungsgleichheit  
Behandlungsgleichheit liegt dann vor, wenn in einer Untersuchung bis auf die durch die verschiedenen Therapien bedingten, nicht vermeidbaren Behandlungsunterschiede alle Patienten gleich behandelt werden (siehe auch Blindversuch und Beobachtungsgleichheit)

Beobachtungseinheit
Das Objekt einer Untersuchung wird als Beobachtungseinheit oder Merkmalsträger bezeichnet, wobei die Untersuchung darin besteht, bestimmte Merkmale dieser Beobachtungseinheit zu erfassen.

Beobachtungsgleichheit
Beobachtungsgleichheit liegt dann vor, wenn in einer Untersuchung alle Merkmale, insbesondere der Behandlungserfolg, an allen Patienten objektiv unter gleichen Bedingungen erfasst werden (siehe auch Blindversuch und Behandlungsgleichheit).

Bestimmtheitsmaß
Das Bestimmtheitsmaß ist das Quadrat r2 des Korrelationskoeffizienten r.

Bias (Verzerrung)
Mit Bias (Verzerrung) bezeichnet man die systematische, nichtzufällige Abweichung einer Stichprobe von der zugrundeliegenden Grundgesamtheit bzw. die eines Schätzwertes von dem zugrundeliegenden Parameter. Bias wird häufig durch Störgrößen hervorgerufen. (siehe auch Erwartungstreue und systematischer Fehler)

Binomialkoeffizient

Der Ausdruck

gelesen n über k, heißt Binomialkoeffizient und errechnet sich als

Der Binomialkoeffizient wird u. a. für die Berechnung der Binomialverteilung benötigt.

Binomialverteilung
Die Binomialverteilung beschreibt den wahrscheinlichen Ausgang einer Folge von n gleichartigen Versuchen, die jeweils nur zwei mögliche Ergebnisse haben. Diese treten unabhängig mit den jeweils gleichen Einzelwahrscheinlichkeiten p bzw. 1 - p auf. Die Binomialverteilung hat den Erwartungswert np und die Varianz np ∙ (1 - p). Die Wahrscheinlichkeitsfunktion ist gegeben durch

Blindversuch

Wenn der Therapieerfolg oder die Beurteilung des Therapieerfolges von der Erwartungshaltung des Patienten oder des Arztes abhängig ist, werden zur Ausschaltung eines systematischen Fehlers in einem einfachen Blindversuch der Patient oder in einem Doppelblindversuch Patient und Arzt über die im Einzelfall angewandte Therapie im Unklaren gelassen. Blindversuche sind ein wesentliches Instrument, um Beobachtungsgleichheit und Behandlungsgleichheit zu erreichen.

Blockbildung
Um den zufälligen Fehler zu reduzieren, werden im GlossarVersuchsplanBeobachtungseinheiten, die bezüglich einer oder mehrerer Einflussgrößen als homogen angesehen werden können, zu einem Block zusammengefasst. (siehe auch zufällige Zuteilung und Strukturgleichheit).

Blockdiagramm
Das Blockdiagramm ist eine graphische Darstellung der absoluten bzw. relativen Häufigkeiten qualitativer Merkmale. Die Höhe der zugehörigen Blöcke entspricht der relativen bzw. absoluten Häufigkeit für eine Merkmalsausprägung. Das Blockdiagramm entspricht dem bei diskreten Merkmalen verwendeten Stabdiagramm. (siehe auch Flächendiagramm und Kreisdiagramm)

Boxplot
Der Boxplot ist eine graphische Darstellung zur Charakterisierung der Verteilung stetiger Merkmale beruhend auf den empirischen Quartilen. Der Interquartilsabstand wird als Kasten (engl.: box) dargestellt, von dem aus Linien bis zum Minimum bzw. Maximum gezogen werden. Der Median wird im Kasten durch eine Linie beschrieben. Optional kann noch die Lage des arithmetischen Mittelwerts gekennzeichnet werden z. B. durch einen Punkt.

C

Chi-Quadrat-Test (χ2 - Test)
Der Chi-Quadrat-Test ist ein statistischer Test zur Prüfung der Unabhängigkeit zweier qualitativer Merkmale, die z. B. in einer Kontingenztafel dargestellt sind. Die Teststatistik bei Gültigkeit der Nullhypothese folgt einer Chi-Quadrat-Verteilung.

Chi-Quadrat-Verteilung (χ2 - Verteilung)
Die Quadratsumme von n unabhängigen Standardnormalverteilungen hat eine so genannte Chi-Quadrat-Verteilung mit dem Erwartungswert n und der Varianz 2n.

D

Daten  
Daten sind die in Untersuchungen tatsächlich festgestellten Ausprägungen eines Merkmals.

Deskriptive Statistik  
Die deskriptive Statistik hat die Aufgabe, empirisch gewonnene Daten von qualitativen und quantitativen Merkmalen zu ordnen, durch bestimmte Maßzahlen (z. B. Lagemaße und Streuungsmaße) zusammenzufassen und graphisch (z. B. Blockdiagramm, Boxplot, Histogramm) oder tabellarisch (z. B. Kontingenztafel) darzustellen. (siehe auch Analytische Statistik)

Dichtefunktion
Bei stetigen Zufallsvariablen ist die Dichtefunktion f(x) die erste Ableitung der Verteilungsfunktion  F(x), d. h.  f(x) = F'(x).

disjunkt
Zwei Mengen A und B heißen disjunkt, wenn ihr Durchschnitt die leere Menge ist: A B = Ø

disjunkte Ereignisse
Zwei Ereignisse A und B sind disjunkt, wenn der Durchschnitt der Mengen A und B leer ist: AB = Ø (siehe auch disjunkt). Für die Wahrscheinlichkeiten des Auftretens der Ereignisse A, B und A|B gilt: P(AB) = 0 und P(A|B) = 0.

diskret  
Quantitative Merkmale lassen sich unterteilen in diskrete und stetige Merkmale. Diskrete Merkmale können nur bestimmte Werte annehmen. (z. B. ganzzahlige Werte). Ergebnisse von Zählvorgängen führen stets zu diskreten Werten (z. B. Leukozytenzahl).

Durchschnittsmenge  
Die Durchschnittsmenge A∪B zweier Mengen A und B besteht aus allen Elementen, die sowohl in A als auch in B enthalten sind. (siehe auch Vereinigungsmenge und Komplementmenge)

E

Einflussgröße
Merkmale, die einen Einfluss auf die Zielgröße einer Untersuchung haben, nennt man Einflussgrößen. Je nach Berücksichtigung im Versuchsplan unterteilt man Einflussgrößen in Faktoren bzw. Störgrößen.

Einseitige Alternative
Eine einseitige Alternativhypothese wird dann formuliert, wenn ein zu testender Effekt nur in einer Richtung möglich oder sachlich gerechtfertigt ist. Bei statistischen Tests in der Medizin wird meistens eine zweiseitige Alternative formuliert.

Einstichprobentests  
Mit einem Einstichprobentest werden Hypothesen anhand einer einzigen Stichprobe überprüft, z. B. ob eine Normalverteilung vorliegt oder ein Parameter einen bestimmten Wert hat. (siehe auch Zweistichprobentests und Mehrstichprobentests)

Elementarereignis
Ereignisse, die nur ein mögliches Ergebnis enthalten, nennt man Elementarereignisse.

empirische Verteilungsfunktion
Die empirische Verteilungsfunktion gibt für jeden Datenwert x an, wie groß der Anteil der Daten ist, die kleiner oder gleich x sind. (siehe auch Verteilungsfunktion)

Epidemiologie  
Die Epidemiologie umfasst das Studium der Häufigkeitsverteilung von Krankheiten in der Bevölkerung sowie die Analyse der Faktoren, die diese Verteilung beeinflussen. Die Methoden der Epidemiologie sind weitgehend von der Wahrscheinlichkeitsrechnung und Statistik geprägt. Die wichtigsten Häufigkeitsmaße der Epidemiologie sind Inzidenz, Prävalenz, Mortalität und Letalität.

Ereignis  
Ein Ereignis ist eine Teilmenge der Menge aller möglichen Ergebnisse eines Zufallsexperiments. (siehe auch unabhängige Ereignisse

Ergebnis  
Die Menge aller möglichen Ausgänge eines Zufallsexperiments nennt man mögliche Ergebnisse. Die möglichen Ergebnisse müssen sich gegenseitig ausschließen. Die Menge der möglichen Ergebnisse muss vollständig sein. (siehe auch Ereignis

Erhebung  
Alle statistischen Untersuchungen, die nicht den Charakter eines Experimentes haben, werden Erhebungen genannt. Man unterscheidet retrospektive und prospektive Erhebungen.

Erwartungstreue
Eine Schätzung g(X) eines unbekannten Parameters λ heißt erwartungstreu, wenn für alle Stichprobenumfänge und alle Werte des Parameters ihr Erwartungswert gleich dem Parameter ist: E(g(X))=λ. Die Abweichung des Erwartungswertes der Schätzung vom gesuchten Parameterwert heißt Bias (Verzerrung). Die Erwartungstreue ist eine wünschenswerte Eigenschaft einer optimalen Schätzung. (siehe auch Konsistenz)

Erwartungswert
Der Mittelwert einer Zufallsvariablen oder einer Verteilung wird Erwartungswert  genannt. Mit der Varianz σ2 gehört der Erwartungswert zu den Parametern, die eine Zufallsvariable oder eine Verteilung charakterisieren.

Experiment  
Ein Experiment ist eine prospektive Untersuchung. Aufgrund der Fragestellung werden eine Grundgesamtheit und die Beobachtungseinheiten gewählt. Identifikationsgrößen, Zielgrößen und Einflussgrößen werden im Versuchsplan festgelegt. Bei einem Experiment werden die Ausprägungen mindestens eines Faktors (z. B. Therapie A und B) durch eine zufällige Zuteilung für die Beobachtungseinheiten festgelegt.

Exposition
Unter Exposition versteht man Bedingungen, Krankheitsursachen oder Risikofaktoren, denen bestimmte Personen oder Bevölkerungsgruppen ausgesetzt sind. Die Exposition spielt vor allem bei Kohortenstudien und Fall-Kontroll-Studien eine große Rolle.

F

Faktor  
Einflussgrößen, die im Versuchsplan berücksichtigt und erfasst werden, heißen Faktoren.(siehe auch Störgröße)

Fall-Kontroll-Studie
Unter einer Fall-Kontroll-Studie versteht man eine retrospektive Erhebung. Aus einer definierten Grundgesamtheit wird eine Stichprobe von Personen mit der interessierenden Erkrankung (Fälle) gezogen. Aus der gleichen Grundgesamtheit wird eine Stichprobe von Personen ohne diese Erkrankung (Kontrollen) gezogen. Die Exposition in der Vergangenheit gegenüber potentiellen Risikofaktoren wird ermittelt. Das wichtigste Risikomaß in Fall-Kontroll-Studien ist die Odds Ratio. (siehe auch Kohortenstudie und Kontrollierte Klinische Studie

falsch positiver (falsch negativer) Wert  
Der falsch positive Wert eines diagnostischen Verfahrens ist die Wahrscheinlichkeit, dass keine Erkrankung E vorliegt, andererseits aber der diagnostische Test T positiv ist ( P(E-|T+) ). Entsprechend ist der falsch negative Wert die Wahrscheinlichkeit, dass eine Erkrankung E vorliegt und der diagnostische Test negativ ist ( P(E+|T-) ). (siehe auch prädiktiver Wert, Sensitivität und Spezifität)

Fehler 1. Art  
Beim Prüfen der Nullhypothese  mit einem statistischen Test besteht der Fehler 1. Art in der Ablehnung von H0, obwohl H0 richtig ist. Die Wahrscheinlichkeit für den Fehler 1. Art wird im statistischen Test durch eine beliebig kleine vorgegebene Grenze der Irrtumswahrscheinlichkeit (z. B. α=0.05) kontrolliert. 

Fehler 2. Art  
Beim Prüfen der Nullhypothese H0 gegen eine Alternativhypothese H1  mit einem statistischen Test besteht der Fehler 2. Art in der Annahme von H0, obwohl H1 richtig ist. Die Wahrscheinlichkeit für diesen Fehler bezeichnet man üblicherweise mit ß. Die Wahrscheinlichkeit, eine richtige Alternativhypothese im statistischen Test auch tatsächlich als richtig zu erkennen, ist dann (1 - ß). Man nennt diese Wahrscheinlichkeit auch Macht (engl.: power) des Tests. 

Flächendiagramm  
Das Flächendiagramm ist eine graphische Darstellung der absoluten bzw. relativen Häufigkeiten qualitativer Merkmale. Die Fläche des zugehörigen Blocks des Flächendiagramms entspricht der relativen bzw. absoluten Häufigkeit für eine Merkmalsausprägung. (siehe auch Blockdiagramm und Kreisdiagramm)

G

Gesetz der großen Zahl  
Sind x1, x2, ..., xn n unabhängige Zufallsvariablen mit derselben Verteilung, so strebt xi|n gegen den gemeinsamen Erwartungswert μ, d. h. große Abweichungen von μ treten mit wachsendem n immer seltener auf.

Grundgesamtheit  
Die Grundgesamtheit ist die Gesamtmenge der Beobachtungseinheiten, über die aufgrund der Ergebnisse eines Versuchs Aussagen gemacht werden sollen. (siehe auch Stichprobe)

H

Häufigkeit  
Unter der absoluten Häufigkeit versteht man die Anzahl der Beobachtungen in einer bestimmten Klasse bei klassierten Merkmalen bzw. die Anzahl der Beobachtungen mit einer bestimmten Ausprägung bei qualitativen und diskreten Merkmalen. Die relative Häufigkeit ist der Anteil der absoluten Häufigkeit relativ zur Gesamtanzahl von Beobachtungen

Histogramm  
Das Histogramm dient zur graphischen Darstellung für die Häufigkeitsverteilung quantitativer Merkmale. Die Daten werden der Größe nach in Klassen eingeteilt und diese auf einer Grundlinie aufgetragen. Über jeder Klasse wird ein Rechteck gezeichnet, dessen Flächeninhalt proportional zu der relativen Häufigkeit der auf die Klasse entfallenden Elemente ist. Ist die Anzahl der Daten groß genug und bei stetigen Merkmalen die Klassenbreite klein genug, so ist die Form des Histogramms der Gestalt der Dichtefunktion für stetige Zufallsvariablen bzw. der Wahrscheinlichkeitsfunktion für diskrete Zufallsvariablen ähnlich.

I

Identifikationsgröße  
Für Plausibilitätsbetrachtungen und beim Zusammenführen von Daten aus verschiedenen Quellen benötigt man Angaben zur Identifikation der Beobachtungseinheiten (z. B. Name, Geburtsdatum, Patienten-Nr.).

Interquartilsabstand
Der Interquartilsabstand ist die Differenz zwischen dem 3. Quartil und dem 1. Quartil. (siehe auch Boxplot)

Inzidenz
Die Inzidenz einer bestimmten Krankheit ist der Anteil der Personen einer definierten Population, die in einem bestimmten Zeitraum an dieser Krankheit neu erkranken. (siehe auch Prävalenz)

Irrtumswahrscheinlichkeit
Beim statistischen Test ist die Irrtumswahrscheinlichkeit die vorgegebene Wahrscheinlichkeit für den Fehler 1. Art.

J

K

Kaplan-Meier-Schätzung  
Die Kaplan-Meier-Methode erlaubt es bei Überlebenszeiten die Überlebensrate S(t) zu schätzen. S(t) ist der Anteil der Beobachtungseinheiten, die den Zeitpunkt t überleben. Die Kaplan-Meier-Methode berücksichtigt die Informationen aller Beobachtungseinheiten so lange, wie diese beobachtet worden sind. Zur Veranschaulichung dient die graphische Darstellung der Überlebensrate in Abhängigkeit von der Zeit in einer Kurve. Der statistische Test zum Vergleich zweier Überlebenszeitkurven ist der Logrank-Test

Klassierung  
Um die Daten eines stetigen Merkmals sinnvoll graphisch und tabellarisch darzustellen, wird eine sogenannte Klassierung vorgenommen. Dazu teilt man den gesamten Wertebereich des Merkmals in Intervalle ein, die Klassen genannt werden. Ziel der Klassierung ist es, einerseits die tabellarische und graphische Darstellung übersichtlicher zu gestalten, ohne andererseits zuviel an Information zu verlieren. (siehe auch Histogramm)

Kohortenstudie
Unter einer Kohortenstudie versteht man eine prospektive Erhebung. Aus einer definierten Grundgesamtheit wird eine Stichprobe (Kohorte) gezogen, in der Risikofaktoren erhoben und Krankheiten erfasst werden. Risikomaße in Kohortenstudien sind die Inzidenz, das Relative Risiko und die Risikodifferenz. (siehe auch Fall-Kontroll-Studie und Kontrollierte Klinische Studie

Komplementmenge  
Die Komplementmenge Ac der Menge A besteht aus allen Elementen, die nicht in A enthalten sind. (siehe auch Durchschnittsmenge und Vereinigungsmenge

Konfidenzintervall  
Ein Konfidenzintervall ist ein geschätztes Intervall, welches den wahren Wert eines unbekannten Parameters (z. B. Erwartungswert) mit vorgegebener Wahrscheinlichkeit 1 - α, z. B. 99 %, überdeckt. (siehe auch Schätzen)

Konsistenz
Eine Schätzung eines unbekannten Parameters heißt konsistent , wenn eine Vergrößerung des Stichprobenumfangs n dazu führt, dass der Schätzer gegen den Parameter konvergiert. Insbesondere sollten sich Schätzungen für große Stichprobenumfänge nur wenig von dem zu schätzenden Parameter unterscheiden. (siehe auch Erwartungstreue) Analog heißen Statistische Tests konsistent, wenn die Wahrscheinlichkeit für einen Fehler zweiter Art stochastisch gegen 0 konvergiert.

Kontingenztafel
Unter einer Kontingenztafel versteht man die tabellarische Darstellung der gemeinsamen Häufigkeitssverteilung von zwei- oder mehr qualitativenMerkmalen.

Kontrollierte Klinische Studie
Unter einer Kontrollierten Klinischen Studie versteht man eine prospektive experimentelle Studie. Aus einer definierten Grundgesamtheit wird eine Stichprobe meistens mit Patienten mit einer bestimmten Krankheit oder Risikokonstellation gezogen. In einer Kontrollierten Klinischen Studie werden i. A. zwei oder mehr Therapien auf ihre Wirksamkeit untersucht. Die Patienten werden den zu vergleichenden Therapien zufällig zugeteilt. Der Blindversuch und die Blockbildung sind oft genutzte Elemente von Kontrollierten Klinischen Studien. Ziel ist die Erreichung von Strukturgleichheit, Behandlungsgleichheit und Beobachtungsgleichheit, um am Studienende anhand von definierten Zielgrößen eine gesicherte Aussage über die Wirksamkeit der verwendeten Therapien machen zu können. (siehe auch Fall-Kontroll-Studie und Kohortenstudie)

Korrelation  
Die Korrelation misst den Zusammenhang zwischen zwei quantitativen Merkmalen. Der Korrelationskoeffizient ist eine Maßzahl für die Stärke der Korrelation.(siehe auch Regression und Punktwolke)

Korrelationskoeffizient
Der Korrelationskoeffizient ist eine Maßzahl für den linearen Zusammenhang zwischen zwei quantitativen Merkmalen. Er liegt zwischen -1 und +1 und ist positiv, wenn den hohen (bzw. niedrigen) Werten eines Merkmals jeweils hohe (bzw. niedrige) Werte des anderen Merkmals entsprechen. Er ist negativ im umgekehrten Falle. Der Wert liegt umso näher bei ±1, je straffer die Beziehung ist. Ein Wert bei 0 lässt auf das Fehlen einer linearen Beziehung schließen.(siehe auch Bestimmtheitsmaß)

Kreisdiagramm  
Das Kreisdiagramm ist eine graphische Darstellung der absoluten bzw. relativen Häufigkeiten qualitativer Merkmale. Beim Kreisdiagramm entspricht der zentrale Winkel des zugeordneten Kreissegmentes der relativen bzw. absoluten Häufigkeit für eine Merkmalsausprägung. (siehe auch Blockdiagramm und Flächendiagramm

Kruskal-Wallis-Test
Der Kruskal-Wallis-Test ist ein nichtparametrischer  Mehrstichprobentest. Er ist eine Verallgemeinerung und  Erweiterung des Mann-Whitney-Wilcoxon-Tests (U-Test).

L

Lagemaße
Lagemaße sind Maßzahlen zur Charakterisierung des Durchschnittswertes empirisch gewonnener Daten von quantitativen Merkmalen. Die am häufigsten benutzten Kennzahlen sind der arithmetische Mittelwert, der Median und der Modalwert. (siehe auch deskriptive Statistik)

Letalität
Die Letalität ist der Anteil der an einer bestimmten Krankheit in einem bestimmten Zeitraum (z. B. 1 Jahr) Gestorbenen, bezogen auf die Gesamtzahl der an der Krankheit Erkrankten einer definierten Population. (siehe auch Mortalität)

Logrank-Test  
Der Logrank-Test ist ein statistischer Test zum Vergleich der Überlebenszeiten zweier unverbundener Stichproben. Die Teststatistik des Tests folgt näherungsweise einer Chi-Quadrat-Verteilung.

M

Mann-Whitney-Wilcoxon-Test (U-Test)
Der Mann-Whitney-Wilcoxon-Test ist ein nichtparametrischer Test zum Vergleich zweier unverbundener Stichproben quantitativer Merkmale. Die Prüfgröße des Tests wird aus den Rangzahlen der Stichproben berechnet. Der analoge parametrische Test ist der t-Test für unverbundene Stichproben. Der Kruskal-Wallis-Test ist die Verallgemeinerung und Erweiterung des Mann-Whitney-Wilcoxon Tests.

Maßzahlen
Maßzahlen dienen zur Charakterisierung empirisch gewonnener Daten von quantitativen Merkmalen. Man unterscheidet Lagemaße und Streuungsmaße. (siehe auch deskriptive Statistik)

Median  
Sortiert man die Beobachtungswerte der Größe nach, so ist der Median eines quantitativen Merkmals bei einem ungeraden Stichprobenumfang der Wert der in der Mitte dieser Folge liegenden Beobachtung. Bei einer geraden Anzahl an Beobachtungen entspricht er dem arithmetischen Mittel der beiden mittleren Elemente. Der Median einer Stichprobe, teilt also die Beobachtungen in zwei Hälften. (siehe auch Lagemaße, Quantil, Quartil)

Mehrstichprobentests
Mehrstichprobentests sind statistische Tests für mehr als zwei Stichproben (z. B. Varianzanalyse, Kruskal-Wallis-Test). (siehe auch Einstichprobentests, Zweistichprobentests)

Mengen  
In der Mengenlehre bezeichnet man die Gesamtheit der unterscheidbaren Objekte als Grundmenge S. Jede Teilgesamtheit der Objekte ist eine Teil- oder Untermenge. (siehe auch Durchschnittsmenge, Komplementmenge und Vereinigungsmenge

Merkmal  
Merkmale sind die interessierenden Eigenschaften von Beobachtungseinheiten. Merkmale lassen sich in qualitative und quantitative Merkmale unterteilen.

Mittelwert
Der arithmetische Mittelwert eines quantitativen Merkmals ist die Summe aller Daten dividiert durch den Stichprobenumfang n. (siehe auch Lagemaße)

Modalwert  
Der Modalwert eines quantitativen Merkmals ist der am häufigsten vorkommende Wert. (siehe auch Lagemaße)

Modell
In der Wissenschaft und Forschung bezeichnet man mit Modell die abstrahierende, formalisierte Darstellung eines Sachverhaltes. Meist bedient man sich hierzu der Mathematik und Statistik.

Mortalität
Die Mortalität ist der Anteil der Personen einer definierten Population, die in einem bestimmten Zeitraum sterben. Angaben über die Mortalität können auch auf eine bestimmte Krankheit bezogen sein. (siehe auch Letalität)

N

Nichtparametrische Tests  
Nichtparametrisch oder parameterfrei heißen alle statistischen Tests, die nicht an die Voraussetzung einer bestimmten Verteilung mit entsprechenden Parametern gebunden sind (siehe auch parametrische Tests). Von einigen Ausnahmen abgesehen, beziehen sich diese Verfahren auf die Rangzahlen. Solche Tests sind z. B. der Wilcoxon-Test und der Mann-Whitney-Wilcoxon-Test (U-Test).

nominal  
Ein qualitatives Merkmal heißt nominal, wenn zwischen seinen Ausprägungen keine natürliche Anordnung besteht (z. B. Geschlecht). (siehe auch ordinal)

Normalverteilung  
Die Normalverteilung ist eine stetige Verteilung mit dem Erwartungswert μ und der Varianz σ2 als Parameter. Die Dichtefunktion der Normalverteilung ist eingipflig, symmetrisch und nähert sich asymptotisch der x-Achse. Sie hat die Form

Eine Normalverteilung entsteht immer dann, wenn sehr viele voneinander unabhängige Abweichungskomponenten additiv aufeinander einwirken (siehe auch Zentraler Grenzwertsatz). Die meisten der parametrischen Tests sind unter Annahme der Normalverteilung entwickelt worden, wie z. B. der t-Test und die Varianzanalyse. (siehe auch Standardnormalverteilung)  

Normbereich (Referenzbereich)
Normwerte sind Richtgrößen zur einfachen Beurteilung von medizinischen Daten (z. B. Laborwerten) meist als Bereich, innerhalb derer sich die Messwerte eines Merkmals von x% (z. B. 95%) (siehe auch Quantil) einer möglichst repräsentativen (Alter, Geschlecht usw.) gesunden Bevölkerungsgruppe befinden. (siehe auch Somatogramm)

Nullhypothese
Die Nullhypothese H0 beim statistischen Test besagt, dass der in der Stichprobe gefundene Effekt auf die zufallsabhängige Streuung zurückzuführen ist und damit in der Grundgesamtheit nicht vorhanden ist. (siehe auch Alternativhypothese)

O

Odds  
Der Quotient aus der Wahrscheinlichkeit p, dass ein Ereignis eintritt und der Wahrscheinlichkeit, dass es nicht eintritt 1-p (Gegenwahrscheinlichkeit) wird Odds genannt. (siehe auch Odds Ratio

Odds Ratio
Das Odds Ratio ist das Verhältnis der Odds zweier Gruppen. Es ist eine statistische Maßzahl, die etwas über die Stärke eines Zusammenhangs von zwei Merkmalen aussagt. Das Odds Ratio wird meistens im Rahmen von Fall-Kontroll-Studien berechnet und ist dort ein Maß für die Assoziation zwischen Exposition und Erkrankung. Es entspricht dem Relativen Risiko bei Kohortenstudien.  

ordinal
Ein qualitatives Merkmal heißt ordinal, wenn zwischen seinen Ausprägungen eine natürliche Anordnung besteht (z. B. Schweregrad einer Krankheit). (siehe auch nominal)

P

p-Wert (Überschreitungswahrscheinlichkeit)
Der p-Wert (Überschreitungswahrscheinlichkeit) gibt beim statistischen Test die Wahrscheinlichkeit an, mit der sich unter der Nullhypothese die gefundenen oder noch extremere Ereignisse einstellen. Ist der p-Wert kleiner als das festgelegte Signifikanzniveau kann die Nullhypothese verworfen werden. Anderenfalls besteht auf dem vorgegebenen Signifikanzniveau kein Widerspruch zur Nullhypothese.

Parameter
Analog zu den Maßzahlen charakterisieren Parameter (z. B. Erwartungswert und Varianz) die Grundgesamtheit und die zugrundeliegende Verteilung.

Parametrische Tests  
Parametrisch heißen alle statistischen Tests, die an die Voraussetzung einer bestimmten Verteilung mit entsprechenden Parametern gebunden sind. (siehe auch nichtparametrische Tests ) Die meisten parametrischen Tests sind unter Annahme der Normalverteilung entwickelt worden (z. B. t-Test und Varianzanalyse).

Poissonverteilung
Die Poissonverteilung ist die Verteilung einer diskreten Zufallsvariable, die die Werte 0,1,2,... nach der Wahrscheinlichkeitsfunktion

annimmt. Der Parameter ist gleich dem Erwartungswert und auch gleich der Varianz. Formal ergibt sich die Poissonverteilung als Grenzwert einer Binomialverteilung, wenn n gegen unendlich und np gegen die Konstante strebt. Für großes n kann man die Poissonverteilung durch die Normalverteilung approximieren.

Prädiktiver Wert  
Der positive prädiktive Wert eines diagnostischen Verfahrens ist die bedingte Wahrscheinlichkeit, dass eine Erkrankung E vorliegt unter der Bedingung, dass der diagnostische Test T positiv ist ( P(E+|T+) ). Entsprechend ist der negative prädiktive Wert die bedingte Wahrscheinlichkeit, dass eine Erkrankung E nicht vorliegt unter der Bedingung, dass der diagnostische Test negativ ist ( P(E-|T-) ). (siehe auch falsch positiver (falsch negativer) Wert , Sensitivität und Spezifität)

Prävalenz
Die Prävalenz einer bestimmten Krankheit ist der Anteil der Personen einer definierten Population, die zu einem bestimmten Zeitpunkt an dieser Krankheit erkrankt sind. (siehe auch Inzidenz)

prospektiv  
Eine Untersuchung heißt prospektiv, wenn die Datenerhebung begonnen wird, bevor die interessierenden Ereignisse eingetreten sind. Ein Experiment ist immer prospektiv. Eine Erhebung kann prospektiv oder retrospektiv sein.

Prüfgröße  
Die Prüfgröße eines statistischen Tests ist eine aus den Daten der Stichproben berechnete Kennzahl. Für diese Kennzahl sind bei einem gegebenen Test zur vorgegebenen Irrtumswahrscheinlichkeit Ablehnungsschwellen festgelegt, die den Bereich der möglichen Werte der Prüfgröße in einen Ablehnungs- und einen Annahmebereich der Nullhypothese H0 unterteilen. Die Ablehnungsschwellen werden aus der Verteilung der Teststatistik unter der Bedingung der Gültigkeit von H0 bestimmt.

Punktwolke (Scatterplot)
Die Punktwolke dient zur graphischen Veranschaulichung des Zusammenhangs zweier stetiger Merkmale, die an n Beobachtungseinheiten erfasst wurden. Jede Beobachtungseinheit liefert genau einen Punkt für die Punktwolke. (siehe auch Korrelation)

Q

qualitativ
Ein Merkmal heißt qualitativ, wenn es sich nicht durch messen, wiegen oder zählen zahlenmäßig erfassen lässt (siehe auch quantitativ), sondern die Ausprägungen nur benannt werden können (z. B. Blutgruppe, Geschlecht). Qualitative Merkmale werden noch in nominale und ordinale Merkmale unterteilt.

Quantil
Quantile dienen zur Charakterisierung von Verteilungen bzw. quantitativen Merkmalen. Für jedes beliebige p (0 ≤ p 1) bezeichnet man xp als p-Quantil, wenn für die Verteilungsfunktion einer Verteilung bzw. für die empirische Verteilungsfunktion eines stetigen Merkmals F(xp)=p gilt. Das 0.5 - Quantil ist der Median, das 0.25-Quantil das 1. Quartil und das 0.75-Quantil das 3. Quartil.

quantitativ
Ein Merkmal heißt quantitativ, wenn es sich durch Messen, Wägen oder Zählen zahlenmäßig erfassen lässt (siehe auch qualitativ). Quantitative Merkmale werden noch in diskrete (z. B. Kinderzahl) und stetige Merkmale (z. B. Gewicht) unterteilt.

Quartil
Das 0.25- Quantil (1. Quartil), das 0.5-Quantil (2. Quartil-Median) und das 0.75-Quantil (3. Quartil) werden Quartile genannt.

R

Rangzahlen
Sortiert man n Daten, die zu einem quantitativen Merkmal erhoben wurden, der Größe nach und vergibt aufsteigend an die sortierte Datenreihe die natürlichen Zahlen von 1 bis n, so erhält man für jedes Datum eine zugehörige Rangzahl. Bei vielen nichtparametrischen Tests verwendet man nicht die Originaldaten sondern die Rangzahlen.

Regression
Als lineare Regression bezeichnet man die vermittels einer linearen Funktion beschriebene Abhängigkeit eines quantitativen Merkmals von einem anderen quantitativen Merkmal. (siehe auch Korrelation)  

Relatives Risiko
Das Relative Risiko ist der Quotient der Inzidenzraten unter Exponierten und Nicht-Exponierten. Das Relative Risiko, die Risikodifferenz und die Inzidenzrate sind die in Kohortenstudien verwendeten Risikomaße (siehe auch Odds Ratio)

retrospektiv
Bei einer retrospektiven Erhebung sind die zu analysierenden Daten schon vor Aufstellung des Versuchsplans erfasst worden. (siehe auch prospektiv)

Risikodifferenz (Attributables Risiko)
Die Risikodifferenz ist die Differenz der Inzidenzraten unter Exponierten und Nicht-Exponierten. Die Risikodifferenz, das Relative Risiko und die Inzidenzrate sind die in Kohortenstudien verwendeten Risikomaße (siehe auch Odds Ratio)

robust  
Ein Verfahren der analytischen Statistik heißt robust, wenn es näherungsweise auch bei bestimmten Abweichungen (z. B. Ausreißern) von den Voraussetzungen, unter denen es abgeleitet wurde, gültig ist.

S

Schätzen
Schätzen nennt man in der analytischen Statistik das Bestimmen einer Näherung für ein oder mehrere Charakteristika der Grundgesamtheit aus den Daten der Stichprobe. Neben der Angabe eines Schätzwertes für den unbekannten Wert eines Parameters einer Verteilung werden auch Intervalle für den unbekannten Parameterwert geschätzt. (siehe auch Konfidenzintervall) Wünschenswerte Eigenschaften von Schätzwerten sind Erwartungstreue und Konsistenz.

Selektion
Bei der Selektion schränkt man die Grundgesamtheit, für die eine bestimmte Hypothese geprüft werden soll, auf eine Teilgesamtheit von Beobachtungseinheiten ein.  

Sensitivität
Die bedingte Wahrscheinlichkeit P(T+|E+), dass bei einem Patienten mit einer Erkrankung E ein bestimmter diagnostischer Test T positiv ist, heißt Sensitivität. (siehe auch Spezifität , prädiktiver Wert und falsch positiver (falsch negativer) Wert)

Signifikanzniveau  
Das Signifikanzniveau ist synonym für die obere Grenze der Irrtumswahrscheinlichkeit eines statistischen Tests.

Somatogramm
Das Somatogramm ist eine Kurve mit eingetragenen Normalwerten und Normgrenzen von Körperlänge und -gewicht für Säuglinge und Kinder. Das Somatogramm ist die wichtigste Vergleichsskala zur Beurteilung des normalen bzw. anomalen Gedeihens.

Spannweite
Bei quantitativen Merkmalen ist die Spannweite die Differenz zwischen dem maximalen Wert und dem minimalen Wert.

Spezifität
Die bedingte Wahrscheinlichkeit P(T-|E-), dass bei einem Patienten, der eine Erkrankung E nicht hat, ein bestimmter diagnostischer Test T negativ ist, heißt Spezifität. (siehe auch Sensitivität , prädiktiver Wert und falsch positiver (falsch negativer) Wert)

Stabdiagramm  
Das Stabdiagramm ist eine graphische Darstellung der absoluten bzw. relativen Häufigkeiten diskreter Merkmale. Der relativen bzw. absoluten Häufigkeit für eine Merkmalsausprägung entspricht beim Stabdiagramm die Länge des zugehörigen Stabes. Das Stabdiagramm entspricht dem bei qualitativen Merkmalen verwendeten Blockdiagramm.  

Standardabweichung  
Die Standardabweichung ist die Quadratwurzel aus der Varianz .

Standardfehler
Der Standardfehler des Mittelwertes ist die Standardabweichung dividiert durch die Quadratwurzel des Stichprobenumfangs n.

Standardisierung  
Besitzt eine stetige Zufallsvariable X den Erwartungswert  μ und die Varianz σ2, dann kann man durch die Standardisierung Z=(X - μ) / σ2, eine Zufallsvariable Z erzeugen, deren Erwartungswert gleich 0 und deren Varianz gleich 1 ist. Diese Eigenschaft nutzt man um Normalverteilungen mit beliebigen Parametern μ und σ2 in Standardnormalverteilungen zu transformieren.  

Standardnormalverteilung
Eine Normalverteilung mit Erwartungswert μ = 0 und der Varianz σ2 heißt Standardnormalverteilung. Sie besitzt die Dichtefunktion

Durch eine Standardisierung kann jede beliebige Normalverteilung in eine Standardnormalverteilung transformiert werden.  

Statistischer Test  
Ein statistischer Test liefert nach bestimmten Regeln eine Entscheidung darüber, ob eine vorgegebene Hypothese über die zu untersuchende Grundgesamtheit anhand von Daten aus einer Stichprobe verworfen werden muss oder nicht verworfen werden kann. Man formuliert eine Ausgangshypothese als Nullhypothese H0 und stellt ihr als Gegenhypothese die Alternativhypothese H1 gegenüber. Dann gibt man das Signifikanzniveau α klein vor und fordert, dass die Wahrscheinlichkeit des Verwerfens der Nullhypothese, obwohl sie richtig ist, nicht größer als α ist (siehe auch Fehler 1. Art). Damit ist der statistische Test formuliert. Aufgrund einer Prüfgröße wird dann die Nullhypothese beibehalten oder zugunsten der Alternativhypothese verworfen. Die Beibehaltung der Nullhypothese kann im Allgemeinen nicht als Beweis der Gültigkeit dieser Hypothese interpretiert werden, es sei denn, dass im Versuchsplan der Stichprobenumfang unter Berücksichtigung des Fehlers 2. Art geeignet bestimmt wurde. (siehe auch parametrische und nichtparametrische Tests, Einstichprobentests, Zweistichprobentests, Mehrstichprobentests)

stetig
Ein quantitatives Merkmal heißt stetig, wenn das Merkmal alle Werte aus einem Intervall annehmen kann. (siehe auch diskret)

Stichprobe
Die Stichprobe ist die Menge der Beobachtungseinheiten, die in einer Untersuchung tatsächlich beobachtet werden. (siehe auch Grundgesamtheit)  

Stichprobenumfang  
Der Stichprobenumfang ist die Anzahl der zu einer Stichprobe gehörenden Elemente. Die Festlegung des Stichprobenumfangs erfolgt im Allgemeinen im Versuchsplan für eine Erhebung oder ein Experiment. Neben der Art des Merkmals und des verwendeten statistischen Tests wird der Stichprobenumfang im wesentlichen durch die Größe des Fehlers 1. und 2. Art, die Streuung der Ergebnisse und die Größe des Effekts in der Untersuchung beeinflusst.

Störgröße
Störgrößen sind Einflussgrößen, die im Versuchsplan nicht berücksichtigt werden und auch nicht erfasst werden.(siehe auch Faktor) Die zufällige Zuteilung ist eine wirksame Methode, um in Experimenten, die meist nicht bekannten Störgrößen gleichmäßig auf verschiedene Untersuchungsgruppen zu verteilen.  

Streuungsmaße
Streuungsmaße sind Maßzahlen zur Charakterisierung der Variabilität empirisch gewonnener Daten von quantitativen Merkmalen. Die am häufigsten benutzten Maßzahlen sind die Varianz, die Standardabweichung, die Spannweite und der Interquartilsabstand. (siehe auch deskriptive Statistik)

Strukturgleichheit
Strukturgleichheit liegt dann vor, wenn Störgrößen und Einflussgrößen in verschiedenen Patientengruppen gleiche Verteilungen aufweisen. Die Blockbildung und die zufällige Zuteilung sind wirksame Methoden zur Erlangung der Strukturgleichheit.  

systematischer Fehler
Im Gegensatz zu zufälligen Fehlern sind systematische Fehler solche Fehler, die sich im Mittel nicht aufheben und damit auf nichtzufällige, systematische Einflüsse zurückzuführen sind. Liegen systematische Fehler vor, treten Verzerrungen (Bias) auf.

T

t-Test
Allgemein bezeichnet man mit t-Test verschiedene statistische Tests, deren Teststatistik einer t-Verteilung folgt. Die t-Tests gehören zu den parametrischen Tests, da sie voraussetzen, dass die untersuchten Daten einer Normalverteilung folgen. Einen t-Test gibt es als Einstichprobentest und als Zweistichprobentest für verbundene (siehe auch Wilcoxon-Test) und unverbundene Stichproben (siehe auch Mann-Whitney-Wilcoxon-Test). Die Varianzanalyse ist die Verallgemeinerung des t-Tests auf mehr als zwei Stichproben (siehe auch Mehrstichprobentests).

t-Verteilung
Die t-Verteilung ist eine Verteilung, die man aus einer Transformation von n unabhängigen normalverteilten Zufallsvariablen ableiten kann. Die t-Verteilung ist symmetrisch zu Null. Der Erwartungswert ist 0 und die Varianz ist (n-1)/(n-3). Mit wachsendem n nähert sich die Dichtefunktion der t-Verteilung immer mehr der Dichtefunktion der Standardnormalverteilung. Die Teststatistik eines t-Tests ist t-verteilt.

U

Überlebenszeiten
Überlebenszeiten werden häufig zur Beurteilung der Wirksamkeit therapeutischer Maßnahmen herangezogen. In diesem Zusammenhang versteht man unter einer Überlebenszeit nicht nur die Zeit bis zum Tod, sondern allgemein die Zeitspanne von einem festgesetzten Anfangsdatum (z. B. Diagnose) bis zum Eintritt eines bestimmten Endereignisses (z. B. Tod, Remission, Rezidiv). Ein typisches Problem bei Daten dieser Art sind die unvollständigen Angaben, die sich ergeben, wenn für eine Beobachtungseinheit noch kein Endereignis beobachtet werden konnte (siehe auch zensierte Daten). Die Schätzung der Überlebensrate aus den beobachteten Überlebenszeiten und die graphische Darstellung als Kurve erfolgt mit Hilfe der Kaplan-Meier-Schätzung. Der Vergleich zweier Überlebenskurven erfolgt mit dem Logrank-Test.

unabhängige Ereignisse
Zwei Ereignisse A und B sind voneinander unabhängig, wenn die Wahrscheinlichkeit für das Auftreten irgendeines dieser Ereignisse nicht vom Eintreten des anderen Ereignisses abhängt. Daraus ergibt sich, dass die Wahrscheinlichkeit  P(AB) dafür, dass beide Ereignisse zusammen auftreten, gleich dem Produkt der Wahrscheinlichkeiten für die Einzelereignisse ist: P(AB) = P(A)∙P(B).

unverbundene Stichprobe
Zwei Stichproben heißen unverbunden, wenn sowohl die Daten innerhalb einer Stichprobe als auch die Daten aus beiden Stichproben zusammen unabhängig voneinander sind. (siehe auch verbundene Stichprobe)

V

Varianz
Die Varianz σ2 einer Zufallsvariablen X ist gleich dem Erwartungswert ihrer quadratischen Abweichung vom Erwartungswert μ, d. h. σ2=E(X - μ)2. Die Varianz s2 bei empirischen Daten von quantitativen Merkmalen ist die mittlere quadratische Abweichung der Einzelwerte vom Mittelwert und beträgt

Die Varianz ist ein Streuungsmaß. (siehe auch Standardabweichung)

Varianzanalyse
Die Varianzanalysen sind parametrische Mehrstichprobentests. Sie sind Verallgemeinerungen und Erweiterungen der t-Tests.

Venn-Diagramm
Das Venn-Diagramm dient zur graphischen Darstellung von Mengen und Mengenoperationen.

verbundene Stichprobe
Zwei Stichproben heißen verbunden, wenn jeder Wert xi der einen Stichprobe zusammen mit einem yi der anderen Stichprobe inhaltlich ein Paar bildet. Verbundene Stichproben haben immer denselben Umfang. Sie werden in der Medizin häufig untersucht, z. B. wenn ein bestimmtes Merkmal vor und nach einer Therapie erfasst wird oder wenn Patienten mit zwei unterschiedlichen Therapien gleichzeitig oder zeitlich nacheinander behandelt werden. (siehe auch unverbundene Stichprobe)

Vereinigungsmenge  
Die Vereinigungsmenge AB zweier Mengen A und B besteht aus allen Elementen, die entweder in A oder in B enthalten sind. (siehe auch Durchschnittsmenge und Komplementmenge)  

Versuchsplan
Um zu statistisch auswertbaren Daten zu gelangen, die eine vorgegebene Fragestellung beantworten, müssen Untersuchungen in der Medizin mit einem ausführlichen Prüfplan vorstrukturiert werden. Der Versuchsplan enthält u. a. die Fragestellung, die Charakterisierung von Stichprobe und Grundgesamtheit, die Festlegung von Zielgrößen, Einflussgrößen und Identifikationsgrößen, die Kalkulation des Stichprobenumfangs, die Auswahl von geeigneten statistischen Tests.

Verteilung
Unter der Verteilung einer Zufallsvariablen versteht man die Gesetzmäßigkeit, nach der diese Zufallsvariable ihre Werte annimmt. Die Verteilung bestimmt die Wahrscheinlichkeiten aller mit der Zufallsvariablen zusammenhängenden Ereignisse. Die Charakterisierung der Verteilung erfolgt bei diskreten Zufallsvariablen (z. B. Binomialverteilung) durch die Wahrscheinlichkeitsfunktion bzw. Verteilungsfunktion und bei stetigen Zufallsvariablen (z. B. Normalverteilung) durch die Dichtefunktion bzw. Verteilungsfunktion sowie durch Parameter .

Verteilungsfunktion  
Der Wert der Verteilungsfunktion F(x) an einem Punkt x gibt die Wahrscheinlichkeit an, dass der Wert der Zufallsvariablen X kleiner oder gleich x ausfällt: F(x) = P(XX). (siehe auch empirische Verteilungsfunktion)

Vierfeldertafel
Die Vierfeldertafel ist eine Kontingenztafel für zwei qualitative Merkmale mit jeweils zwei Ausprägungen.  

Vorzeichentest
Der Vorzeichentest ist ein nichtparametrischer Test für zwei verbundene Stichproben von quantitativen Merkmalen. Die Prüfgröße ist die Anzahl der positiven bzw. negativen Differenzen der Paare der verbundenen Stichprobe. Die Teststatistik folgt einer Binomialverteilung.

W

Wahrscheinlichkeit
Der Begriff der Wahrscheinlichkeit ist aus Beobachtung und Erfahrung entstanden. Tritt bei n-maliger Durchführung eines Zufallsexperimentes ein bestimmtes Ereignis A k-mal auf, so bezeichnet man die in langen Versuchsreihen zu beobachtende oder zu erwartende relative Häufigkeit k/n als Wahrscheinlichkeit P(A). Wegen der Schwierigkeiten, die für eine direkte mathematische Beschreibung dieses Sachverhaltes auftreten, hat man die Wahrscheinlichkeit axiomatisch definiert. (Axiome von Kolmogoroff)

Wahrscheinlichkeitsfunktion
Bei diskreten Verteilungen ist die Wahrscheinlichkeitsfunktion diejenige Funktion, die die Wahrscheinlichkeiten der einzelnen möglichen Werte der Zufallsvariablen angibt.

Wilcoxon-Test
Der Wilcoxon-Test ist ein nichtparametrischer Test zum Vergleich zweier verbundener Stichproben quantitativer Merkmale. Die Prüfgröße des Tests wird aus den Rangzahlen der Differenzen der Stichprobenwerte berechnet. Der analoge parametrische Test ist der t-Test für verbundene Stichproben.

X

Y

Z

zensierte Daten
Eine Überlebenszeit heißt zensiert, wenn das interessierende Ereignis (z. B. Tod) noch nicht eingetreten ist oder aus anderen Gründen (z. B. nichtvorhandene Information) nicht mehr festgestellt werden kann.

zentraler Grenzwertsatz
Der mit √n multiplizierte Mittelwert von n unabhängigen Zufallsvariablen einer beliebigen Verteilung mit gleichem Erwartungswert 0 und gleicher Varianz σ2 nähert sich mit wachsendem n einer Normalverteilung mit dem Erwartungswert 0 und der Varianz σ2.  

Zielgrößen
Die Merkmale, deren Verteilung in der Grundgesamtheit Gegenstand einer Erhebung oder eines Experimentes ist, heißen Zielgrößen. (siehe auch Einflussgrößen)

zufälliger Fehler
Als zufälligen Fehler bezeichnet man in statistischen Modellen die zufällige Abweichung vom Erwartungswert, die keinem der Faktoren eines Versuches zugeordnet wird. (siehe auch systematischer Fehler)  

zufällige Zuteilung (Randomisation)
Die zufällige Zuteilung ist eine wirksame Methode, um in Experimenten die meist nicht bekannten Störgrößen gleichmäßig auf verschiedene Untersuchungsgruppen zu verteilen. Die Randomisation ist das wirksamste Instrument zur Erlangung der Strukturgleichheit. Die Art und Weise der Randomisation muss im Versuchsplan festgelegt werden. (siehe auch Blockbildung)

Zufallsexperiment
Die Methoden der Wahrscheinlichkeitsrechnung können nur dann sinnvoll angewendet werden, wenn ein sogenanntes Zufallsexperiment vorliegt, d.h. ein Experiment, das unter gleichen Bedingungen zumindest im Prinzip beliebig oft wiederholt werden kann und das trotz gleicher Bedingungen unterschiedliche Ergebnisse haben kann.

Zufallsvariable
Eine Zufallsvariable ist eine Variable, die ihre Werte in Abhängigkeit vom Zufall, d.h. mit einer gewissen Wahrscheinlichkeit annimmt. Die Wahrscheinlichkeiten und damit auch die Zufallsvariable können oft durch eine Verteilung eindeutig charakterisiert werden. Man unterscheidet diskrete und stetige Zufallsvariablen. Man benutzt sie u.a. zur Entscheidung beim statistischen Test . Solche Zufallsvariablen heißen Teststatistik. Den Wert, den sie im konkreten Fall annehmen, nennt man Prüfgröße.

zweiseitige Alternative  
Eine zweiseitige Alternativhypothese wird dann formuliert, wenn ein zu testender Effekt in beide Richtungen möglich ist. Bei statistischen Tests in der Medizin wird meistens eine zweiseitige Alternative formuliert. (siehe auch einseitige Alternative)

Zweistichprobentests  
Zweistichprobentests sind statistische Tests für zwei Stichproben (z. B. Wilcoxon-Test ). (siehe auch Einstichprobentests und Mehrstichprobentests).