Glossar

[A | B | C | D | E | F | G | H | I | K | L | M | N | O | P | Q | R | S | T | U | V | W | Z ]
Alternativhypothese Die Alternativhypothese ist die Gegenhypothese H1 zur Nullhypothese H0 beim statistischen Test. Sowohl H0 als auch H1 sind Aussagen über die Grundgesamtheit, die in einem statistischen Test überprüft werden sollen. ( siehe auch einseitige und zweiseitige Alternative )
Analytische Statistik (Schließende Statistik, Inferenzstatistik) Die analytische Statistik liefert Verfahren, die es erlauben, von einer Stichprobe auf die Grundgesamtheit mit einem bestimmten Grad an Sicherheit zu schließen. Die Methoden der analytischen Statistik lassen sich in zwei Hauptgruppen einteilen:

1. Methoden des Schätzens unbekannter Parameter und

2. Statistische Tests zum Prüfen von Hypothesen

( siehe auch deskriptive Statistik)
Ausprägungen Die Gesamtheit aller möglichen Werte eines Merkmals nennt man Ausprägungen. Die Liste der Ausprägungen eines Merkmals muß disjunkt und vollständig sein. (siehe auch Daten)
Ausreißer Ein Ausreißer ist in der Datenreihe eines Merkmals ein extrem großer oder extrem kleiner Wert, der nicht zu der gleichen Grundgesamtheit gehört wie die übrigen Elemente der untersuchten Stichprobe. Verfahren der analytischen Statistik, die gegenüber vorhandenen Ausreißern wenig empfindlich sind, werden robust genannt.
Axiome von Kolmogoroff Die axiomatische Definition der Wahrscheinlichkeit erfolgte durch A. N. Kolmogoroff (1903-1987). Durch deren Formulierung im Jahr 1933 wurde die Wahrscheinlichkeitsrechnung zu einem Zweig der modernen Mathematik. Die drei Axiome lauten:

1. Jedem Ereignis A ist eindeutig eine Zahl P(A) 0, die Wahrscheinlichkeit von A, zugeordnet.

2. Die Wahrscheinlichkeit des sicheren Ereignisses ist 1.

3. Schließen sich zwei Ereignisse A und B gegenseitig aus, dann ist die Wahrscheinlichkeit der Summe von A und B gleich der Summe der Einzelwahrscheinlichkeiten: P(AB) = P(A)+P(B).

Bayessche Formel Der Satz von Bayes (1702-1761) ist ein grundlegender Satz der Wahrscheinlichkeitstheorie zur Berechnung bedingter Wahrscheinlichkeiten.
Z.B. läßt sich die Wahrscheinlichkeit einer Krankheit A bei Vorliegen des Symptoms B, P(A|B), ausrechnen aus der allgemeinen Wahrscheinlichkeit P(A) der Krankheit A und der bedingten Wahrscheinlichkeit für das Symptom B bei der Krankheit A, P(B|A).
Bedingte Wahrscheinlichkeit Die bedingte Wahrscheinlichkeit P(A|B) ist die Wahrscheinlichkeit des Ereignisses A unter einer vorhandenen Bedingung B, z.B. die Wahrscheinlichkeit, eine Krankheit A zu haben, wenn ein Symptom B vorhanden ist.
Behandlungsgleichheit Behandlungsgleichheit liegt dann vor, wenn in einer Untersuchung bis auf die durch die verschiedenen Therapien bedingten, nicht vermeidbaren Behandlungsunterschiede alle Patienten gleich behandelt werden ( siehe auch Blindversuch und Beobachtungsgleichheit)
Beobachtungseinheit Das Objekt einer Untersuchung wird als Beobachtungseinheit oder Merkmalsträger bezeichnet, wobei die Untersuchung darin besteht, bestimmte Merkmale dieser Beobachtungseinheit zu erfassen.
Beobachtungsgleichheit Beobachtungsgleichheit liegt dann vor, wenn in einer Untersuchung alle Merkmale, insbesondere der Behandlungserfolg, an alle Patienten objektiv unter gleichen Bedingungen erfaßt werden. ( siehe auch Blindversuch und Behandlungsgleichheit).
Bestimmtheitsmaß Das Bestimmtheitsmaß ist das Quadrat r2 des Korrelationskoeffizienten r
Bias (Verzerrung) Mit Bias (Verzerrung) bezeichnet man die sytematische nichtzufällige Abweichung einer Stichprobe von der zugrundeliegenden Grundgesamtheit bzw. eines Schätzwertes von dem zugrundeliegenden Parameter. Bias wird häufig durch Störgrößen hervorgerufen. (siehe auch Erwartungstreue und systematischer Fehler )
Binomialkoeffizient

Der Ausdruck
, gelesen n über k, heißt Binomialkoeffizient und errechnet sich als n!/k!(n-k)!. Der Binomialkoeffizient wird u.a. für die Berechnung der Binomialverteilung benötigt.

Binomialverteilung Die Binomialverteilung dient als Modell, wenn bei einem Versuch bzw. einer Beobachtung zwei Möglichkeiten gegeben sind und diese mit den Wahrscheinlichkeiten p bzw. 1-p auftreten und n unabhängige Versuche mit der gleichen Einzelwahrscheinlichkeit p vorliegen. Die Binomialverteilung hat den Erwartungswert n·p und die Varianz n·p·(1-p).
Blindversuch Wenn der Therapieerfolg oder die Beurteilung des Therapieerfolges von der Erwartungshaltung des Patienten oder des Arztes abhängig ist, werden zur Ausschaltung eines systematischen Fehlers in einem einfachen Blindversuch der Patient oder in einem Doppelblindversuch Patient und Arzt über die im Einzelfall angewandte Therapie im Unklaren gelassen. Blindversuche sind ein wesentliches Instrument, um Beobachtungsgleichheit und Behandlungsgleichheit zu erreichen.
Blockbildung Um den zufälligen Fehler zu reduzieren, werden im Versuchsplan Beobachtungseinheiten, die bezüglich einer oder mehrerer Einflußgrößen als homogen angesehen werden können, zu einem Block zusammengefaßt. ( siehe auch zufällige Zuteilung und Strukturgleichheit ).
Blockdiagramm Das Blockdiagramm ist eine graphische Darstellung der absoluten bzw. relativen Häufigkeiten qualitativer Merkmale. Der relativen bzw. absoluten Häufigkeit für eine Merkmalsausprägung entspricht beim Blockdiagramm die Höhe des zugehörigen Blocks. Das Blockdiagramm entspricht dem bei diskreten Merkmalen verwendeten Stabdiagramm. ( siehe auch Flächendiagramm und Kreisdiagramm)
Boxplot Der Boxplot ist eine graphische Darstellung zur Charakterisierung der Verteilung stetiger Merkmale beruhend auf den empirischen Quartilen. Der Interquartilsabstand wird als Kasten (engl.: box) dargestellt, von dem aus Linien bis zum Minimum bzw. Maximum gezogen werden.Im Kasten wird der Median noch durch eine Linie gekennzeichnet. Optional kann noch die Lage des arithmetischen Mittelwerts gekennzeichnet werden z.B. durch einen Punkt.

Chi-Quadrat-Test ( 2 - Test )

Der Chi-Quadrat-Test ist ein statistischer Test zur Prüfung der Unabhängigkeit zweier qualitativer Merkmale, die z.B. in einer Kontingenztafel dargestellt sind. Die Teststatistik bei Gültigkeit der Nullhypothese folgt einer Chi-Quadrat-Verteilung.

Chi-Quadrat-Verteilung ( 2 - Verteilung)

Die Quadratsumme von n 1 unabhängigen Standardnormalverteilungen hat eine sogenannte Chi-Quadrat-Verteilung mit dem Erwartungswert n und der Varianz 2n.
Daten Daten sind die in Untersuchungen tatsächlich festgestellten Ausprägungen eines Merkmals
Deskriptive Statistik Die deskriptive Statistik hat die Aufgabe, empirisch gewonnene Daten von qualitativen und quantitativen Merkmalen zu ordnen, durch bestimmte Maßzahlen (z.B. Lagemaße und Streuungsmaße) zusammenzufassen und graphisch (z.B. Blockdiagramm, Boxplot, Histogramm) oder tabellarisch (z.B. Kontingenztafel) darzustellen. ( siehe auch Analytische Statistik).
Dichtefunktion Bei stetigen Zufallsvariablen ist die Dichtefunktion f(x) die erste Ableitung der Verteilungsfunktion F(x), d.h. f(x)=F'(x).
disjunkt Zwei Mengen A und B heißen disjunkt, wenn ihr Durchschnitt die leere Menge ist - AB = Ø
disjunkte Ereignisse Zwei Ereignisse A und B sind disjunkt, wenn der Durchschnitt der Mengen A und B leer ist - AB = Ø( siehe auch disjunkt ) Für die Wahrscheinlichkeiten des Auftretens der Ereignisse AB und A|B gilt P(AB) = 0 und P(A|B) = 0 .
diskret Quantitative Merkmale lassen sich unterteilen in diskrete und stetige Merkmale. Diskrete Merkmale können nur bestimmte z.B. ganzzahlige Werte annehmen. Ergebnisse von Zählvorgängen führen stets zu diskreten Werten (z.B. Leukozytenzahl).
Durchschnittsmenge Die Durchschnittsmenge zweier Mengen A und B AB besteht aus allen Elementen, die sowohl in A als auch in B enthalten sind. (siehe auch Vereinigungsmenge und Komplementmenge)
Einflußgröße Merkmale, die einen Einfluß auf die Zielgröße einer Untersuchung haben, nennt man Einflußgrößen. Je nach Berücksichtigung im Versuchsplan unterteilt man Einflußgrößen in Faktoren bzw. Störgrößen.
Einseitige Alternative Eine einseitige Alternativhypothese wird dann formuliert, wenn ein zu testender Effekt nur in einer Richtung möglich oder sachlich gerechtfertigt ist. Bei statistischen Tests in der Medizin wird meistens eine zweiseitige Alternative formuliert.
Einstichprobentests Mit einem Einstichprobentest werden Hypothesen anhand einer einzigen Stichprobe überprüft, z.B. ob eine Normalverteilung vorliegt oder ein Parameter einen bestimmten Wert hat. ( siehe auch Zweistichprobentests und Mehrstichprobentests )
Elementarereignis Ereignisse, die nur ein mögliches Ergebnis enthalten, nennt man Elementarereignisse.
empirische Verteilungsfunktion Die empirische Verteilungsfunktion gibt für jeden Datenwert x an, wie groß der Anteil der Daten ist, die kleiner oder gleich x sind. (siehe auch Verteilungsfunktion)
Epidemiologie Die Epidemiologie umfaßt das Studium der Häufigkeitsverteilung von Krankheiten in der Bevölkerung sowie die Analyse der Faktoren, die diese Verteilung beeinflussen. Die Methoden der Epidemiologie sind weitgehend von der Wahrscheinlichkeitsrechnung und Statistik geprägt. Die wichtigsten Häufigkeitsmaße der Epidemiologie sind Inzidenz , Prävalenz, Mortalität und Letalität .
Ereignis Ein Ereignis ist eine Teilmenge der Menge aller möglichen Ergebnisse eines Zufallsexperiments ( siehe auch unabhängige Ereignisse )
Ergebnis Die Menge aller möglichen Ausgänge eines Zufallsexperiments nennt man mögliche Ergebnisse. Die möglichen Ergebnisse müssen sich gegenseitig ausschließen. Die Menge der möglichen Ergebnisse muß vollständig sein. ( siehe auch Ereignis )
Erhebung Alle statistischen Untersuchungen, die nicht den Charakter eines Experimentes haben, werden Erhebungen genannt. Man unterscheidet retrospektive und prospektive Erhebungen.
Erwartungstreue Eine Schätzung eines unbekannten Parameters heißt erwartungstreu, wenn für alle Stichprobenumfänge und alle Werte des Parameters ihr Erwartungswert gleich dem Parameter ist. Die Abweichung des Erwartungswertes der Schätzung vom gesuchten Parameterwert heißt Bias (Verzerrung). Die Erwartungstreue ist eine wünschenswerte Eigenschaft einer optimalen Schätzung. (siehe auch Konsistenz )
Erwartungswert Der Mittelwert einer Zufallsvariablen oder einer Verteilung wird Erwartungswert µ genannt. Mit der Varianz 2 gehört der Erwartungswert zu den Parametern, die eine Zufallsvariable oder eine Verteilung charakterisieren.
Experiment Ein Experiment ist eine prospektive Untersuchung. Aufgrund der Fragestellung werden eine Grundgesamtheit und die Beobachtungseinheiten gewählt. Identifikationsgrößen, Zielgrößen und Einflußgrößen werden im Versuchsplan festgelegt. Bei einem Experiment werden die Ausprägungen mindestens eines Faktors (z.B. Therapie A und B) durch eine zufällige Zuteilung für die Beobachtungseinheiten festgelegt.
Exposition Unter Exposition versteht man Bedingungen, Krankheitsursachen oder Risikofaktoren, welchen bestimmte Personen oder Bevölkerungsgruppen ausgesetzt sind. Die Exposition spielt vor allem bei Kohortenstudien und Fall-Kontroll-Studien eine große Rolle.
Faktor Einflußgrößen, die im Versuchsplan berücksichtigt und erfaßt werden, heißen Faktoren.(siehe auch Störgröße)
Fall-Kontroll-Studie Unter einer Fall-Kontroll-Studie versteht man eine retrospektive Erhebung. Aus einer definierten Grundgesamtheit wird eine Stichprobe von Personen mit der interessierenden Erkrankung (Fälle) gezogen. Aus der gleichen Grundgesamtheit wird eine Stichprobe von Personen ohne diese Erkrankung (Kontrollen) gezogen. Die Exposition in der Vergangenheit gegenüber potentiellen Risikofaktoren wird ermittelt. Das wichtigste Risikomaß in Fall-Kontroll-Studien ist die Odds Ratio. (siehe auch Kohortenstudie und Kontrollierte Klinische Studie )
falsch positiver (falsch negativer) Wert Der falsch positive Wert eines diagnostischen Verfahrens ist die Wahrscheinlichkeit, daß keine Erkrankung E vorliegt, andererseits aber der diagnostische Test T positiv ist ( P(E- T+)). Entsprechend ist der falsch negative Wert die Wahrscheinlichkeit, daß eine Erkrankung E vorliegt und der diagnostische Test negativ ist (P(E+ T-)). ( siehe auch prädiktiver Wert , Sensitivität und Spezifität )
Fehler 1. Art Beim Prüfen der Nullhypothese H0 mit einem statistischen Test besteht der Fehler 1. Art in der Ablehnung von H0, obwohl H0 richtig ist. Die Wahrscheinlichkeit für den Fehler 1. Art wird im statistischen Test durch eine beliebig klein vorgegebene Grenze der Irrtumswahrscheinlichkeit (z.B. = 0,05) kontrolliert.
Fehler 2. Art Beim Prüfen der Nullhypothese H0 gegen eine Alternativhypothese H1 mit einem statistischen Test besteht der Fehler 2. Art in der Annahme von H0, obwohl H1 richtig ist. Die Wahrscheinlichkeit für diesen Fehler bezeichnet man üblicherweise mit ß . Die Wahrscheinlichkeit, eine richtige Alternativhypothese im statistischen Test auch tatsächlich als richtig zu erkennen, ist dann (1-ß). Man nennt diese Wahrscheinlichkeit auch Macht (engl.: power) des Tests.
Flächendiagramm Das Flächendiagramm ist eine graphische Darstellung der absoluten bzw. relativen Häufigkeiten qualitativer Merkmale. Der relativen bzw. absoluten Häufigkeit für eine Merkmalsausprägung entspricht beim Flächendiagramm die Fläche des zugehörigen Blocks. ( siehe auch Blockdiagramm und Kreisdiagramm)
Gesetz der großen Zahl Sind x1 , x2 , ..., xn n unabhängige Zufallsvariable mit derselben Verteilung, so strebt xi / n , gegen den gemeinsamen Erwartungswert µ, d.h. große Abweichungen von µ treten mit wachsendem n immer seltener auf.
Grundgesamtheit Die Grundgesamtheit ist die Gesamtmenge der Beobachtungseinheiten, über die aufgrund der Ergebnisse eines Versuchs Aussagen gemacht werden sollen. ( siehe auch Stichprobe )
Häufigkeit Unter der absoluten Häufigkeit versteht man die Anzahl der Beobachtungen in einer bestimmten Klasse bei klassierten Merkmalen bzw. die Anzahl der Beobachtungen mit einer bestimmten Ausprägung bei qualitativen und diskreten Merkmalen. Die relative Häufigkeit ist der Anteil der absoluten Häufigkeit relativ zur Gesamtanzahl von Beobachtungen
Histogramm Das Histogramm dient zur graphischen Darstellung für die Häufigkeitsverteilung quantitativer Merkmale. Die Daten werden der Größe nach in Klassen eingeteilt und diese auf einer Grundlinie aufgetragen. Über jeder Klasse wird ein Rechteck gezeichnet, dessen Flächeninhalt proportional der relativen Häufigkeit der auf die Klasse entfallenden Elemente ist. Ist die Anzahl der Daten groß genug und bei stetigen Merkmalen die Klassenbreite klein genug, so ist die Form des Histogramms der Gestalt der Dichtefunktion für stetige Zufallsvariable bzw. der Wahrscheinlichkeitsfunktion für diskrete Zufallsvariable ähnlich.
Identifikationsgröße Für Plausibilitätsbetrachtungen und beim Zusammenführen von Daten aus verschiedenen Quellen benötigt man Angaben zur Identifikation der Beobachtungseinheiten (z.B. Name, Geburtsdatum, Patienten-Nr.).
Interquartilsabstand Der Interquartilsabstand ist die Differenz zwischen dem 3. Quartil und dem 1. Quartil. ( siehe auch Boxplot)
Inzidenz Die Inzidenz einer bestimmten Krankheit ist der Anteil der Personen einer definierten Population, die in einem bestimmten Zeitraum an dieser Krankheit neu erkranken ( siehe auch Prävalenz)
Irrtumswahrscheinlichkeit Beim statistischen Test ist die Irrtumswahrscheinlichkeit die vorgegebene Wahrscheinlichkeit für den Fehler 1. Art.
Kaplan-Meier-Schätzung Die Kaplan-Meier-Methode erlaubt es, bei Überlebenszeiten die Überlebensrate S(t) zu schätzen. S(t) ist der Anteil der Beobachtungseinheiten, die den Zeitpunkt t überleben. Die Kaplan-Meier-Methode berücksichtigt die Informationen aller Beobachtungseinheiten so lange, wie diese beobachtet worden sind. Zur Veranschaulichung dient die graphische Darstellung der Überlebensrate in Abhängigkeit von der Zeit in einer Kurve.
Der statistische Test zum Vergleich zweier Überlebenszeitkurven ist der Logrank-Test.
Klassierung Um die Daten eines stetigen Merkmals sinnvoll graphisch und tabellarisch darzustellen, wird eine sogenannte Klassierung vorgenommen. Dazu teilt man den gesamten Wertebereich des Merkmals in Intervalle ein, die Klassen genannt werden. Ziel der Klassierung ist es, einerseits die tabellarische und graphische Darstellung übersichtlicher zu gestalten, ohne andererseits zuviel an Information zu verlieren. ( siehe auch Histogramm )
Kohortenstudie Unter einer Kohortenstudie versteht man eine prospektive Erhebung. Aus einer definierten Grundgesamtheit wird eine Stichprobe (Kohorte) gezogen, in der Risikofaktoren erhoben und Krankheiten erfaßt werden. Risikomaße in Kohortenstudien sind die Inzidenz, das Relative Risiko und die Risikodifferenz. (siehe auch Fall-Kontroll-Studie und Kontrollierte Klinische Studie )
Komplementmenge Die Komplementmenge der Menge A besteht aus allen Elementen, die nicht in A enthalten sind. (siehe auch Durchschnittsmenge und Vereinigungsmenge)
Konfidenzintervall Ein Konfidenzintervall ist ein geschätztes Intervall, welches den wahren Wert eines unbekannten Parameters (z.B. Erwartungswert) mit vorgegebener Wahrscheinlichkeit 1 - , z.B. 99 %, überdeckt. ( siehe auch Schätzen)
Konsistenz Eine Schätzung eines unbekannten Parameters heißt konsistent, wenn sie für den Stichprobenumfang n -> gegen den Parameter konvergiert. Vernünftige Schätzungen sollten sich insbesondere für große Stichprobenumfänge nur wenig vo dem zu schätzenden Parameter unterscheiden. (siehe auch Erwartungstreue )
Kontingenztafel Unter einer Kontingenztafel versteht man die tabellarische Darstellung der gemeinsamen Häufigkeitssverteilung von zwei- oder mehr qualitativen Merkmalen.
Kontrollierte Klinische Studie Unter einer Kontrollierten Klinischen Studie versteht man eine prospektive experimentelle Studie. Aus einer definierten Grundgesamtheit wird eine Stichprobe meistens mit Patienten mit einer bestimmten Krankheit oder Risikokonstellation gezogen. In einer Kontrollierten Klinischen Studie werden i.a. zwei oder mehr Therapien auf ihre Wirksamkeit untersucht. Die Patienten werden den zu vergleichenden Therapien zufällig zugeteilt. Der Blindversuch und die Blockbildung sind oft genutzte Elemente von Kontrollierten Klinischen Studien. Ziel ist die Erreichung von Strukturgleichheit, Behandlungsgleichheit und Beobachtungsgleichheit, um am Studienende anhand von definierten Zielgrößen eine gesicherte Aussage über die Wirksamkeit der verwendeten Therapien machen zu können. (siehe auch Fall-Kontroll-Studie und Kohortenstudie )
Korrelation Die Korrelation mißt den Zusammenhang zwischen zwei quantitativen Merkmalen. Eine Maßzahl für die Stärke der Korrelation ist der Korrelationskoeffizient.( siehe auch Regression und Punktwolke)
Korrelationskoeffizient Der Korrelationskoeffizient ist eine Maßzahl für den linearen Zusammenhang zwischen zwei quantitativen Merkmalen. Er liegt zwischen -1 und +1 und ist positiv, wenn den hohen (bzw. niedrigen) Werten eines Merkmals jeweils hohe (bzw. niedrige) Werte des anderen Merkmals entsprechen; er ist negativ im umgekehrten Falle. Der Wert liegt um so näher bei ±1, je straffer die Beziehung ist. Ein Wert bei 0 läßt auf das Fehlen einer linearen Beziehung schließen.( siehe auch Bestimmtheitsmaß)
Kreisdiagramm Das Kreisdiagramm ist eine graphische Darstellung der absoluten bzw. relativen Häufigkeiten qualitativer Merkmale. Der relativen bzw. absoluten Häufigkeit für eine Merkmalsausprägung entspricht beim Kreisdiagramm der zentrale Winkel des zugeordneten Kreissegmentes. ( siehe auch Blockdiagramm und Flächendiagramm).
Kruskal-Wallis-Test Der Kruskal-Wallis-Test ist ein nichtparametrischer Mehrstichprobentest . Er ist eine Verallgemeinerung und Erweiterung des Mann-Whitney-Wilcoxon-Tests .
Lagemaße Lagemaße sind Maßzahlen zur Charakterisierung des Durchschnittswertes empirisch gewonnener Daten von quantitativen Merkmalen. Die am häufigsten benutzten Kennzahlen sind der arithmetische Mittelwert, der Median und der Modalwert. ( siehe auch deskriptive Statistik)
Letalität Die Letalität ist der Anteil der an einer bestimmten Krankheit in einem bestimmten Zeitraum (z.B. 1 Jahr) Gestorbenen, bezogen auf die Gesamtzahl der an der Krankheit Erkrankten einer definierten Population ( siehe auch Mortalität).
Logrank-Test Der Logrank-Test ist ein statistischer Test zum Vergleich der Überlebenszeiten zweier unverbundener Stichproben. Die Teststatistik des Tests folgt näherungsweise einer Chi-Quadrat-Verteilung.
Mann-Whitney-Wilcoxon-Test (U-Test) Der Mann-Whitney-Wilcoxon-Test ist ein nichtparametrischer Test zum Vergleich zweier unverbundener Stichproben quantitativer Merkmale. Die Prüfgröße des Tests wird aus den Rangzahlen der Stichproben berechnet. Der analoge parametrische Test ist der t-Test für unverbundene Stichproben. Der Kruskal-Wallis-Test ist die Verallgemeinerung und Erweiterung des Mann-Whitney-Wilcoxon Tests.
Maßzahlen Maßzahlen dienen zur Charakterisierung empirisch gewonnener Daten von quantitativen Merkmalen. Man unterscheidet Lagemaße und Streuungsmaße. ( siehe auch deskriptive Statistik)
Median Der Median eines quantitativen Merkmals ist der Wert des mittleren Elements bei ungeradem Stichprobenumfang bzw. das arithmetische Mittel der beiden mittleren Elemente bei geradem Stichprobenumfang, wenn die Daten der Größe nach geordnet sind. ( siehe auch Lagemaße, Quantil, Quartil )
Mehrstichprobentests Mehrstichprobentests sind statistische Tests für mehr als zwei Stichproben (z.B. Varianzanalyse, Kruskal-Wallis-Test). ( siehe auch Einstichprobentests, Zweistichprobentests )
Mengen In der Mengenlehre bezeichnet man die Gesamtheit der unterscheidbaren Objekte als Grundmenge S. Jede Teilgesamtheit der Objekte ist eine Teil- oder Untermenge. (siehe auch Durchschnittsmenge, Komplementmenge und Vereinigungsmenge)
Merkmal Merkmale sind die interessierenden Eigenschaften von Beobachtungseinheiten. Merkmale lassen sich in qualitative und quantitative Merkmale unterteilen.
Mittelwert Der arithmetische Mittelwert eines quantitativen Merkmals ist die Summe aller Daten dividiert durch den Stichprobenumfang n. ( siehe auch Lagemaße )
Modalwert Der Modalwert eines quantitativen Merkmals ist der am häufigsten vorkommende Wert. ( siehe auch Lagemaße )
Modell In der Wissenschaft und Forschung bezeichnet man mit Modell die abstrahierende, formalisierte Darstellung eines Sachverhaltes. Meist bedient man sich hierzu der Mathematik und Statistik.
Mortalität Die Mortalität ist der Anteil der Personen einer definierten Population, die in einem bestimmten Zeitraum sterben. Angaben über die Mortalität können auch auf eine bestimmte Krankheit bezogen sein. ( siehe auch Letalität)
Nichtparametrische Tests Nichtparametrisch oder parameterfrei heißen alle statistischen Tests, die nicht an die Voraussetzung einer bestimmten Verteilung mit entsprechenden Parametern gebunden sind ( siehe auch parametrische Tests ). Von einigen Ausnahmen abgesehen beziehen sich diese Verfahren auf die Rangzahlen. Solche Tests sind z.B. der Wilcoxon-Test und der Mann-Whitney-Wilcoxon-Test .
nominal Ein qualitatives Merkmal heißt nominal, wenn zwischen seinen Ausprägungen keine natürliche Anordnung besteht (z.B. Geschlecht). ( siehe auch ordinal )
Normalverteilung Die Normalverteilung ist eine stetige Verteilung mit dem Erwartungswert µ und der Varianz 2 als Parameter. Die Dichtefunktion der Normalverteilungist eingipflig, symmetrisch und nähert sich asymptotisch der x-Achse. Eine Normalverteilung entsteht immer dann, wenn sehr viele voneinander unabhängige Abweichungskomponenten additiv aufeinander einwirken. ( siehe auch Zentraler Grenzwertsatz) . Die meisten der parametrischen Tests sind unter Annahme der Normalverteilung entwickelt worden (z.B. t-Test und Varianzanalyse ). ( siehe auch Standardnormalverteilung )
Normbereich (Referenzbereich ) Normwerte sind Richtgrößen zur einfachen Beurteilung von medizinischen Daten (z.B. Laborwerten) meist als Bereich, innerhalb derer sich die Meßwerte eines Merkmals von x% (z.B. 95%) ( siehe auch Quantil ) einer möglichst repräsentativen (Alter, Geschlecht usw.) gesunden Bevölkerungsgruppe befinden. ( siehe auch Somatogramm )
Nullhypothese Die Nullhypothese H0 beim statistischen Test besagt, daß der in der Stichprobe gefundene Effekt auf die zufallsabhängige Streuung zurückzuführen ist und damit in der Grundgesamtheit nicht vorhanden ist. ( siehe auch Alternativhypothese )
Odds Das Verhältnis der Wahrscheinlichkeit p, daß ein Ereignis eintritt, zur Wahrscheinlichkeit 1-p, daß das Ereignis nicht eintritt, nennt man Odds. ( siehe auch Odds Ratio)
Odds Ratio Das Odds Ratio ist das Verhältnis der Odds ,daß ein Ereignis eintritt, in zwei Gruppen. Das Odds Ratio wird meistens im Rahmen von Fall-Kontroll-Studien berechnet und ist dort ein Maß für die Assoziation zwischen Exposition und Erkrankung. Es entspricht dem Relativen Risiko bei Kohortenstudien.
ordinal Ein qualitatives Merkmal heißt ordinal, wenn zwischen seinen Ausprägungen eine natürliche Anordnung besteht (z.B. Schweregrad einer Krankheit). ( siehe auch nominal)
p-Wert (Überschreitungswahrscheinlichkeit) Der p-Wert (Überschreitungswahrscheinlichkeit) gibt beim statistischen Test die Wahrscheinlichkeit an, mit der sich unter der Nullhypothese die gefundenen oder noch extremere Ereignisse einstellen. Ist der p-Wert kleiner als das festgelegte Signifikanzniveau kann die Nullhypothese verworfen werden. Anderenfalls besteht auf dem vorgegebenen Signifikanzniveau kein Widerspruch zur Nullhypothese.
Parameter Analog zu den Maßzahlen charakterisieren Parameter (z.B. Erwartungswert und Varianz) die Grundgesamtheit und die zugrundeliegende Verteilung .
parametrische Tests Parametrisch heißen alle statistischen Tests, die an die Voraussetzung einer bestimmten Verteilung mit entsprechenden Parametern gebunden sind. ( siehe auch nichtparametrische Tests ) Die meisten parametrischen Tests sind unter Annahme der Normalverteilung entwickelt worden (z.B. t-Test und Varianzanalyse).
Poissonverteilung Die Poissonverteilung ist die Verteilung einer diskreten Zufallsvariable, die die Werte 0,1,2,.... nach der Wahrscheinlichkeitsfunktion annimmt. Der Parameter ist gleich dem Erwartungswert und auch gleich der Varianz. Formal ergibt sich die Poissonverteilung als Grenzwert einer Binomialverteilung, wenn n gegen unendlich und n*p gegen die Konstante strebt. Für großes kann man die Poissonverteilung durch die Normalverteilung approximieren.
prädiktiver Wert Der positive prädiktive Wert eines diagnostischen Verfahrens ist die bedingte Wahrscheinlichkeit, daß eine Erkrankung E vorliegt unter der Bedingung, daß der diagnostische Test T positiv ist ( P(E+|T+)). Entsprechend ist der negative prädiktive Wert die bedingte Wahrscheinlichkeit, daß eine Erkrankung E nicht vorliegt unter der Bedingung, daß der diagnostische Test negativ ist (P(E-|T-)). ( siehe auch falsch positiver (falsch negativer) Wert , Sensitivität und Spezifität )
Prävalenz Die Prävalenz einer bestimmten Krankheit ist der Anteil der Personen einer definierten Population, die zu einem bestimmten Zeitpunkt an dieser Krankheit erkrankt sind ( siehe auch Inzidenz)
prospektiv Eine Untersuchung heißt prospektiv, wenn die Datenerhebung begonnen wird, bevor die interessierenden Ereignisse eingetreten sind. Ein Experiment ist immer prospektiv. Eine Erhebung kann prospektiv oder retrospektiv sein.
Prüfgröße Die Prüfgröße eines statistischen Tests ist eine aus den Daten der Stichproben berechnete Kennzahl. Für diese Kennzahl sind bei einem gegebenen Test zur vorgegebenen Irrtumswahrscheinlichkeit Ablehnungsschwellen festgelegt, die den Bereich der möglichen Werte der Prüfgröße in einen Ablehnungs- und einen Annahmebereich der Nullhypothese H0 unterteilen. Die Ablehnungsschwellen werden aus der Verteilung der Teststatistik unter der Bedingung der Gültigkeit von H0 bestimmt.
Punktwolke (Scatterplot) Die Punktwolke dient zur graphischen Veranschaulichung des Zusammenhangs zweier stetiger Merkmale, die an n Beobachtungseinheiten erfaßt wurden. Jede Beobachtungseinheit liefert genau einen Punkt für die Punktwolke. ( siehe auch Korrelation)
qualitativ Ein Merkmal heißt qualitativ, wenn es sich nicht durch messen, wiegen oder zählen zahlenmäßig erfassen läßt ( siehe auch quantitativ), sondern die Ausprägungen nur benannt werden können (z.B. Blutgruppe, Geschlecht). Qualitative Merkmale werden noch in nominale und ordinale Merkmale unterteilt.
Quantil Quantile dienen zur Charakterisierung von Verteilungen bzw. quantitativen Merkmalen . Für jedes beliebige p (0 p 1) bezeichnet man xp als p-Quantil, wenn für die Verteilungsfunktion einer Verteilung bzw. für die empirische Verteilungsfunktion eines stetigen Merkmals F(xp ) = p gilt. Das 0.5 - Quantil ist der Median, das 0.25-Quantil das 1. Quartil und das 0.75-Quantil das 3. Quartil.
quantitativ Ein Merkmal heißt quantitativ, wenn es sich durch Messen, Wägen oder Zählen zahlenmäßig erfassen läßt ( siehe auch qualitativ). Quantitative Merkmale werden noch in diskrete (z.B. Kinderzahl) und stetige Merkmale (z.B. Gewicht) unterteilt.
Quartil Das 0.25- Quantil (1. Quartil), das 0.5-Quantil (2. Quartil- Median) und das 0.75-Quantil (3. Quartil) werden Quartile genannt.
Rangzahlen Sortiert man n Daten, die zu einem quantitativen Merkmal erhoben wurden, der Größe nach und vergibt aufsteigend an die sortierte Datenreihe die natürlichen Zahlen von 1 bis n, so erhält man für jedes Datum eine zugehörige Rangzahl. Bei vielen nichtparametrischen Tests verwendet man nicht die Originaldaten sondern die Rangzahlen.
Regression Als lineare Regression bezeichnet man die vermittels einer linearen Funktion beschriebene Abhängigkeit eines quantitativen Merkmals von einem anderen quantitativen Merkmal. ( siehe auch Korrelation)
Relatives Risiko Das Relative Risiko ist der Quotient der Inzidenzraten unter Exponierten und Nicht-Exponierten. Das Relative Risiko, die Risikodifferenz und die Inzidenzrate sind die in Kohortenstudien verwendeten Risikomaße ( siehe auch Odds Ratio)
retrospektiv Bei einer retrospektiven Erhebung sind die zu analysierenden Daten schon vor Aufstellung des Versuchsplans erfaßt worden. ( siehe auch prospektiv)
Risikodifferenz (Attributables Risiko) Die Risikodifferenz ist die Differenz der Inzidenzraten unter Exponierten und Nicht-Exponierten. Die Risikodifferenz, das Relative Risiko und die Inzidenzrate sind die in Kohortenstudien verwendeten Risikomaße ( siehe auch Odds Ratio)
robust Ein Verfahren der analytischen Statistik heißt robust, wenn es näherungsweise auch bei bestimmten Abweichungen (z.B. Ausreißern) von den Voraussetzungen, unter denen es abgeleitet wurde, gültig ist.
Schätzen Schätzen nennt man in der analytischen Statistik das Bestimmen einer Näherung für ein oder mehrere Charakteristika der Stichprobe . Neben der Angabe eines Schätzwertes für den unbekannten Wert eines Parameters einer Verteilung werden auch Intervalle für den unbekannten Parameterwert geschätzt. ( siehe auch Konfidenzintervall) Wünschenswerte Eigenschaften von Schätzwerten sind Erwartungstreue und Konsistenz.
Selektion Bei der Selektion schränkt man die Grundgesamtheit, für die eine bestimmte Hypothese geprüft werden soll, auf eine Teilgesamtheit von Beobachtungseinheiten ein.
Sensitivität Die bedingte Wahrscheinlichkeit P(T+|E+), daß bei einem Patienten mit einer Erkrankung E ein bestimmter diagnostischer Test T positiv ist, heißt Sensitivität. ( siehe auch Spezifität , prädiktiver Wert und falsch positiver (falsch negativer) Wert )
Signifikanzniveau Das Signifikanzniveau ist synonym für die obere Grenze der Irrtumswahrscheinlichkeit eines statistischen Tests.
Somatogramm Das Somatogramm ist eine Kurve mit eingetragenen Normalwerten und Normgrenzen von Körperlänge und -gewicht für Säuglinge und Kinder. Das Somatogramm ist die wichtigste Vergleichsskala zur Beurteilung des normalen bzw. anomalen Gedeihens.
Spannweite Bei quantitativen Merkmalen ist die Spannweite die Differenz zwischen dem maximalen Wert und dem minimalen Wert.
Spezifität Die bedingte Wahrscheinlichkeit P(T-|E-) , daß bei einem Patienten, der eine Erkrankung E nicht hat, ein bestimmter diagnostischer Test T negativ ist, heißt Spezifität. ( siehe auch Sensitivität , prädiktiver Wert und falsch positiver (falsch negativer) Wert )
Stabdiagramm Das Stabdiagramm ist eine graphische Darstellung der absoluten bzw. relativen Häufigkeiten diskreter Merkmale. Der relativen bzw. absoluten Häufigkeit für eine Merkmalsausprägung entspricht beim Stabdiagramm die Länge des zugehörigen Stabes. Das Stabdiagramm entspricht dem bei qualitativen Merkmalen verwendeten Blockdiagramm.
Standardabweichung Die Standardabweichung ist die Quadratwurzel aus der Varianz .
Standardfehler Der Standardfehler des Mittelwertes ist die Standardabweichung dividiert durch die Quadratwurzel des Stichprobenumfangs n.
Standardisierung Besitzt eine stetige Zufallsvariable X den Erwartungswert µ und die Varianz 2 , dann kann man durch die Standardisierung Z = (X - µ)/ eine Zufallsvariable Z erzeugen, deren Erwartungswert gleich 0 und deren Varianz gleich 1 ist. Diese Eigenschaft nutzt man um Normalverteilungen mit beliebigen Parametern µ und in Standardnormalverteilungen zu transformieren.
Standardnormalverteilung Eine Normalverteilung mit Erwartungswert µ=0 und der Varianz 2 heißt Standardnormalverteilung. Durch eine Standardisierung kann jede beliebige Normalverteilung in eine Standardnormalverteilung transformiert werden.
Statistischer Test Ein statistischer Test liefert nach bestimmten Regeln eine Entscheidung darüber, ob eine vorgegebene Hypothese über die zu untersuchende Grundgesamtheit anhand von Daten aus einer Stichprobe verworfen werden muß oder nicht verworfen werden kann. Man formuliert eine Ausgangshypothese als Nullhypothese H0 und stellt ihr als Gegenhypothese die Alternativhypothese H1 gegenüber. Dann gibt man das Signifikanzniveau klein vor und fordert, daß die Wahrscheinlichkeit des Verwerfens der Nullhypothese, obwohl sie richtig ist, nicht größer als ist ( siehe auch Fehler 1. Art). Damit ist der statistische Test formuliert. Aufgrund einer Prüfgröße wird dann die Nullhypothese beibehalten oder zugunsten der Alternativhypothese verworfen. Die Beibehaltung der Nullhypothese kann im allgemeinen nicht als Beweis der Gültigkeit dieser Hypothese interpretiert werden, es sei denn, daß im Versuchsplan der Stichprobenumfang unter Berücksichtigung des Fehlers 2. Art geeignet bestimmt wurde. ( siehe auch parametrische und nichtparametrische Tests , Einstichprobentests, Zweistichprobentests , Mehrstichprobentests )
stetig Ein quantitatives Merkmal heißt stetig, wenn das Merkmal alle Werte aus einem Intervall annehmen kann. ( siehe auch diskret)
Stichprobe Die Stichprobe ist die Menge der Beobachtungseinheiten , die in einer Untersuchung tatsächlich beobachtet werden. ( siehe auch Grundgesamtheit )
Stichprobenumfang Der Stichprobenumfang ist die Anzahl der zu einer Stichprobe gehörenden Elemente. Die Festlegung des Stichprobenumfangs erfolgt im allgemeinen im Versuchsplan für eine Erhebung oder ein Experiment. Neben der Art des Merkmals und des verwendeten statistischen Tests wird der Stichprobenumfang im wesentlichen noch durch die Größe des Fehlers 1. und 2. Art , die Streuung der Ergebnisse und die Größe des Effekts in der Untersuchung beeinflußt.
Störgröße Störgrößen sind Einflußgrößen , die im Versuchsplan nicht berücksichtigt werden und auch nicht erfaßt werden.(siehe auch Faktor) Die zufällige Zuteilung ist eine wirksame Methode, um in Experimenten , die meist nicht bekannten Störgrößen gleichmäßig auf verschiedene Untersuchungsgruppen zu verteilen.
Streuungsmaße Streuungsmaße sind Maßzahlen zur Charakterisierung der Variabilität empirisch gewonnener Daten von quantitativen Merkmalen . Die am häufigsten benutzten Maßzahlen sind die Varianz , die Standardabweichung , die Spannweite und der Interquartilsabstand. ( siehe auch deskriptive Statistik )
Strukturgleichheit Strukturgleichheit liegt dann vor, wenn Störgrößen und Einflußgrößen in verschiedenen Patientengruppen gleiche Verteilungen aufweisen. Die Blockbildung und die zufällige Zuteilung sind wirksame Methoden zur Erlangung der Strukturgleichheit
systematischer Fehler Im Gegensatz zu zufälligen Fehlern sind systematische Fehler solche Fehler, die sich im Mittel nicht aufheben und damit auf nichtzufällige, systematische Einflüsse zurückzuführen sind. Liegen systematische Fehler vor, treten Verzerrungen (Bias) auf.
t -Test Allgemein bezeichnet man mit t-Test verschiedene statistische Tests , deren Teststatistik einer t-Verteilung folgt. Die t-Tests gehören zu den parametrischen Tests , da sie voraussetzen, daß die untersuchten Daten einer Normalverteilung folgen. Einen t-Test gibt es als Einstichprobentest und als Zweistichprobentest für verbundene ( siehe auch Wilcoxon-Test ) und unverbundene Stichproben ( siehe auch Mann-Whitney-Wilcoxon-Test ). Die Varianzanalyse ist die Verallgemeinerung des t-Tests auf mehr als zwei Stichproben ( siehe auch Mehrstichprobentests ).
t-Verteilung Die t-Verteilung ist eine Verteilung , die man aus einer Transformation von n unabhängigen normalverteilten Zufallsvariablen ableiten kann. Die t-Verteilung ist symmetrisch zu Null. Der Erwartungswert ist Null und die Varianz ist (n-1)/(n-3). Mit wachsendem n nähert sich die Dichtefunktion der t-Verteilung immer mehr der Dichtefunktion der Standardnormalverteilung . Die Teststatistik eines t-Tests ist t-verteilt.
Überlebenszeiten Überlebenszeiten werden häufig zur Beurteilung der Wirksamkeit therapeutischer Maßnahmen herangezogen. In diesem Zusammenhang versteht man unter einer Überlebenszeit nicht nur die Zeit bis zum Tod, sondern allgemein die Zeitspanne von einem festgesetzten Anfangsdatum (z.B. Diagnose) bis zum Eintritt eines bestimmten Endereignisses (z.B. Tod, Remission, Rezidiv). Ein typisches Problem bei Daten dieser Art sind die unvollständigen Angaben, die sich ergeben, wenn für eine Beobachtungseinheit noch kein Endereignis beobachtet werden konnte ( siehe auch zensierte Daten ). Die Schätzung der Überlebensrate aus den beobachteten Überlebenszeiten und die graphische Darstellung als Kurve erfolgt mit Hilfe der Kaplan-Meier-Schätzung . Der Vergleich zweier Überlebenskurven erfolgt mit dem Logrank-Test.
unabhängige Ereignisse Zwei Ereignisse A und B sind voneinander unabhängig, wenn die Wahrscheinlichkeit für das Auftreten irgendeines dieser Ereignisse nicht vom Eintreten des anderen Ereignisses abhängt. Daraus ergibt sich, daß die Wahrscheinlichkeit P(AB) dafür, daß beide Ereignisse zusammen auftreten, gleich dem Produkt der Wahrscheinlichkeiten für die Einzelereignisse ist: P(AB)= P(A) · P(B).
unverbundene Stichprobe Zwei Stichproben heißen unverbunden, wenn sowohl die Daten innerhalb einer Stichprobe als auch die Daten aus beiden Stichproben zusammen unabhängig voneinander sind. ( siehe auch verbundene Stichprobe )
Varianz Die Varianz 2 einer Zufallsvariablen X ist gleich dem Erwartungswert ihrer quadratischen Abweichung vom Erwartungswert µ: 2 = E ( X- µ ) 2. Die Varianz s2 bei empirischen Daten von quantitativen Merkmalen ist die mittlere quadratische Abweichung der Einzelwerte vom Mittelwert und beträgt s2 = ( xi - )2 / (n-1). Die Varianz ist ein Streuungsmaß . ( siehe auch Standardabweichung)
Varianzanalyse Die Varianzanalysen sind parametrische Mehrstichprobentests . Sie sind Verallgemeinerungen und Erweiterungen der t-Tests .
Venn-Diagramm Das Venn-Diagramm dient zur graphischen Darstellung von Mengen und Mengenoperationen .
verbundene Stichprobe Zwei Stichproben heißen verbunden , wenn es zu jedem Datum aus der einen Stichprobe genau ein Datum aus der anderen Stichprobe gibt, mit dem es inhaltlich ein Paar bildet. ( siehe auch unverbundene Stichprobe )
Vereinigungsmenge Die Vereinigungsmenge zweier Mengen A und B AB besteht aus allen Elementen, die entweder in A oder in B enthalten sind. (siehe auch Durchschnittsmenge und Komplementmenge)
Versuchsplan Um zu statistisch auswertbaren Daten zu gelangen, um eine vorgegebene Fragestellung zu beantworten, müssen Untersuchungen in der Medizin mit einem ausführlichen Prüfplan vorstrukturiert werden. Der Versuchsplan enthält u.a. die Fragestellung, die Charakterisierung von Stichprobe und Grundgesamtheit, die Festlegung von Zielgrößen, Einflußgrößen und Identifikationsgrößen, die Kalkulation des Stichprobenumfangs, die Auswahl von geeigneten statistischen Tests.
Verteilung Unter der Verteilung einer Zufallsvariablen versteht man die Gesetzmäßigkeit, nach der diese Zufallsvariable ihre Werte annimmt. Die Verteilung bestimmt die Wahrscheinlichkeiten aller mit der Zufallsvariablen zusammenhängenden Ereignisse. Die Charakterisierung der Verteilung erfolgt bei diskreten Zufallsvariablen (z.B. Binomialverteilung) durch die Wahrscheinlichkeitsfunktion bzw. Verteilungsfunktion und bei stetigen Zufallsvariablen (z.B. Normalverteilung) durch die Dichtefunktion bzw. Verteilungsfunktion sowie durch Parameter .
Verteilungsfunktion Der Wert der Verteilungsfunktion F(x) an einem Punkt x gibt die Wahrscheinlichkeit an, daß der Wert der Zufallsvariablen X kleiner oder gleich x ausfällt: F(x) = P (X x ) . (siehe auch empirische Verteilungsfunktion)
Vierfeldertafel Die Vierfeldertafel ist eine Kontingenztafel für zwei qualitative Merkmale mit jeweils zwei Ausprägungen.
Vorzeichentest Der Vorzeichentest ist ein nichtparametrischer Test für zwei verbundene Stichproben von quantitativen Merkmalen . Die Prüfgröße ist die Anzahl der positiven bzw. negativen Differenzen der Paare der verbundenen Stichprobe. Die Teststatistik folgt einer Binomialverteilung.
Wahrscheinlichkeit Der Begriff der Wahrscheinlichkeit ist aus Beobachtung und Erfahrung entstanden. Tritt bei n-maliger Durchführung eines Zufallsexperimentes ein bestimmtes Ereignis A k-mal auf, so bezeichnet man die in langen Versuchsreihen zu beobachtende oder zu erwartende relative Häufigkeits k/n als Wahrscheinlichkeit P(A) . Wegen der Schwierigkeiten, die für eine direkte mathematische Beschreibung dieses Sachverhaltes auftreten, hat man die Wahrscheinlichkeit axiomatisch definiert. ( Axiome von Kolmogoroff )
Wahrscheinlichkeitsfunktion Bei diskreten Verteilungen ist die Wahrscheinlichkeitsfunktion diejenige Funktion, die die Wahrscheinlichkeiten der einzelnen möglichen Werte der Zufallsvariablen angibt.
Wilcoxon-Test Der Wilcoxon-Test ist ein nichtparametrischer Test zum Vergleich zweier verbundener Stichproben quantitativer Merkmale . Die Prüfgröße des Tests wird aus den Rangzahlen der Differenzen der Stichprobenwerte berechnet. Der analoge parametrische Test ist der t-Test für verbundene Stichproben.
zensierte Daten Eine Überlebenszeit heißt zensiert , wenn das interessierende Ereignis (z.B. Tod) noch nicht eingetreten ist oder aus anderen Gründen (z.B. nichtvorhandene Information) nicht mehr festgestellt werden kann.
zentraler Grenzwertsatz Der mit multiplizierte Mittelwert von n unabhängigen Zufallsvariablen einer beliebigen Verteilung mit gleichem Erwartungswert 0 und gleicher Varianz 2 nähert sich mit wachsendem n einer Normalverteilung mit dem Erwartungswert 0 und der Varianz 2 .
Zielgrößen Die Merkmale , deren Verteilung in der Grundgesamtheit Gegenstand einer Erhebung oder eines Experimentes ist, heißen Zielgrößen. ( siehe auch Einflußgrößen )
zufälliger Fehler Als zufälligen Fehler bezeichnet man in statistischen Modellen die zufällige Abweichung vom Erwartungswert, die keinem keinem der Faktoren eines Versuches zugeordnet wird. ( siehe auch systematischer Fehler )
zufällige Zuteilung (Randomisation) Die zufällige Zuteilung ist eine wirksame Methode, um in Experimenten die meist nicht bekannten Störgrößen gleichmäßig auf verschiedene Untersuchungsgruppen zu verteilen. Die Randomisation ist das wirksamste Instrument zur Erlangung der Strukturgleichheit. Die Art und Weise der Randomisation muß im Versuchsplan festgelegt werden. ( siehe auch Blockbildung )
Zufallsexperiment Die Methoden der Wahrscheinlichkeitsrechnung können nur dann sinnvoll angewendet werden, wenn ein sogenanntes Zufallsexperiment vorliegt, d.h. ein Experiment, das unter gleichen Bedingungen zumindest im Prinzip beliebig oft wiederholt werden kann und das trotz gleicher Bedingungen unterschiedliche Ergebnisse haben kann.
Zufallsvariable Eine Zufallsvariable ist eine solche Variable, die ihre Werte in Abhängigkeit vom Zufall d.h. mit einer gewissen Wahrscheinlichkeit annimmt. Die Wahrscheinlichkeiten und damit die Zufallsvariable können oft durch eine Verteilung eindeutig charakterisiert werden. Man unterscheidet diskrete und stetige Zufallsvariable . Man benutzt Zufallsvariable u.a. zur Entscheidung beim statistischen Test . Solche Zufallsvariablen heißen Teststatistik. Den Wert, den sie im konkreten Fall annimmt, nennt man Prüfgröße .
zweiseitige Alternative Eine zweiseitige Alternativhypothese wird dann formuliert, wenn ein zu testender Effekt in beide Richtungen möglich ist. Bei statistischen Tests in der Medizin wird meistens eine zweiseitige Alternative formuliert. ( siehe auch einseitige Alternative )
Zweistichprobentests Zweistichprobentests sind statistische Tests für zwei Stichproben (z.B. Wilcoxon-Test ). ( siehe auch Einstichprobentests und Mehrstichprobentests ).