diff --git a/mathe/abi/Stochastik.html b/mathe/abi/Stochastik.html index 28a685a..73744d7 100644 --- a/mathe/abi/Stochastik.html +++ b/mathe/abi/Stochastik.html @@ -97,7 +97,7 @@ n = log_q(1 - y)
Zweiseitiger Hypothesentest für H_0: p = 0,5, Ablehnungsbereich rot, Annahmebereich grau
-Ist die Laplace-Bedingung nicht erfüllt, müssen die Annahme- und Ablehnungsbereiche ohne die Sigmaregeln bestimmt werden. Dies ist bspw. mit nsolve
im GTR möglich:
Für linksseitigen Ablehnungsbereich der Größe 10\% = 0.1 mit n = 42 und p = 0,69: nsolve(binomcdf(42, 0.69, 0, x) = 0.1, x, 0, 42)
.
Bsp.: Zweiseitiger Hypothesentest für H_0: p = 0,5, Ablehnungsbereich rot, Annahmebereich grau
+Ist die Laplace-Bedingung nicht erfüllt, müssen die Annahme- und Ablehnungsbereiche ohne die Sigmaregeln bestimmt werden. Dies ist bspw. mit nSolve
im GTR möglich:
Für linksseitigen Ablehnungsbereich der Größe 10\% = 0,1 mit n = 42 und p = 0,69: nSolve(binomCdf(42, 0.69, 0, x) = 0.1, x, 0, 42)
.
Zusätzliche Überlegung im Anwendungskontext: Folgenschwerster Fehler soll der Fehler 1. Art sein, da dessen Wahrscheinlichkeit begrenzt werden kann.
Bspw.: Die Nebenwirkungen eines Medikaments sollen weniger wahrscheinlich sein als ein bestimmtes p. Die Wahrscheinlichkeit zu gering anzugeben, wäre hier der folgenschwerste Fehler. Damit dies der Fehler 1. Art (fälschliches Ablehnen der Nullhypothese) ist, muss die Nullhypothese lauten, dass die Wahrscheinlichkeit größer als eine vermutete obere Grenze ist. Verwirft man dann die Nullhypothese, bietet einem das Signifikanzniveau eine relative hohe Sicherheitswahrscheinlichkeit für die Gültigkeit der Alternativhypothese, nämlich dass die Wahrscheinlichkeit für Nebenwirkungen unter der oberen Grenze liegt.
Können alle Werte in einem reellen Intervall angenommen werden - existiert also zwischen zwei möglichen Werten immer ein weiterer - so spricht man von einer stetigen Zufallgröße.
-Demzufolge ist die Wahrscheinlichkeit für genau einen Wert geht gegen 0: Unter unendlich vielen möglichen anderen Werten ist es unendlich unwahrscheinlich, dass genau dieser Wert angenommen wird.
+Demzufolge geht die Wahrscheinlichkeit für genau einen Wert gegen 0: Unter unendlich vielen möglichen anderen Werten ist es unendlich unwahrscheinlich, dass genau dieser Wert angenommen wird.
Es ist nur sinnvoll, die Wahrscheinlichkeit dafür anzugeben, dass die stetige Zufallsgröße in einem gewissen Bereich [a; b] liegt.
Eine Dichtefunktion gibt - ähnlich wie ein Histogramm - für einen Wert x die Wahrscheinlichkeitsdichte an; anders als beim Histogramm sind die Klassen hier allerdings “unendlich klein”.
Für eine solche Dichtefunktion f gilt:
@@ -154,8 +154,9 @@ die Standardabweichung als \sigma = \Ist die Laplace-Bedingung \sigma > 3 erfüllt, so lässt sich eine Binomialverteilung mit einer Normalverteilung approximieren (und umgekehrt):
Dass letztere Annäherung gilt, ist eine spezielle Eigenschaft der Normalverteilung und gilt im Allgemeinen nicht für Wahrscheinlichkeitsdichtefunktionen.
Die nötige Verschiebung der Intervallgrenzen um 0,5 (um in der “Mitte der Balken” anzusetzen) nennt man Stetigkeitskorrektur.
Die Binomialverteilung (auf Schule) darf dennoch nicht mit der Normalverteilung verwechselt werden: Erstere ist eine Verteilung einer diskreten Zufallsgröße und kann also nur ganzzahlige Werte annehmen - letztere ist eine Verteilung einer stetigen Zufallsgröße und kann also beliebige reelle Zahlen als Werte annehmen.
Veranschaulichung der Qualität der Näherungsformeln
@@ -262,8 +263,8 @@ die Standardabweichung als \sigma = \min
: Min. Anzahl Erfolge (inklusive)max
: Max. Anzahl Erfolge (inklusive), optionalmin
& max
sind nicht mehr zwingend ganzzahlignormPdf(x, μ, σ)
normCdf(min, max, μ, σ)
; min
& max
sind nicht mehr zwingend ganzzahligÄltere Modelle scheinen unendliche Intervallgrenzen bei normCdf
nicht zu akzeptieren (Fehlermeldung erwähnt CAS). Hier sollten stattdessen beinahe unendlich kleine bzw. große Werte verwendet werden (\plusmn9e999).