beweise zur einführung in die statistik - uni...
TRANSCRIPT
![Page 1: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/1.jpg)
Beweise zur
Einführung in die Statistik von
Gerhard Osius
Zu zeigen ist
(ii) P0wd*(el) 5 P0wd(el> bzw.
E(+ d*(x) 1 a E(+ 4x1 1 bzw.
0 a Eg1id(X) -d*(X) }
Nun ist Egli d(X) - d*(X) } = [d(x) - d*(x)] . fl(x) u(dx)
= S [d(x) - d*(x)l . fl(x) 4 d x ) + Cl S [d(x) - d*(x)l . fl(x) u(dx) .
Co Wir schätzen die Integrale über C und C einzeln ab.
1 0
August 2006 Institut für Statistik
Fachbereich MathematikIInformatik Universität Bremen
![Page 2: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/2.jpg)
Beweise zu: Einführung in die Statistik 2.8.06 V - 1
Vorwort Nachdem das Skript Einführung in die Statistik bereits seit mehreren Jahren vor- liegt, liegen die dort bewußt nicht aufgenommenen Beweise hier erstmals in digita- ler For,m vor. Es handelt sich hierbei jedoch um eine unvollständige Beta-Version, d.h ich habe die Beweise in dieser Form noch nicht im Kurs vorgetragen (weshalb sicher einige Druckfehler bisher nicht entdeckt wurden) und für einige Kapitel feh- len die Beweise noch.
Die vorliegenden Beweise sind so aufgeführt, wie ich sie in der Vorlesung an der Tafel vorgetragen werde (damit die Studierenden nicht mitschreiben müssen und sich auf die Inhalte konzentrieren können). Demzufolge sind die Beweise auch nicht besonders platzsparend sondern eher übersichtlicher dargestellt. Der Begleittext der Beweise ist dagegen extrem kurz gefaßt und besteht oft nur aus Querverweisen oder Stichworten.
Einige Beweise fehlen hier, entweder weil sie den hier vorgesehenen Rahmen spren- gen würden (was bereits im Skript vermerkt ist) oder weil sie als Übungsaufgaben vorgesehen sind.
Bremen, im August 2006 Gerhard Osius
![Page 3: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/3.jpg)
Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1
Inhalt (Seiten pro Kapitel) Kapitel - Seite
Für die hier nicht aufgeführten Abschnitte sind keine Beweise erforderlich.
I. Schätzungen
Schätzen des Erwartungswertes (I>
Schätzen der Varianz 2.1 Schätzung der Varianz bei bekanntem Erwartungswert
(7) 2 - 1
2.2 Schätzung der Varianz bei unbekanntem Erwartungswert 2 - 1
Konfidenzgrenzen für den Erwartungswert (I>
Konfidenzgrenzen für eine Wahrscheinlichkeit 4.1 Konstruktion der exakten oberen Konfidenzgrenze
(11) 4 - 1
4.2 Konstruktion der exakten unteren Konfidenzgrenze 4 - 3 4.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls 4 - 4 4.4 Berechnung der exakten Grenzen 4 - 5 4.5 Asymptotische (approximative) Konfidenzgrenzen 4 - 7 4.6 Grobe asymptotische (approximative) Konfidenzgrenzen 4 - 11
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 5.1 Konstruktion der exakten oberen Konfidenzgrenze
(8) 5 - 1
5.2 Konstruktion der exakten unteren Konfidenzgrenze 5 - 3 5.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls 5 - 4 5.4 Berechnung der exakten Grenzen 5 - 5 5.5 Asymptotische (approximative) Konfidenzgrenzen 5 - 6 Konfidenzgrenzen im Normal-Verteilungsmodell 6.1 Verteilung der Varianzschätzung
(7) 6 - 1
6.2 Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz im Normalverteilungsmodell 6 - 4
6.3 Asymptotische Konfidenzgrenzen für den Erwartungswert bei
geschätzter Varianz in beliebigen Verteilungsmodellen 6 - 5 6.4 Konfidenzgrenzen für die Varianz 6 - 7
Schätzen einer Verteilungsfunktion 7.1 Die empirische Verteilung der Stichprobe
(2) 7 - 1
7.2 Eigenschaften der empirischen Verteilung 7 - 2 Schätzen von Quantilen und Momenten 8.1 Schätzen des Medians
(6) 8 - 1
8.2 Schätzen eines Quantils 8 - 2 8.3 Schätzen von Momenten 8 - 6
![Page 4: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/4.jpg)
Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 2
9. Parametrische Modelle und Exponential-Familien (5> 9.2 Parametrische Exponential-Familien 9 - 1 9.3 Binomial-Verteilung 9 - 3 9.5 Normal-Verteilung 9 - 4 9.6 Gamma-Verteilung 9 - 5
10. Maximum-Likelihood Schätzung von Parametern (3> 10.5 Schätzung in einparametrigen Exponential-Familien bei unabhängigen
Wiederholungen 10 - 1
11. Asymptotische Eigenschaften des ML-Schätzers * (fehlt noch) (I>
12. Die Ungleichung von Cramer-Rao und effiziente Schätzer * (fehlt noch) (I> 13 Momente-Schätzung * (I>
* Diese Kapitel werden irn Teil I1 nicht vorausgesetzt
11. Tests
14. Testen von Hypothesen (I> 14.1 Einseitiger (oberer) Gauß-Test 1
15. Likelihood-Quotienten-Tests (5> 15.1 Schärfste Tests und Neymann-Pearson Lemma 1 15.3 Einparametrige Exponential-Familie 4
16. Testen eines Erwartungswertes (I2) 16.1 Einseitiger (oberer) t-Test von Student im Normal-Verteilungsmodell 1 16.2 Dualer einseitiger (unterer) t-Test von Student
im Normal-Verteilungsmodell 6 16.3 Zweiseitiger t-Test von Student im Normal-Verteilungsmodell 6 16.4 Asymptotische Eigenschaften des t-Tests
(bei beliebiger Verteilung) 7 16.5 Schärfe-Approximation des t-Tests bei beliebiger Verteilung 8 16.6 Versuchsplanung beim t-Tests 9
17. Testen einer Wahrscheinlichkeit 17.1 Einseitiger oberer Test einer Wahrscheinlichkeit
(7) 17 - 1
17.1.1 Exakter Test zum nominellen Niveau 17 - 1 17.1.2 Randomisierter Test 17 - 2 17.1.3 Asymptotischer Gauß-Test 17 - 3
17.4 Approximation der Testschärfe und Versuchsplanung für den asymptotischen Test 17 - 5
18. Likelihood-Quotienten Tests (I> 18.1 Allgemeiner Likelihood-Quotienten Test 18 - 1
19. Vergleich von zwei Erwartungswerten bei Normalverteilungen mit gleichen Varianzen @I 19.2 Der zweiseitige t-Test als Likelihood-Quotienten-Test 19 - 1 19.4 Konfidenzgrenzen für die Differenz der Erwartungswerte 19 - 6
![Page 5: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/5.jpg)
Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 3
20. Vergleich von zwei Erwartungswerten bei beliebigen Verteilungen 20.1 Herleitung einer Teststatistik 20.2 Asymptotische Verteilung der Teststatistik 20.4 Schärfe-Approximation für den einseitigen Tests 20.5 Versuchsplanung für den einseitigen Test 20.6 Zweiseitiger Test: Schärfe und Versuchsplanung 20.7 Konfidenzgrenzen für die Differenz der Erwartungswerte
21 Vergleich von zwei Wahrscheinlichkeiten 21.2 Herleitung einer Teststatistik 21.3 Asymptotische Verteilung der Teststatistik 21.5 Schärfe-Approximation für den einseitigen Tests 21.6 Versuchsplanung für den einseitigen Test 21.7 Zweiseitiger Tests: Schärfe und Versuchplanung 21.8 Konfidenzgrenzen für die Differenz der Wahrscheinlichkeiten
22. Anpassungstests bei Multinomialverteilungen (fehlt noch)
23. Chiquadrat-Anpassungstests für Verteilungen (fehlt noch)
![Page 6: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/6.jpg)
Beweise zu: 1. Schätzen des Erwartungswertes 2.8.06 B I - 1
Beweise zu 1. Schätzen des Erwartungswertes
Die Resultate sind bereits aus der Stochastik bekannt und werden hier
nicht erneut bewiesen.
![Page 7: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/7.jpg)
Beweise zu: 2. Schätzen der Varianz 3.8.06 B 2 - 1
Beweise zu 2. Schätzen der Varianz
2.1 Schätzung der Varianz bei bekanntem Erwartungswert
Beweis von
(1) 2 E(Y) = Var(X) = a , 4 Var(Y) = ,LL - a .
4
Es ist 4 Var(Y) = E {y2} - E { Y } ~ = ,LL - a . 4
2.2 Schätzung der Varianz bei unbekanntem Erwartungswert
Beweis von
(2) - 2 SXX : = C (Xi- X) = C X2 - (EX .)2 = x T A x ,
2 i z n i z
wobei die nxn Matrix A = (U. .) gegeben ist durch: 2 3
(3) 1
U . . = 6. (6 ist das Kronecker-Symbol). 2 3 2 3 n
- 2 Esis t C(Xi-X) = C ( X 2 - 2 X X . + X 2 ) 2 2 2
C C S..X.X.-' C C X . X . i j 2 1 2 1 n i j 2 1
![Page 8: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/8.jpg)
Beweise zu: 2. Schätzen der Varianz 3.8.06 B 2 - 2
Beweis von
- 2 ES ist C (X.- X) = C X ~ - nX2 2 i
2 2 = C x 2 - 2 a ( C X i ) + n a - [ n X 2 - 2 a n X + n a ]
i 2
Beweis von
(5) E ( 8 2 ( ~ ) ) = a 2 (erwartungstreu) .
1. Beweis (direkt):
Es ist E{SXX) = E{C (X.- , L L ) ~ - n (X- ,LL)~} vgl. (4) für a = ,LL i
= C E { ( x ~ - ~ ) ~ ) - .E{(X-,LL)~) 2
2 = n a - nvar (X)
- - 2 2 n a - a vgl. 1.1 (2).
2. Beweis (mit Theorem): vgl. Beweis von (6).
![Page 9: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/9.jpg)
Beweise zu: 2. Schätzen der Varianz 3.8.06 B 2 - 3
Beweis von
(6) 2 1 n - 3 4
v a r ( 8 (X)) = ( , L L ~ - ~ ~ )
Das Theorems soll angewandt werden auf U. = X .- ,LL für i = 1, ..., n. 2 2
- - Wegen U = X-,LL
ist - 2 - 2 suu = C (Uz-U) = C (X.-X) = sxx, 2 i
also SUU = U ~ A U nach (2) mit U statt Xund A aus (3).
Das 2. und 4. zentrale Moment von U. ergeben sich zu 2
2 m 2 = E{U" 2 = E{(x~-,LL)~} = D ,
m 4 = E{u4} z = E{(x,-P)4} = p4.
Für die Matrix A = (a. .) aus (3) ergibt sich 23
1 Spur(A) = C a . . = C (S..--) = n-1 . 22 22 n
Ferner ist A idempotent
A A = A (Beweis: elemetar ausrechnen!),
also Spur(AA) = Spur(A) = n - 1.
Aus dem Theorem ergibt sich daher
(2) E { U ~ A U } = (n- l )o 2 als 2. Beweis für (5),
(ii) 2 4 4 v a r { u T A u } = (Caii) . ( , L L , - ~ D ) + 2(n-1)o .
2
Mit 2 1 2 1 2 1 C a . . = C (1--) = n(1--) =-(n-1) 2 i 2 2 2 n n n
folgt v a r { u T ~ U } = '(n- n 1). [ , L L ~ ( ~ - 1) - 04(3(n- 1) - 2n)]
- Wegen 82 - 1 1 T -SXX = - U A U n - 1 n - 1
folgt 2 1 2 T 1 n - 3 4 Var(8 ) = [-I .Var(U A U ) = j - [ , ~ ~ ~ - ~ o I. n - 1
![Page 10: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/10.jpg)
Beweise zu: 2. Schätzen der Var ianz 3.8.06 B 2 - 4
Beweis von
Theorem: Erwartungswert und Varianz quadratischer Formen
U = (U Un) sei ein Vektor unabhängiger identisch verteilter Zufallsvariablen 1' ...' U . U mit Erwartungswert E ( U . ) = 0 und exisitierenden Momenten n z
k mk = E ( U ) < co 2
ü r l < k < 4 . f - -
Für eine symmetrische n x n Matrix A = ( U . .) hat die quadratische Form 2 3
T U AU = C C a . . U . U . i j 2 - 1 2 - 1
den Erwartungswert und die Varianz
(a) T E (U A U ) = S p u r ( A ) . m 2
(Y T 2 V a r ( U A U ) = ( C a 2 . ) . ( m 4 - 3 m ; ) i z z + 2 S p u r ( A A ) . m 2 .
ad (U):
Für i s j sind U . und U . unabhängig und somi t 2 3
E{U.U.) = E{U.) . E{U.} = 0 . 2 3 2 3
E s f o l g t E { c C ~ . . U . U . } = C C a . . E { U . U . } i j 3 2 J i j 3 2 J
= C ~ . . E { U ~ } i 22 2
= C a . . m i 22 2
= S p u r ( A ) . m2
ad (b):
W e g e n ( 2 ) v a r ( u T ~ U ) = E { ( u ~ A U ) 2 } - E { U ~ A U }
- - . . . . . . . . . . . . . - pur(^) . m2I2 nach (a)
ist noch z u berechnen
![Page 11: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/11.jpg)
Beweise zu: 2. Schätzen der Var ia nz 3.8.06 B 2 - 5
= C C C C a 2 j a k l E ( U . U . U k U 1 ) . i j k l 2 1
Zur Bes t immung v o n E ( U . U . Uk U 1 ) unterschieden wir mehrere Fälle: 2 1
2 2 i = j t k = l : E ( U . U . U k U 1 ) = E ( U . U k ) 2 1 2
= E ( u L ) 2 . ~ ( 1 1 2 )
= m . m = m 2 2 2 2 '
2 i = k t j = l : E ( U . U . U k U 1 ) = m2 2 1
2 i = l t j = k : E ( U . U . U k U 1 ) = m 2 2 1
i 6 { j } : E ( U . U . U k U 1 ) = E ( U : [ U . U U ] ) 2 1 2 J k l
= E ( U . ) . E ( U . U 2 U ) d a U . , [ U . U U l u n a b h ä n g i g 1 k l 2 J k l
2 2 d a Ui , Uk unabhängig
analog.
analog.
j { i , , } : E ( U . U . U k U 1 ) = 0 2 1
k 6 { i , , } : E ( U . U . U k U 1 ) = 0 2 1
1 { i } : E ( U . U . U k U 1 ) = 0 2 1
analog.
analog.
analog.
A l so ist
C C C C a g a k l E ( U . U . U k U 1 ) . = C a . . a . . m + C C a . . a m 2 i j k l 2 1 i 22 22 4 i z k 22 kk 2
U . . d a A symme t r i s ch Y
2 2 = m 4 ( j aii) + m2 [ C Caiiakk + 2 C C U?.] i z k z z ~ 21
W i r f o r m e n d e n Ausdruck [ .... ] weiter um
![Page 12: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/12.jpg)
Beweise zu : 2. S c h ä t z e n der V a r i a n z 3.8.06 B 2 - 6
C ~ a ~ ~ a ~ ~ + 2 C C a2. 2 2 = ~ ~ a ~ ~ a ~ ~ - C a i i + 2 C C a . . - 2 ~ a2. i z k i z j 2-1 i k i i j 2 1 i 2 2
= ~ ~ a ~ ~ a ~ ~ + ~ C C a2. 2 - 3 C a . .
i k i j 2 1 i 2 2
= (C aii)2 + 2 C ( C a . a . . ) - . . . . . . . 2 2 J 2 1 1 2
= pur A ) ~ + 2 C (AA).. - . . . . . . . 2 22
2 = pur A ) ~ + 2 S p u r ( A A ) - 3 C a . . i 2 2
u n d erhal ten
Mi t (i) folgt jetzt (b).
![Page 13: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/13.jpg)
Beweise zu: 2. Schätzen der Varianz 3.8.06 B 2 - 7
Beweis von
(7) P f s 2 82 : = 8 2 ( x ( n ) ) 0 .
n (starke Konsistenz)
(8) 2 &2[8: -a2] - ~ ( 0 , (,LL~ - a4)) (asymptotische Normalität).
- 2 - ES gilt: a - ' [ c(x,-,LL)~ - n ( ~ ( ~ ) - ~ ) ~ ] vgl. (4) für a = ,LL n n-1 i
- - - 2 1 [ n a - . . . . . . . . . . n-1 run I
- - - 2 L[ n-1 a - ( x ( " ) - ~ ) ~ ] run
1 2.1(5) 1 P-fs. 1.1(4) P-f.s. 1 f u r n + c c ..
2 - O ] = a 2 d.h. (7) gilt.
Weiter ergibt sich aus (i):
(ii) a2 a2 = n 2 2 1 a2 - LL ( ~ ( n ) - ~ ) 2 n n-i ("nn-a - - n-1 n-1
- 2 Aus der asymptotischen Normalität 2.1 (6) von a folgt run
und für (8) bleibt (mit Exkurs KV 5) wegen (ii) nur noch zu zeigen
P (iii) 1 ~ n . 2 n-1 + L J ~ ( x ( ~ ) - , L L ) ~ n-1 - 0 .
1 Nun ist - &2 a2 - 0 n-1
und n ~ ; ; ( ~ ( n ) - n-1 P ) 2 = n-1 . J ~ ( x ( ~ ) - , L L ) . (x(~)-,LL)
und somit folgt (iii)
![Page 14: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/14.jpg)
Beweise zu: 3. Konfidenzgrenzen für den Erwartungswert 3.8.06 B 3 - 1
Beweise zu 3. Konfidenzgrenzen für den Erwartungswert
Die Resultate sind bereits aus der Stochastik bekannt und werden hier
nicht erneut bewiesen.
![Page 15: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/15.jpg)
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 1
Beweise zu 4 Konfidenzgrenzen für eine Wahrscheinlichkeit
4.1 Konstruktion der exakten oberen Konfidenzgrenze
Beweis von
oi oi ES ist - ~ ( x l p ) = X - b ( i I n , ~ ) a~ i=O a~
X
= X (7) [ pi-l qn-i i n-i-1
- ( n - i ) ~ q ] mit q = l - p
X-n - - - (T) pXqnpx
4
![Page 16: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/16.jpg)
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 2
Beweis von
(10) F( l Pol ,(X)) = a für X < n,
j (n) = 1 01
für X = n..
Für X < n ist F(x I -): [ O , 11 - [0,1] eine streng fallende, biektive Funktion, und so-
mit gibt es genau einen Wert P ( X ) sodaß (10) gilt. Und dieser Wert stimmt übe- 01 ,
rein mit dem Maximum in
Für x = n ist F(x lp ) 1 und es folgt
Beweis von
(11) P{$ ( 4 5 ~ ) = I P ) 5 awobei Ol
L (a) = Max{l=-1, ..., n l F ( 1 1 p ) i a ) F
Für jede Realisierung X < n ist F ( x I p) ist streng fallend in p nach (3), also gilt
Pol ,(X) 5 P * F(x I P) 5 ~ ( x I P 01 (31))
* ~ ( x I P) 5 a vgl. (10)
(4 Pol ,(X) 5 P U X 5 q.1.
Die Äquivalenz (i) gilt auch für X = n, weil dann wegen
j (n) = 1 und 01
LF(Q) < nach Definition, da F(n 1 p) = 1 < a
beide Seiten in (i) falsch sind. Aus (i) für alle X = 0,1, ..., n folgt dann
p{P01a(4 P } = p{X<LF(a)}
= F(LF(a) 1 P
< a - nach Definition von L (a ) . F
![Page 17: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/17.jpg)
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 3
4.2 Konstruktion der exakten unteren Konfidenzgrenze
Beweis von
(2) G(x 1 p) ist streng wachsend in p für X > 0 ,
Für 0 < X 5 n ist 0 5 X- 1 < n und nach 4.1 (3) ist F(x- 1 1 p) streng fallend in p,
also G(x I p) = 1 - F(x- 1 I p) streng wachsend in p. Und G(0 1 p) = 1 ist trivial.
Beweis von
(4) G(X 1 jul ,(X)) = a bzw. F( X- i 1 für X > O ,
Analog 4.1 (10). Für X > 0 ist G(x 1 - ) : [ O,1] - [ 0,1] eine streng fallende, biektive
Funktion, und somit gibt es genau einen Wert (X) sodaß (4) gilt. Und dieser
Wert stimmt überein mit dem Minimum in
(3) jul,(x) := Min { O S p < l 1 ~ ( x l p ) > a } .
Für X = 0 ist G(xlp) = 1 und es folgt
jo(xla) = Min{O<p<l 1 l > a} = Min [0,1) = 0.
Beweis von
(5) P{~<jul,(X)} = G(LG(a) I P ) 5 wobei
L (a) = Min{l=O, ..., n + l I G(I1p)5a} G
Analog 4.1 (11).
Für jedes X > 0 ist G(x I p) ist streng wachsend in p nach (2), also gilt
![Page 18: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/18.jpg)
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 4
p i & ( x I u ) * G(x I P ) 5 G(x I Pul ,(X))
* G ( x l p ) < a vgl. (4)
( 2 ) p i & ( x I u ) U L G ( 4 < X
Die Äquivalenz (i) gilt aber trivialerweise auch für X = 0, weil dann wegen
(0) = 0 und
LG(u) > CI nach Definition, da G(0 1 P) = 1 > u
beide Seiten in (i) falsch sind. Aus (i) für alle X = 0,1, ..., n folgt dann
= G(LG(u) 1 P )
< - u nach Definition von LG(u).
4.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls
Beweis von
(1) &, a ( ~ ) < jO1 a ( ~ ) für O<x<n.
Für X = 0 ist j ( X ) = 0 , k1 ,(X) > 0 und somit gilt (1). U1
Für X = n ist Pul ,(X) < 1 , 6 ( X ) = 1 und somit gilt (1). Ol
1 Und für 0 < X < n ergibt sich wegen u <
~ ( ~ 1 5 ( x ) ) = a < 1 - a =F(x-115 ( X ) ) vgl. 4.1 ( l O ) , 4.2 (4) 01
< F( I Pul ,(X))
und da F(x 1 p) streng fallend in p ist, folgt die Behauptung.
![Page 19: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/19.jpg)
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 5
4. 4 Berechnung der Grenzen
Beweis von
(0) j ( o ) = I - a 11. , j (n) = a 11. . Ol
Wegen F(O 1 P) = (I - p) n, bzw. G(n I P) = Pn
ist j (0) bzw. k1,(n) die eindeutige Lösung von Ol
(1-p)" = a bzw. p n = a.
Beweis von
(5) &„(X) = 1 - iol ,(Y) mit y =n-X.
Für X = 0 ist: (0) = 0 , 9 (n) = 1 und somit gilt (3). Ol
Fürx>Ois t : a = ~ ( x ~ ~ ~ , ( x ) ) = ~ ( ~ ~ l - j ~ ~ , ( x ) ) und mit 4.1 (10)
folgt
d.h. (5) gilt.
![Page 20: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/20.jpg)
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 6
Beweis von
(7) 1
&,,(X) = 1- (exakte untere Grenze) für 0 < X mit
k a = -.F k = 2 ( n - x + l ) , 1 = 2 x . 1 kl;a'
(8) a
k l a ( ~ ) = 1- (exakte obere Grenze) für X < n mit
k a = -.F k = 2 ( X + I ) , 1 = 2 ( n - X ) , 1 kl;a'
unter Verwendung von
@I P { B ( ~ , ~ ) ~ ) ~ X } = P { F ~ ~ > U } bzw. F ( x I p ) = l - @ k l mit
k = 2 ( x + 1 ) , 1 = 2 ( n - X ) , . P k I - p
ad (B): Die definierende Gleichung 11.1 (10) für P ( X ) läßt sich mit (6) schreiben 0,
1 - ( u ) = Q mit 1 L I U = - . $ I% o,a ( X ) / ( ~ - P ~ , ~ J X ) ) , Also ist U = F kl;a
k undaus a = -.F = k - . U = P (4 / (1 - Po, a(x)) 1 kl;a 1 0, a
folgt a - a P ( X ) = 4, ,(X) und somit 1 I; ( X ) = .(I+.)- . 0, 0,
ad (7): Wir verwenden den Zusammenhang
(5) &„<X) = 1 - Y,, ,(Y) mit
Nach (8) ist Y ( Y ) = a (1 + U)-' für y < n 0,
y = n - X .
mit
und es folgt ( X ) = 1 - Y ( Y ) = 1 - a (1 + U)-' = (1 + U)-' . Ol
![Page 21: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/21.jpg)
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 7
4.5 Approximative (asymptotische) Konfidenzgrenzen
Beweise zu
(9) 2 S(P) : = n(p-T12 - P (1-P) \
2 = ap - b p + c
2 = ~ [ ( P - P , ) - D ] mit
(10) 2 2 2 -2 1 2 a : = n + z > 0 , b : = 2 n T + z = 2 x + z > 0 , c : = n x = - X 2 0 a a a n
(13) Pol ,(X) : = Pm + D (asymptotische obere Grenze),
( X ) := pm - (asymptotische untere Grenze).
(15) 0 a F ( X ) a T a pola(x) a 1 .
(16) 0 = 13 (0) < 13 (0) < 1 , O?
(17) O < P (n) < (n) = I . O?
(18) o < 13 ( X ) < T < 13 ( X ) < I falls O < x < n . O?
Die verschiedenen Darstellungen der in (9)-(12) definierten Größen ergeben sich
durch elementare Umformungen. Wegen or <4 ist z > 0 und hieraus erhält man a die Ungleichungen in (10).
Aus a,b> O +
und 1 2 x + 2 z a < n + 2 * ergibt sich p E (0,l) in (11). Und für die Diskriminante D gilt m
![Page 22: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/22.jpg)
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 8
D > O U a p i > c
U 2 2 1 2 2 b > 4 a c = 4 ( x + ; X L&).
Mit 2 2 2 4 b = ( 2 x + ~ : ) ~ = 42 + 4 x z + L a a
> 4(x2 + x z 2 ) a da zu > 0
1 2 2 > - 4 ( x 2 + - X z ) da l > ' x > 0 n a n
ergibt sich die Ungleichung D > 0 in (12).
Wegen a > 0 hat die Funktion f in p E (0 , l ) ihr Minimum m
( 2 ) f(pm) = - aD < 0,
und besitzt die beiden reellen Nullstellen ( X ) , ( X ) aus (13), (14) mit 0 U
(ii) Pu(.) < P , < P0(x)
Aus
(iii) f(0) = c = n z 2 > 0 , 2 f(1) = n(1-F) > 0
folgt mit (i) und 0 <p < I zunächst, daß beide Nullstellen im Intervall [ O , 11 liegen: m
(24 0 < Pu(x) < Po(x) < 1 .
Im Fall X > 0 ist sogar f(0) > 0 und somit
(4 0 < Pu(x) < Po(x) < 1
Und im Fall X < n ist f(1) > 0 und somit
(V;) 0 < Pu(x) < P 0 ( 4 < 1
Aus
falls X > 0.
falls X < n.
(vii) f (F) = - F ( 1 - F ) z 2 < 0 a -
erhält man weiter
- (viii) P,( X ) - < F - < @,(X).
Im Fall 0 < X < n ist sogar f (F) < 0 und es gilt
(2x1 P U ( 4 < F < P0(4 falls O < x < n .
Mit (iv) und (ix) ist (15) gezeigt. Wir zeigen jetzt (16) - (18).
![Page 23: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/23.jpg)
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 9
1. Fall: X = 0
Dann ist f(0) = 0 und nach (vi) ist PU(0) = 0 und (16) folgt.
2. Fall: X = n
Dann ist f(1) = 0 und nach ( V ) ist (n) = 1 und (17) folgt. 0
3. Fall: 0 < X < 1
Dann folgt (18) aus ( V ) , (vi) und (ix).
Beweise zu
Im Fall X < n ist die obere Grenze P ( X ) die einzige Lösung der approximierte 01
Gleichung (6) im Intervall (0 , l ) . Und im Fall X > 0 ist die untere Grenze
einzige Lösung der approximierte Gleichung (8) im Intervall (0 , l ) .
(6) bzw. &(P - F ) -
4 ~ ) - z,
(8) bzw. &(P - F ) - - -25, .
.(P)
Wegen a(p) > 0 für 0 < p < 1 und z > 0 läßt sich (6) äquivalent schreiben als a - fi (P - F ) = \"(P) U X < p und f(p) = 0.
und hat für X < n wegen (18) und (16) im Intervall ( 0 , l ) die einzige Lösung no(x).
Analog läßt sich (8) läßt sich äquivalent schreiben als
&(p-F) = -z a(p) a U p<F und f (p)=O
und hat für X > 0 wegen (18) und (17) im Intervall ( 0 , l ) die einzige Lösung nu(x).
Beweise von
P < POla(x) U np - X < z a .a(p) J;I .
Zum Nachweis zeigen wir die Äquivalenz der entsprechenden Negationen, wobei wir
ausnutzen daß die Funktion f auf ( 0 , p ) streng fällt und auf (p ,1) streng wächst. m m Dann gilt für 0 < p < 1:
![Page 24: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/24.jpg)
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 1 0
P a P , ~ ~ ( x ) U P a F,? a ( ~ ) und P < - ~ ~ 1 . (15)
U f lp ) > f ( ~ , ~ a(")) = 0 und P - < z
U n ( p - ~ ) ~ > o ~ ( p ) < und P - < z
* J ~ ( ~ - P ) > ~ ( P ) u
* (X - " P ) > D(P) Jn . Damit gilt die erste Äquivalenz in (19), und die zweite folgt analog:
- Ii" (X) a P * 13 (4 a P und X 5 P vgl. (15)
01 01
- U f (P) f ( ~ ~ ~ .(X)) = 0 und x a p
- U n ( p - ~ ) ~ > o ~ ( p ) < und x a p
* J n ( P - Z ) 2 D(P) U
* ("P-") > o(p)\Jn.
Beweise von
(20) P { p < P ( X ) ) = P { n p - X < z . o ( p ) J n ) E I - a , 01 a
( X ) < p ) = P { X - n p < z a . o ( p ) J n ) E 1 - a ,
(21) 72-00 lim P { p < P ( X ) ) = I - a , ( X ) < p ) = 1 - a . ' 1 72-00
Aus (19) und dem Binomial-Grenzwertsatz ergibt sich
P{ P < Po.,(X) 1 = P{ np -X < za . o ( p ) Jn}
Damit sind die ersten Behauptungen in (20), (21) gezeigt und die zweiten erhält
man analog:
![Page 25: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/25.jpg)
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 1 1
4.6 Grobe asyrnptotische (approximative) Konfidenzgrenzen
Beweise zu
(5) - 2 n - 1 0 2 ( j ( x ) ) = I C (Xi- X ) = 7 8 2 ( ~ ) .
2
2 Wegen X . E {O,l} ist X . = X . und somit 2 2 2
' C (x.-q2 = - 1 [cxz2 - + ( C X . ) ~ ] n 2 2 2
1 = - [ E X , - ' ( C X . ) ~ ] 2 n i z
= X [ l - X ]
= 0 2 ( j ( x ) ) .
![Page 26: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/26.jpg)
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 1
Beweise zu 5 Konfidenzgrenzen für den Erwartungswert einer
Poisson-Verteilung
5.1 Konstruktion der exakten oberen Konfidenzgrenze
Beweis von
(3) a - F(xlp) = - P ( X I P ) 0 8~
für X > 0, p>O .
wobei per Definition P(-1 I p) = 0 gesetzt wird. Hieraus ergibt sich
Beweis von
F(xl0) := lim F(xlp) = 1 ru-0
(5) 1 falls X = 0
p(xl0) := lim p(xllu> = P-0 0 falls X > 0
p(x1co) := lim p(xlp) = 0 , F(x1co) := lim F(xlp) = 0 . P+ O0 P+ O0
(5) gilt, weil p(x I p) in p = 0 rechts-stetig ist, und (4)ergibt sich daraus.
Die erste Behauptung in (6) ergibt sich, weil ep für p + co schneller wächst als jede
Potenz px, und die zweite Behauptung folgt aus der ersten.
![Page 27: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/27.jpg)
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 2
Beweis von
(8) F( I f io, ,<X)) = für X > 0 .
Da F(x ( -): ( 0 , CO) - ( 0 , l ) eine streng fallende Bijektion ist, gibt es genau einen
Wert f i ( X ) > 0, sodaß (8) gilt. Weiter folgt 01,
Beweis von
(9) p { f i o l a ( x ) ) < P ) = F(LF(a) ( P ) wobei
LF(a) = M a x { l ~ W ~ l F ( l l p ) < a ) .
Für jedes 6 E N o ist F(6 I P ) ist streng fallend in ,LL nach (3), also gilt
fiol ,(6 5 P F ( ~ I P ) < F ( ~ I ~ ~ Ol ( 6 ) )
* ~ ( 6 l P) < a vgl. (8)
U 6 < LF(Q).
Mit X statt 6 folgt daher
{ o l x ) 5 P = LF(a) 1
= F(LF(a) 1 P )
< a - nach Definition von L F ( a ) .
![Page 28: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/28.jpg)
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 3
5.2 Konstruktion der exakten unteren Konfidenzgrenze
Beweis von
(4) ~ ( x l f i ~ ~ , ( x ) ) = ~ bzw. F(X-II,L für X > O ,
1; (0) =O f ü r x = O .
Für X > 0 ist G(x 1 -): (0, CO) - (0,l) eine streng wachsende Biektion, und somit
gibt es genau einen Wert fi (X) > 0, sodaß (4). Weiter folgt U
Für X = 0 ist G(0 I P) = 12 ci! für alle ,LL > 0. Aus (3) ergibt sich daher
(0) = M i n { p > O I 1 > ~ } = Min[O,oo) = 0. U1 a
Beweis von
(5) P{ P 5 fiulU(x) 1 = G ( L ~ ( Q ) I P) 5 wobei
LG(ci!) = Min{lEW0 I G( l lp)<a} ,
Für jedes 5 E W ist G(k I ,L) ist streng wachsend in ,LL nach (2), also gilt
(2) PS fiul,(k) U ~ ( k l ~ ) a ~ ( k l f i
* G(k l P) a a vgl. (4)
U LG(Q) a k
Diese Äquivalenz gilt aber trivialerweise auch für k = 0, weil dann wegen
1; (0) = 0 und
LG(ci!) > CI nach Definition, da G(0 I ,L) = 1 > ci!
beide Seiten in (2) falsch sind. Aus (i) für alle k E WO folgt dann
P { ~ a f i ~ ~ , ( X ) } = P { L ~ ( Q ) ~ x }
= G(LG(ci!) 1 P)
< - ci! nach Definition von LG(ci!).
![Page 29: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/29.jpg)
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 4
5.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls
Beweis von
für X > 0 .
Für X = 0 folgt die Behauptung sofort, weil f i (0) = 0 und f i (0) > 0 ist. O1
1 Und für X > 0 ergibt sich wegen or <
F(x l f i (x))=or < 1-or = F(x-ll f i vgl. 5.1(8), 5.2(4) O1
und da F(x I P) streng fallend in p ist, folgt die Behauptung.
![Page 30: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/30.jpg)
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 5
5.4 Berechnung der exakten Grenzen
Beweis von
(1) r; 01 ( 0 ) - l o g a
Für X = 0 reduziert 5.1 (8) zu
a = F( 0 l f i 01 (0)) = P( 0 l fiO1 ,(oll = exp I-fiO1 ,(0)}
und aufgelöst nach f i (0) ergibt sich die Behauptung. ' 1
Beweis von
(6) 1 2
f io , a ( ~ ) = xm;a für X 2 o mit m = 2 ( x + 1 ) ,
(7) 1 2
f i u l a ( ~ ) = 5 Xm;i-a für X > 0 mit m = 2 x .
unter Verwendung von
(5) F(xIP) = 1 - @ m ( 2 ~ ) mit m = 2 ( x + 1 ) .
ad (6): Die Gleichung 5.1 (8) für f i ( X ) 1aRt sich mit (5) schreiben als 01
l -mm(2f i ( X ) ) = a mit m = 2 ( X + 1) Ol
2 Also ist 2$01,(~) = X,,., d.h. (6 ) gilt.
ad (7): Die Gleichung 5.2 (4) für ,L ( X ) 1aRt sich mit (5) schreiben als U1
1 - @ m (2,L u,a ( x ) ) = l - a mit m = 2 x
Also ist 2$, ,(X) = X 2 m;l-a d.h. (7) gilt.
![Page 31: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/31.jpg)
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 6
5.5 Asyrnptotische (approximative) Konfidenzgrenzen
Beweise zu
(6) 2 2
f( ,LL) = ( ~ - 4 -Pa
2 = (,U - pm) - D mit
(9) P, ,(X) : = P , + D (asymptotische obere Grenze),
(10) (asymptotische untere Grenze).
(11) O < P ( x ) < x < P ( X ) f ü r x > O . Ol
(12) (0) = 0
(13) 0 < P ( X ) < X < POla(x) f ü r x > O .
1 Wir stellen zunächst einige Eigenschaften der Funktion f zusammen. Wegen or < 1 ist z > O und somit
a
( 2 ) o<x<,LLm, D > O .
Weiter ist ,U die Minimalstelle von f mit m
(ii) f(pm) =-D < 0 ,
und es folgt
(iii) f ist streng fallend auf (-CO, ,LL ] und streng wachsend auf [,L , CO). m m
somit ist ,LL genau dann eine Lösung von (3), wenn ~ ( , L L ) = 0 und ,LL > X gilt. Zum
Nachweis der restlichen Behauptungen unterscheiden wir zwei Fälle.
1. Fall: X = 0
1 2 Dann ist (0) = ++ZU, = z2 > 0 O1 a
![Page 32: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/32.jpg)
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 7
und dies ist offenbar auch die einzige Lösung von (3) im Fall X = 0.
(0) : = 0 gilt (10) in diesem Fall trivialerweise.
2. Fall: X > 0
Dann ist
(24 2 f(x) = - X Z < 0 , 2 a f(0) = X >o
Mit (i) und (iii) folgt hieraus einerseits, daß die untere Nullsstelle von f im Intervall
(0,x) und die obere im Intervall ( x , ~ ) liegen muß, d.h. (13) gilt.
Die Gleichung (3) läßt sich äquivalent schreiben als
(4 p - X = Z a & U x < p und f (p )=O
und hat wegen (11) die (eindeutige) Lösung ,L (X). 01
Analog läßt sich (5) läßt sich äquivalent schreiben als
(V;) p - X = - z a & U p < x und f (p )=O
und hat für X > 0 wegen (13) die (eindeutige) Lösung ,L (X). u , a
Beweise von
(14) nul,(x) < P U " - P < L a . & ,
P < ,Lqa(") U p-X <U.&.
Zum Nachweis von (14) zeigen wir die Äquivalenz der entsprechenden Negationen.
P a pul P a pul a(x) und ,LL 5 X , ~ ~ 1 . (11)
* f ( ~ ) 2 f(,Lul &(X)) = 0 und P 5 X , vgl..(iii)
2 2 * (P-.) >Pa und P - < X
" x - p > & z u
Damit gilt die erste Äquivalenz in (14), und die zweite folgt analog:
![Page 33: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/33.jpg)
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 8
pol .(X) 5 a * pol .(X) 5 P und X < ,L, vgl. (11)
* S ( P ) > S ( ~ ~ ~ ~ ( X ) ) = O und x 5 P , vgl..(iii)
2 2 * (P-.) >W, und X 5 ,LL
* a - x > & z &
Beweise von
(16) lim P { , L L < ~ ( X ) } = 1 - a , lim P { p (X )< ,L} = I - a P+ O0 0, a P+ O0 U , a
Aus (14) und dem Poisson-Grenzwertsatz ergibt sich
Damit sind die ersten Behauptungen in (15),(16) gezeigt und die zweiten erhält man
analog:
![Page 34: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/34.jpg)
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 1
Beweise zu 6. Konfidenzgrenzen im Normal-Verteilungsmodell
6.1 Verteilung der Varianzschätzung
Beweis von
(I) ~ E { ' c ( x ~ - ~ ) ~ } = a2 i . d { s . & ; ( x ) } = x ; ~ Z W .
a2 2 . d { & ; ( ~ ) } = n . X n .
2 Folgt mit der Definition der X -Verteilung aus
U . = ' ( X .- ,L) N(0, l ) z 0 z zzd für i = 1, ..., n.
Beweis von
Theorem (Orthonormale Transformation von Normalverteilungen)
Z = (Z1, ..., Zn/ sei ein k k t o r unabhängiger identisch verteilter Zufallsvariablen Z . 2
mit Standard-Normalverteilung .d(Z.) = N(0 , l ) . Ferner sei C eine orthonormale 2
T nxn Matrix) dd.. es ist C = C-l. Dann gilt für den transformierten Zufallsvektor
Y = C Z mit den Komponenten Y1, ..., Y . n '
(U) Y1, ..., Yn sind unabhängig und identisch N(0,l)-verteilt) d.h 4 Y ) = 4 2 ) .
2 2 (a, IIYII = C Y i = cz2= 1 1 ~ 1 1 ~ . 2 i
ad (a): Jedes Z . hat die Dichte ip von N(0, l ) . Die Dichte von Z = (Z1, ..., Zn) im 2
Punkt z = (z ..., z ) E IRn ist daher 1' n
![Page 35: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/35.jpg)
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 2
Für die Transformation C : IRn + IRn ergibt sich die (eine) Dichte von Y = C X zu
(vgl. z.B. Materialien zur Maß- und W-Theorie, Theorem 14.1)
(ii) fy(Y) = fZ(cTY) . ldet ~1- l , d a c T = c - l .
1 T T Wegen C- = C ist C C = II und somit n T T l = det II = det (CC ) = det(C) .det(C ) = d e t ( ~ ) % n
also 1 = ldet CI.
Mit (i), (ii) ergibt sich dann für jedes y E IRn
(iii) fY(y) = fz(C T Y)
T T T = a . exp( - + (C Y) (C Y))
1 T T = a . e x p ( - y y CC Y))
1 T = a . e x p ( - y ~ Y))
= fZ(Y) .
Aus fy = fZ folgt dann 2 ( Y ) = 4 Z ) .
![Page 36: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/36.jpg)
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 3
Beweis von
1 (2) b ( X ) = X und e2(x) = - C ( X . - X ) ~ sind stochastisch unabhängig. n-1 i 2
(3) 4x1 = N ( P , g) , - 2 2 (4) . ~ { - $ F ( x ~ - x ) } = x ~ - ~ , bzw. . 2 ~ { 8 ~ } = * . n - i Xn-1.
(3) wurde schon in 1.2 (1) gezeigt. Für (2) und (4) wenden wir das Theorems an auf 1 2. = - ( X . - ,L .) und eine noch zu bestimmende orthogonale Transformation
2 0 2 2
Y = C Z mit den Eigenschaften
( 2 ) Y 1 = a + b X mit n n
(ii) Y: = C (2.- 2 Q 2 . i=2 i=l
Für ein solches Y ergibt sich mit (a) aus dem Theorem
- n n 1 2 X=- (Y 0 1 - U ) ist st. unabhängig von C (T- Z12 = C Y S 2 - xnP1
i=l i=2 Also gilt (2).
- 1 1 - 1 - Wegen 2 . - Z = - (X . - ,L . ) - - (X -P . ) = - ( X . - X )
2 0 2 2 0 2 0 2 I h
ist 1 - 2 - 2 2 C 2 ( X , - X ) = C ( 2 . - Z ) - Xnpl i 0 "'-1
2 d.h. (4) gilt.
h -1
Wir konstruieren jetzt eine orthogonale Martix C mit (i) und (ii).
T n
1 1 Für den konstanten Vektor cl : = (- ) E IRn ist C C = C - = 1. fi 1 1 n
i=l Folglich läßt sich cl zu einer Orthonormalbasis cl, c2, ..., cn des IRn erweitern. Die - - Matrix C = (C C . . C )" mit den Zeilen C ! ' erfüllt dann (i) und (ii):
1 2 ' n 2
nach Theorem (b) und (i).
![Page 37: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/37.jpg)
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 4
6.2 Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz im Normalverteilungsmodell
Beweis von
mit m = n-1 m
Jn ( f i - P ) - J. ( X - ,)I0 - - -
U Es ist
a J [C ( X , - X) 2/02] / m \lV/m 2
mit U = J n ( X - p 0 ) / 0 - ~ ( 0 , l ) nach 4.1 (3)
- 2 2 2 V = C ( X i - X ) / , - X , nach 4.1 (4). i
Nach 4.1 (2) sind U und V stochastisch unabhängig und die Behauptung folgt mit
der Definition der t -Verteilung (vgl. Exkurs V 2.1). m
Beweis von
(10) P { / ? ( X ) < p } = 1 - Q = P { p < /? ( X ) } Ol
Esist: P { X - $ a < p } = P { X - ~ ~ . ~ ~ / & < , L L } 7
= p { J n ( X - p ) / 8 < tm;,} = 1 - a
Analog: p { p < X + $ } = ~ { p < X + t m; a 8 / & }
= P{- t < J n ( X - $ a ) / a } = 1 - a m;a
Beweis von
(5) 1 @ ( Z ) < 1 - a für jedes n und 0 < a < Y
n a
(11) Za < t 1
n; a für jedes n und 0 < a < Y .
vgl. Johnson-Kotz, Sec.. 27.2. Ein direkter Beweis ist mir nicht bekannt!
vgl. (1).
vgl. (1).
![Page 38: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/38.jpg)
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 5
Beweis von
(14) F(T(x) I fiel ,(X)) = bzw.
1 " + t,,; \r, . &(X) = p,
folgt (14). Und da F(t / ,L) streng fallend in p, ist, ergibt sich auch(l5).
Beweis von
(17) G(T(X) I fi, ,<X>) =
(18) fi,,(x) = Min { P E R I @(X) Ip,) > U ) .
Der Beweis verläuft völlig analog dem von (14) und (15).
bzw.
6.3 Asymptotische Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz in beliebigen Verteilungsmodellen
Beweis von
(1) i i r n ~ { X ( ~ ) - $ ( ~ ) < p , } n a = I - U ,
(2) iim n ~ { p , < x(~) + J ( ~ ) } a = I - U ,
(3) lim P{ ~ ( n ) - $(n) < p, < ~ ( n ) + $(n) } = lBa . n 4 2 4 2
(4) l i m t n n;a =Z a .
(4) gilt nach Exkurs Q 2 (An~endun~sbe i s~ ie l e ) , und (3) folgt aus (1) und (2), die
noch zu zeigen sind.
![Page 39: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/39.jpg)
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 6
ad (I):
Aus &(F(n] - p ) / D L N(0,l) vgl. 1.1 (5)
und P D/&(") - 1 vgl. 3.2 (7),
folgt mit Exkurs K V 5 (3)
( 2 ) &(X(") - N(0,l).
Mit (4) und Exkurs Q 2 (eine alternative Herleitung ohne diesen Exkurs folgt) folgt
(ii) P{ - p )/An) < t n-1; a } i P { N ( o , ~ ) < z a } = I - U .
Wegen &(X - P ) / & < inPli. ¢$ X - p < 8 t n-1 ; a / & = J a
¢$ T 1 - J < p (X
ist (1) gezeigt. Alternativ ergibt sich (ii) wie folgt. Aus (i) und (4) erhält man mit Ex-
kurs K V 5 (2)
U n : = & ( ~ ( ~ ) - p ) / 8 ( " ) - t„;, + , A N(0,l)
+ P { u ~ < z , } - P { N ( o , ~ ) < z ) = ~ - U a
Wegen < a 4") < t U &(X(n) - p ) / D n-1 ; a folgt (ii).
ad (2):
Analog (ii) ergibt sich
(iii) P{ - &(x(~) - p )/An) < t n-1; a } - P { - N ( o , ~ ) < z a } = 1 - U .
Wegen - &(X - P ) / & < tnPl ;a U p - X < 8 t n-1; a / & = J a
U p < X + J a
erhält man (2).
![Page 40: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/40.jpg)
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 7
6.4 Konfidenzgrenzen für die Varianz
Beweis von
(2) 2 P { & ~ , ~ < D } = I-a,
= 1 - a , vgl. 4.1 (4).
![Page 41: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/41.jpg)
Beweisezu: 7. Schätzen einer Verteilungsfunktiom 3.8.06 B 7 - 1
Beweise zu 7. Schätzen einer Verteilungsfunktion
7.1 Die empirische Verteilung der Stichprobe
Beweis von
Wegen &B) = &B n Z) genügt es, den Fall B C Z zu beweisen. Dann gilt
Beweis von
(5) ~ ( a ) = ~ ( a l x ) = I n ~ a x { l < i < n l X < U ) für a E IR. (4 - Für k = M a x { l < i < n - - 1 X < U )
(2) -
gilt X < . . . X < a < x (1) -
< . . . < X (k) - - (k+ 1) - - (n) '
also k = # { l < i < n I x . < a ) , 2 -
d.h. (5) gilt wegen (3).
![Page 42: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/42.jpg)
Beweise zu: 7. Schätzen einer Verteilungsfunktiom 3.8.06 B 7 - 2
7.2 Eigenschaften der empirischen Verteilung
Beweise von
(starke Konsistenz),
(3) J;I(F(")(~)- P{xEB)) /~ (B) N(0,l) falls
Die Indikatoren Yi = IB(Xi) = I {X. E B) sind unabhängig und identisch B(1, p)-ver- 2
teilt mit p = P {X E B). Die Schätzung
ist daher nach 1.1 eine erwartungstreue und konsistente Schätzung von p mit
asymptotischer Normalverteilung, d.h. die Behauptungen gelten.
![Page 43: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/43.jpg)
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 1
Beweise zu 8. Schätzen von Quantilen und Momenten
8.1 Schätzen des Median (unter Verwendung von 8.2)
Beweise von
(2) ^ ^ I ^ 1 ( = F - ( 2 1 x ) = F - ( 2 1 x ) = x (k) fallsnungerade: n = 2 k - 1 ,
(3) ^ 1 6 = 2 ( ~ ( k ) + x(k+l) 1 falls n gerade: n = 2 1% , mit
^ 1 "(k) = "(4 I X ) > = F- (2 1 X )
1 ad (2): folgt direkt aus 8.2 (2) , (3) für p =-. 2
ad (3): Aus 8.2 (2), (3) für p =L 2 ergibt sich
^ 1 ' - ( + I x ) , F - ( 2 1 x ) '
Beweis von
(4) [(n) L?+ t f ur .. n+cc
1 Vgl. 8.2 (5) für p = -. 2
(Konsistenz).
![Page 44: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/44.jpg)
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 2
8.2 Schätzen eines Quantils
Beweise von
M (P 1 X) = mit k = ~ i n { i ~ W l p < i } ,
(3) C ( p I x ) mit m = ~ i n { i ~ W lp<i} > k ,
Aus $U) = $aIx) = ' ~ a x { l < i < n l X < U } n vgl. 7.1 (5) (4 - folgt P < B a ) - U n p < M a x { l < i < n I X < U } (4 -
U k = Min{iEW I n p < i ) - < M a x { l < i < n 1 X < U ) (2) -
Also ist F-(a) = inf { a E IR I p 5 F(a) }
= i n f ( aEIR1x < U } - (k) - - x(k)
, d.h. (2) gilt.
Undaus ~ ( a ) < p U M a x { l < i < n I x < a } < n p (2) -
M a x { l < i < n 1 X < U ) < n p < M i n { i ~ W I n p < i ) = m (2) -
U a < x (4 folgt F ( p ) = s u P { a € I R I F ( a ) < P }
= s u p { a ~ I R I a < x } = X (4 (4 , d.h. (3) gilt.
Beweis von
(5) $4 P., E f ur .. n+cc P P
Wir zeigen zunächst
(4 F - ( ~ I X ( ~ ) ) L F - ( ~ ) =
(ii) F(P I x (~) ) L F-(P) = Ep ("1 < Wegen F - ( p l ~ ) - [ ~ ) < ~ ( p l ~ ( n ) )
ergibt sich dann die Behauptung mit nachfolgendem Hilfssatz 1.
(Konsistenz).
Zum Nachweis von (i) und (ii) verwenden wir die fundamentalen Eigenschaften
![Page 45: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/45.jpg)
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 3
der Quasi-Inversen aus Exkurs Q 1 (4)-(5):
(iii) F-(P) 5 CL U P I F(a) ,
(24 a 5 F-(P) U F(a-) 5 P .
Mit dem folgenden Hilfssatz 2 (2) folgt ( i ) , wenn für jedes a E IR gezeigt wird:
P { F - ( ~ ~ x ( ~ ) ) 5 a } G l ~ { p 5 ~ ( a l ~ ( n ) ) } - { o 1 für für a a > < f p P
Wegen F (a I = (a) F(a) vgl. 7.2
ergibt sich aus Hilfssatz 2 (3)
P { ~ ~ F ( ~ ~ X ( ~ ) ) } - i für p < ~ ( a ) 0 für p > F(a)
Wegen a < f p = F P ( p ) + P > F(a) nach (iii)
und U > f p = F-(P) + p < F(a-) 5 F(a) nach (iv)
ergibt sich (i)' aus (V).
Und zum Nachweis von (ii) mit Hilfssatz 2 (3) ist für a E IR zu zeigen:
(4 < 1 für a < f i i p { F ( p 1 L a I p{i . (a- 1 X ) - P } - { o für a > p
P P Wegen F ( ~ - I x ( ~ ) ) = ~ ( ~ ) ( - w , a ) - P(-w ,a )=F(a- ) vgl. 5.2
ergibt sich aus Hilfssatz 2 (2)
0 für p < F(a-) 1 für p > F(a-)
Wegen a < f p = F P ( p ) + p>F(a)>F(a- ) nach(i i i )
und U > f p = F-(P) + P < F(a-) nach (iv)
ergibt sich (ii)' aus (vi).
![Page 46: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/46.jpg)
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 4
Hilfssatz 1: Für Zufallsvariablen U < X < V und a E IR gilt: n - n - n
P Beweis: Wegen (U , V ) - ( U , a) folgt n n
P U -V - 0 n n
d.h.
( 2 ) P { l V n - u n I > & } -0 für alle e > O.
Mit IV -U I > l X -U I n n n n
folgt P { l X n - U n l > & ) 5 P { l V -U I > & ) -0 d.h. n n
(ii) P X - U - 0 . n n
Also P X = U + ( X - U ) - a + O = a . n n n n
Hilfssatz 2: Für Zufallsvariablen X und c E IR sind äquivalent n
(1) P X - C
n. . U
I 0 für X < c Für jedes X E IR gilt: lim P { X n < x ) =
72-00 1 für X > c
2 bzw. X - c n
(3> Für jedes X E IR gilt: 72-00 lim P { X n > x ) = I 0 für X > c
1 für X < c
Beweis: (1) ist äquivalent zu
(1) P { X n EU)-^ für jede Umgebung U von C.
Da die Umgebungen der Form U= ( U , b ] eine Umgebungsbasis bilden ist dies wie-
der äquivalent zu
![Page 47: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/47.jpg)
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 5
( ) ( 2 ) : Fürx<cliefert ( l ) " m i t a = x u n d b = o o
P { X < W } - P { X < X } - 1 , n - n -
u n d m i t P { X < o o } = l f o l g t P { X < X } - 0 . n - n -
Und für X > c liefert (1)" mit a = - oo und b = x-
P { X < X } - P { X < - W } - 1 , n - n -
u n d m i t P { X <-oo}=Ofo lg tP{X < X } - 1 . n - n -
(2) + ( I ) : Aus (2) ergibt sich
P (1) U (3): Zunächst ist (1) auch äquivalent zu -X - -C und - wie gezeigt - n
auch äquivalent zu (2) mit - X statt X , d.h. zu n n
0 für - X < - c Für j edesx~IRgi l t : lim P{-X,<-X} =
72-00 1 für - X > - c
Dies ist aber äquivalent zu (3).
![Page 48: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/48.jpg)
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 6
8.3 Schätzen von Momenten
Beweis von
(empirisches k-tes Moment)
Für die empirische Verteilung P auf Z = {X ..., X } ist der Erwartungswert einer 1' n
„Zufallsvariablen" (Funktion) U : Z+ IR gegeben durch n
k Speziell für U(z) = z ergibt sich
Die Schätzung n
k n
P;(F(- I X)) = L C Xi = C Y. mit k Y . = X . n . n . 2 2 2
2 = 1 2 =1 ist nach 1.1 eine erwartungstreue und konsistente Schätzung auf E(Y.) = E(x!).
2 2
Beweis von n
(7) 1 - k
P,(Q- I X)) = - n . C X ) (empirisches k-tes zentrales Moment). 2 = 1
Für U(z) = [z- .lk = [z- 1 x)lk vgl. (4)
ergibt sich der Erwartungswert von U unter P aus (i) im Beweis von (2) zu
![Page 49: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/49.jpg)
Beweisezu: 9. Parametrische Modelle und Exponential-Familien 3.8.06 B 9 - 1
Beweise zu 9. Parametrische Modelle und Exponential-Familien
9.2 Parametrische Exponential-Familien
Beweis von
(9) K y ( t ) = h ( t + 4) - h ( 4 )
Die MGF von Y = b ( X ) lautet
My( t ) = E iI ( e x p { t T b ( ~ ) } )
= J ""P { tTb(x)l .f+(x) u(dx) Tr
= J exp { t Tb (x ) } . exp {11~b(x) - h(4) + d(x) } u(dx) Tr
= exp { h( t + 4) - h($)} . J exp { ( t + 4) Tb(x) - h( t + $1 + d(x) 1 Tr
Hieraus folgt
Ky( t ) = log My( t ) = h ( t + 4) - h ( 4 ) für t E P- 4, d.h. t + 4 E P .
Beweis von
(10) E iI (Y) = ~ h ( $ ) ~ = ~ h ( $ ) für 4 E P, bzw.
a E$(Ys) = h(4) für s = 1, ..., s ,
(11) cov iI (Y) = o2h($) für 4 E P, bzw.
Cov (YT,Ys) = d 2 $ h(4)
für r, s = 1, ..., S W , W s
Aus (9) erhält man mit Exkurs CF 7 (4) (5):
T E (Y) = D Ky(0) = D h(4)
T iI
cov (Y) = ~ ~ ( 0 ) = h(4) . iI
![Page 50: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/50.jpg)
Beweisezu: 9. Parametrische Modelle und Exponential-Familien 3.8.06 B 9 - 2
Beweis der Äquivalenz von
(F3) h($) ist positiv-definit für jedes $E l.
(F3) ' Für jedes t E IRs mit t t 0 und jedes $ E l ist die Verteilung .J ( tTy) T
1i der Linearkombination t Y = tlY1 + ... + tSYS keine Einpunkt-Verteilung,
rn
d.h. es gilt Var (tlY) > 0 . 1i
Für jedes t E IRs gilt (vgl. Exkurs CF 7 (3)):
![Page 51: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/51.jpg)
Beweisezu: 9. Parametrische Modelle und Exponential-Familien 3.8.06 B 9 - 3
9.3 Binomial-Verteilung
Beweis von
(4) log fp(x) = logit(p) . X + n log (1 - P) + log ( z ) = a(p) . X + ~ ( p ) + d(x) für X E Tr
~ s i s t logf(x) = x l o g ( p ) + ( n - ~ ) l o g ( l - ~ ) + l o g ( z ) P
= X logit(p) + n log (1 - p) + log ( z) .
Beweis von
(6) 4 h($) = n log(l+ e )
Es ist h($) = - e(~(a'($))
= - n log(l - logit-'($))
für E IR
Beweis von
(9) E+(X) = y(X) = hl($) = n p
Var (X) = K~(X) = hl1($) = np(l-p) + mit p = logit-'($1 .
Es ist
![Page 52: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/52.jpg)
Beweisezu: 9. Parametrische Modelle und Exponential-Familien 3.8.06 B 9 - 4
9.5 Normal-Verteilung
Beweis von
(F3) ' Für jedes t E IRs mit t t 0 und jedes 4 E Q ist die Verteilung 2 (tTy) rn iI
der Linearkombination t " ~ = t Y + ... + t Y keine Einpunkt-Verteilung, rn
1 1 S S d.h. es gilt Var (tlY) > 0 .
iI Es ist Y1 = bl(X) = X ,
2 Y2 = b2(X) = X .
Angenommen, es gibt (tl, t2) t (0,O) und to E IR mit
bzw.
(ii) g(X) = 0 P -f.s. -+ mit
Für t t 0 ist g ein Polynom 2. Grades und für t = 0 ist g ein Polynom 1. Grades 2 2
(weil dann tl t 0). Also hat die Menge G der Nullstellen von g höchstens 2 Ele-
mente. Aus (ii) folgt
(2.1 X E G P -f.s. iI im Widerspruch zu P { X E G ) = 0, da X stetig verteilt ist.
iI
![Page 53: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/53.jpg)
Beweisezu: 9. Parametrische Modelle und Exponential-Familien 3.8.06 B 9 - 5
9.6 Gamma-Verteilung
Beweis von
(F3) ' Für jedes t E IRs mit t t 0 und jedes 4 E Q ist die Verteilung 2 (tTy) rn iI
der Linearkombination t " ~ = t Y + ... + t Y keine Einpunkt-Verteilung, rn
1 1 S S d.h. es gilt Var (tlY) > 0 .
iI Esist Z : = Y = b ( X ) = l o g X ,
1 1
Angenommen, es gibt (tl, t2) t (0,O) und to E IR mit
(2) Z t lZ+t e = t
2 0 P -f.s.
iI bzw.
(ii) s(z) = 0 P -f.s. -+ mit
(iii) g(z) = t2 ez + tlz + t,. Wir zeigen, daß die Menge G der Nullstellen von g höchstens zwei Elemente en-
thält. Mit der Folgerung aus (ii)
ergibt sich der Widerspruch zu P {ZE G) = 0, da Z = log X stetig verteilt ist. iI
Zunächst sei 0.B.d.A t2 > 0 (sonst betrachte man -g statt 9). Wegen
ist g streng konvex.
Fall 1: t > O 1-
Dann ist g' > 0 und g hat als streng wachsende Funktion höchstens eine
Nullstelle.
Fall 2: t1 < 0
Dann hat g ein Minimum in z0 = log(- tl/t2). Für z < zo ist gl(z) < 0 und
somit g streng fallend. Und für z>zo ist gl(z) > 0 und somit g streng
wachsend. Also hat g höchstens zwei Nullstellen..
![Page 54: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/54.jpg)
Beweise zu: 10. Maximum-Likelihood-Schätzung von Parametern 3.8.06 B 10 - 1
Beweise zu 10. Maximum-Likelihood Schätzung von Parametern
10.5 Schätzung in einparametrigen Exponential- Familien bei unabhängigen Wiederholungen
Beweis von
(2) s, (X) = exp { a(Q) . b+(x) + n c (Q) + dt (X) 1 wobei die Funktionen b und d auf ( T T ) ~ definiert sind durch
t t
(3) bt(xl, ..., xn) := C b(xJ , dt(xl, ..., xn) := C d(xJ 2 2
Es ist gg(xl, ..., X,) = I-If,(x,J i
= exp { a(Q) . b(x) 2 + (8) + d (xi)} i
= exp { a(Q) . C b ( .) + C (B) + C d (X,)} z 2 2 2
= exp{a(Q).bt(x) + nc(Q) + d+(x)}.
für X E ( ~ r ) ~ ,
Beweise von
(5) Ky(t) = h(t+$) - h($)
(6) K ~ ( Y ) = h(') ($1 für ~ E N ,
(5) ist ein Spezialfall von 7.2 (9). Weiter ist
K$)(t) = h ('1 ( t +$) * K r (Y) = K$)(o) = h(')($).
![Page 55: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/55.jpg)
Beweise zu: 10. Maximum-Likelihood-Schätzung von Parametern 3.8.06 B 10 - 2
Beweise von
(17) PA { L(- I x ( " ) ) hat eine Maximalstelle X(" ) für fast alle n E W } = 1.
(starke asymptotische Existenz).
(18) A(") + X PA-fast sicher (starke Konsistenz für A),
(19) 8 ("1 + I9 Po-fast sicher (starke Konsistenz für 8).
ES gilt T(")+ X + Y(") E A für fast alle n X E A offen
+ A(") = T(") für fast alle n
Nach (16) gilt die Prämisse PA-fast-sicher und somit gelten auch die Folgerungen
P -fast-sicher. X
Beweise von
(20) 2 J;I ( ~ ( " 1 - X ) - N(0,02) mit o 2 = VarA(Y).
(21) J;I ( B ( " ) - 1 9 ) 2 N ( O , I - ~ ( Q ) )
(22) I(I9) : = VarO{DO log f(X I 8 ) } (Fisher-Information von X),
(23) I(I9) = ( a ' ( ~ ) ) ~ . h " ( a ( ~ ) ) .
Aus dem zentralen Grenzwertsatz ergibt sich sofort (vgl. auch 1.1 (5))
( 2 ) 2 J;I (Y'") - X ) - N(0,o2) mit o 2 = VarA(Y).
Aus T(") E A für fast alle n E W + $4 = X(") für fast alle n E W + J;I (,I(") -V(")) = o für fast alle n E W +
( A n - ) - 0 P-fast sicher +
(ii) J;I ( ~ ( 4 -Y(")) P_ 0
ergibt sich (20). mit (i). Für die Transformation F = (hloa)-' ergibt sich mit der
![Page 56: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/56.jpg)
Beweise zu: 10. Maximum-Likelihood-Schätzung von Parametern 3.8.06 B 10 - 3
Delta-Methode (vgl. Exkurs KV 14) aus (20)
(iii) ~n ( F(x(~)) - F(X) ) N(O, 02. F ~ ( x ) ~ ) I I I I J(") 8 mit
F1(X) = [(h' o a) '(F'(x)) 1-' = [(h' o a) ' ( B ) ] ' = [h1'(a(8)) . a ' ( ~ ) ] ~
(2.1 = [hl'($) .a1(8)]-'
Wegen o2 = Var (Y) = hl'($) ii vgl. (7)
ist 2 1 o . F (X) = h ' '($)P' . a ' ( ~ ) - ~
und somit gilt (21) mit I(8) aus (23). Zu zeigen bleibt (22).
Aus log f ( ~ 1 8) = ~ ( 8 ) b(x) + ~ ( 8 ) + d(x)
folgt D, log f(x 18) = a'(8) b(x) + C'(@)
also ~ a r ( ~ * log f(x 1 8)) = var(a1(8) b(X) )
= ~ ' ( 8 ) ~ . Var( b(X))
= ~ ' ( 8 ) ~ . h"(a(8)), d.h. (22) gilt.
![Page 57: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/57.jpg)
Beweise zu: 11. Asymptotische Eigenschaften des ML-Schätzers 3.8.06 B 11 - 1
Beweise zu 11. Asymptotische Eigenschaften des ML-Schätzers
Die Beweise liegen noch nicht in digitaler Form vor.
![Page 58: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/58.jpg)
Beweise zu: 12. Ungleichung von Cramer-Rao und effiziente Schätzer 2.8.06 B 12 - 1
Beweise zu 12. Die Ungleichung von Cramer-Rao und effiziente Schätzer
Die Beweise liegen noch nicht in digitaler Form vor.
![Page 59: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/59.jpg)
Beweise zu: 13. Momente-Schätzung 2.8.06 B 1 3 - 1
Beweise zu 13. Momente-Schätzung
Auf die Beweise wurde verzichtet, weil sich die Behauptungen unmittel-
bar aus dem Zusammennhang ergeben.
![Page 60: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/60.jpg)
![Page 61: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/61.jpg)
Beweise zu: 15. Likelihood-Quotienten-Tests 3.8.06 B15-1
Beweise zu 15. Likelihood-Quotienten-Tests
15.1 Schärfste Tests und Neymann-Pearson Lemma
Beweis von
Definition und Lemma von Ne yman-Pearson
Für das Testproblem mit den einfachen Hypothesen Ho = {Bo} und H1 = {Bl}
und ein festes X. > 0 ist der Neyman-Pearson Test d definiert durch
(5) 4x1 = 1 * f(x I B1) > X. .f(x IBO) für alle X E IR^.
Dann ist d ist ein schärfster Test zum Niveau
(6) a : = P o w d (B o ) .
Zusatz:
Sind Trk := {f(- 1 Bk) > 0) die Träger von 2 ( X ) unter der Hypothese Hk für
k E {0, I}, so liegt X unter beiden Hypothesen Po-fast sicher in Tr : = Tro U Trl.
Im nicht-trivialen Fall X o > 0 ist der Neyman-Pearson Test d der einzige
schärfste Test zum Niveau a, d.h. für jeden anderen Test d* gilt:
(7) P O W ~ * ( B ~ ) = P O W ~ ( B ~ ) und ~ o w ~ * ( B ~ ) = ~ o w ~ ( B ~ ) + ( d*(x) = d(x) für alle X E Tr ) U-fast-überall.
setze fo(x)=f(xlQo), f1(x)=f(x1Q1J,
C o = { X E I R ~ ~ ~ ~ ( X ) < X ~ ~ ~ ( X ) } = { X E I R ~ ~ ~ ( X ) = O } ,
c1 = { x E I R ~ ~ ~ ~ ( x ) > X ~ ~ ~ ( X ) } = { X E I R ~ ~ ~ ( X ) = ~ } ,
c2 = {xEIRn Ifl(x) >Xofo(x) 1 C C l ,
6 3 ={xEIRn lf1(x)=X0fo(x)} c C 1 ,
Zum Nachweis des Lemmas sei d* ein weiterer Test zum Niveau < - a, d.h.
![Page 62: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/62.jpg)
Beweise zu: 15. Likelihood-Quotienten-Tests 3.8.06 B15-2
(2) powd*(e0) 5 = powd(e0) bzw.
Zu zeigen ist
(ii) powd*(el) 5 Powd(el 1 bzw.
E(+ d*(x) 1 a E(+ 4x1 1 bzw.
0 a EO{d(X)-d*(X)}
Nun ist Egli d(X) - d*(X) } = J [d(x) - d*(x)] . fl(x) u(dx)
Wir schätzen die Integrale über C und C einzeln ab. 1 0
F Ü r x ~ C ~ i s t : d(x)-d*(x)>O, da d(x) = 1
f1(4 2 Aofo(x) und somit
(iii) J [d(x) - d*(x)I . fl(x) @X) > Ao . J [d(x) - d*(x)] . fo(x) . Cl Cl
Für X E Co ist: d(x) - d*(x) 5 0 , da d(x) = 0
f1(4 < Aofo(x) und somit
Insgesamt ergibt sich jetzt (i) wie folgt:
![Page 63: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/63.jpg)
Beweise zu: 15. Likelihood-Quotienten-Tests 3.8.06 B 1 5 - 3
> - 0 nach (i).
Damit ist das Lemma bewiesen. Wir zeigen jetzt (7) für X > 0 und zerlegen dazu 0
(vii) Cl = C U C3 mit c2 = { X E IRn I f1(x) > Xofo(x) 1 , 2
6 3 = { X E IRn I fl(x) = Xofo(x) 1 ,
Nach Voraussetzung in (7) gilt in (i) und (ii) sogar die Gleichheit, d.h.
(22) P P
E { d ( X ) - d * ( X ) ) = 0 . 01
Nach (vi) gilt (ii)- genau dann, wenn in (iii) und (vi) die Gleichheit gilt. Also ist -
(iii) P
P
0 = S [d(x) - d*(x)l . [il(x) - X , . fo(x)l u(dx) Cl
= S [d(x) - d*(x)l . [fl(x) - X . . fo(x)l vgl. (vii). C2
ist (iii) P äquivalent zu -
(viii) [ x € C 2 + d ( x ) = d * ( x ) ]
Analog ergibt sich aus
und [d*(x) - d(x)l > 0 , [ X o . f o ( x ) -fl(x)l > 0 für X E Co
![Page 64: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/64.jpg)
Beweise zu: 15. Likelihood-Quotienten-Tests 3.8.06 B15-4
die Äquivalenz von (ui) P zu -
(2x1 [ x E C , + d(x)=d*(x)]
Weiter erhält man aus (i) P
-
= J [d(x) - d*(x)I . fO(x) ~ ( d x ) vgl. (uiii), (ix) C3
und mit [d(x) - d*(x)] 2 0 , für X E C3 C Cl folgt
(X) [ x € C 3 , fO(x)>O + d(x)=d*(x)] U-fast-überall
Wegen X E C3 n Tr + f0(x) > 0 oder fl(x) = X. f0(x) > 0
+ fo(x) > 0
folgt aus (X)
(xi> [ x € c 3 n T r + d(x)=d*(x)]
Wegen IRn = Co U C2 U C3 ergibt sich aus (ix), ((vii) und (xi) jetzt
(xii) [ x ~ T r + d(x)=d*(x)] U-fast-überall.
15.3 Einparametrige Exponential-Familie
Beweis zu Normal-Verteilung mit bekannter Varianz
14.3(5) Pow2(pIa) <Powl(pIa) für alle p > po
14.3 (6) Pow2(pIa) <Pow;(pIa) für alle p < po
Für vorgegebenes p > p sei y > 0 definiert durch 0
bzw. 1 r = J n ( ~ - ~ ~ ) l g ~ p = p O + - a y fi Für dieses p > p0 ist der einseitige (obere) Gauß-Test ist ein MP-Test für die einfa-
chen Hypothesen Ho = {pol vs. H; = {p}, und somit gilt
![Page 65: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/65.jpg)
Beweise zu: 15. Likelihood-Quotienten-Tests 3.8.06 B15-5
Angenommen, in (i) gilt die Gleichheit. Dann folgt aus 13 (7) mit U = An als
Lebesgue-Maß auf IRn
dl(x) = d2(x) für alle X E IRn An-fast-überall bzw.
(ii) An{dl t d2} = O
Unter Verwendung der Indikator-Funktionen der Mengen
lassen sich die Testfunktionen schreiben als
Die beiden Indikatorfunktionen unterscheiden sich auf der Menge
- - [za ,zoli2) U (-00 >-zaI2l
und für das Urbild unter t folgt
Der offene Kern Do von D ist nicht-leer und somit enthält tP1[D] die nicht-leere
Menge t-'[D'], die offen ist (t ist stetig). Daraus folgt
o < A~(~- ' [D ' ] ) 5 A ~ ( ~ - ' [ D ] ) 5 ~ ~ { d ~ t d ~ }
im Widerspruch zu (i). Also gilt in (i) nicht die Gleichheit und (7) ist gezeigt.
(8) folgt analog oder durch Zurückführen auf (7) mit - X statt X.
![Page 66: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/66.jpg)
Beweisezu : 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 1
Beweise zu 16. Testen eines Erwartungswertes
16.1 Einseitiger (oberer) t-Test von Student im Normal-Verteilungsmodell
Beweis von
(5) J'] $1 = trn(7) mit
(6) m : = n - 1 (Freiheitsgrad),
(7) Y(P) := J. (p-p0)
(Nichtzentralitä~ , 0
J n ( X - p o ) - - Jn (F- pol10 - -
U Es ist T =
&(X) J [C (X, - X) 2/02] /m m m 2
mit U = f i ( X - p o ) / ~ - N(7,l) nach 4.1 (3)
nach 4.1 (4).
Nach 4.1 (2) sind U und V st. unabhängig und die Behauptung folgt mit der Defini-
tion der nichtzentralen t -Verteilung (vgl. Exkurs V 2.2). m
![Page 67: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/67.jpg)
Beweise zu: 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 2
Beweis von
(10) Powl ( y 1 a ) ist streng wachsend in y
nach (5)
Nach Exkurs V 2.2 (10) ist @ ( t ) = @ ( t . ) streng fallend in y. m,Y m;a m,71O m,a
Also gilt (10) und daraus folgt dann (12).
Beweis von
(13) dl(x) = I U ~ { t m - > t ( x ) } 5 a .
(14) ~ { t m- > t ( x ) } = rnax P { T > t ( x ) } . Y 5 0
Da die Verteilungsfunktion der t -Verteilung streng wachsend ist, gilt m
t (x ) > t m; a U ~ { t m - < t ( x ) } > P { t m - < t m;a } = l - a
U ~ { t > t ( x ) } < a . m -
Also gilt (13). Und (14) ergibt sich - analog (9) (10) (12) - aus
Es gilt P { T > t ( x ) } = P{ tm(y) > t ( x ) }
= I - @ ( t ( ~ ) ) . " 1 Y
da @ ( t ( x ) ) = @ ( t ( x ) ) streng fallend in y ist (vgl. Exkurs V 2.2 (10)) " , Y " , Y 10
nach (5)
![Page 68: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/68.jpg)
Beweisezu : 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 3
Beweis von
Es ist 1 t < T = + ( X - , L L J / ~ U - 8 t m 7 a - fi m7a-
Beweis von
(16) P{ tm(r) 2 trn.&} < P{N(y,l) >za} 1 für y > O , a < ? .
Wir zeigen sogar
(4 P{ tm(r) 2 trn.&} < P{N(y,l) >za} 1 für y > O , a t ? .
(b) 1
P{tm(y) 2 tm.&} = P{N(y,l)>\} für y > O , a = - 2 d.h.
P{ tm(r) 2 0) = P{N(y,l) > 0)
Für vorgegebenes y > 0 sei ,LL > ,LL definiert durch 0
bzw. 1 Jn(,LL-,LLo)I~o = Y ,LL=,LL0+-gy fi Für dieses ,LL > p0 ist der einseitige (obere) Gauß-Test ist ein MP-Test für die einfa-
chen Hypothesen Ho = vs. H; = {,LL}, und somit gilt zunächst
Für die Behauptung (16) ist noch zu zeigen, daß die Gleichheit in (i) nicht gilt. Nach
15.1 (7) genügt es dafür zu zeigen, daß sich der einseitige Gauß-Test gl und t-Test dl
auf einer offenen nicht-leeren Menge A C Tr = IRn unterscheiden, weil dann
1 Fall 1: a < ? also z t > O a ' m;a
Wir definieren die offenen Mengen
und zeigen, daß die offene Menge A = Aln A2 C {gl t dl} nicht leer ist. Hierzu be-
trachten wir für beliebige a, d E IR die Realisierung X = x(a, d) mit
![Page 69: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/69.jpg)
Beweise zu: 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 4
(ii) X = U - d , 1
X = a + d , 2
x . = a f ü r i > 2 . 2
Dann ist
(iii) - X = a , 2 2 S x x = C ( X . - % ) = 2 d ,
i
(2.1 & ( X ) = c 1 d 1 > o mit C=-.
Wählen wir jetzt a E IR mit
1 sofolgt 0 < % - P , = a-,uo < - o z d.h. X E Al f i a
sowie 0 < & ( X - , u O ) = f i ( a - , u O ) .
Und für hinreichend kleines d erhält man
f i (a - pol > C 1 d 1 tmia = " X ) tm.& > 0 d.h. X E A2.
Also ist A t 0.
1 Fall2: a>? also z t < O a ' m;a
Wir definieren die offenen Mengen
und zeigen analog Fall 1, daß die offene Menge A = Aln A2 C {sl t d l } nicht leer
ist. Hierzu betrachten wir die Realisierung X = x(a,d) und wählen jetzt a E IR mit
1 p O + - o z a < a < p O .
f i 1 - Dann ist - o z < a - , u = X- ,u0 < 0 o d.h. X E Al f i a
sowie f i (% - ,uO) = f i (a - ,uo) < 0.
Und für hinreichend kleines d erhält man
f i (a - pol < C 1 d 1 tmia = " X ) tm.& < 0 d.h. X E A2.
Also ist A t 0.
1 Fall3: a=- 2
also z t = O . a ' m;a
2 Für unabhängige U - N(y, 1) und V > 0 mit r n v 2 - X gilt m
![Page 70: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/70.jpg)
Beweisezu : 16. Testen eines Erwartungswertes 3.8.06 B16-5
Beweis von
(17) lim n t n-l;a =Z a
Nach Exkurs V 2.1 (12) gilt
t A N(0,l) für n + CO, n
und hieraus ergibt sich die Behauptung mit Exkurs Q 2 (9)
![Page 71: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/71.jpg)
Beweise zu: 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 6
16.2 Dualer einseitiger (unterer) t-Test von Student im Normal-Verteilungsmodell
Die Beweise verlaufen analog zum einseitig (oberen) t-Test und lasssen sich auch
formal auf diese zurückführen, indem man die Zufallsvariable X' : = - X betrachtet.
Beweis von
(7) 1
P{tm(r) i - t m . o } < p { N ( ~ > l ) i - \ J für y i ~ , a < ? .
Wegen tm(7) 5 - tmia U t m (-7) =- tm(Y) tmia
und N(Y, 1) 5 - \ U N(-~,1) = -N(Y,~) > z a
folgt die Behauptung aus 16.1 (16).
16.3 Zweiseitiger t-Test von Student im Normal-Verteilungsmodell
Beweis von
(3) Pow 2 (T) = Pow2(? la) := P O W ~ ( ~ 1;) + POW;(~( ; ) .
ES ist pow2(7 Ia) = PI I t(X) I > tm,.&/2 1
= P{ t(X) tm;@ oder - t(X) > tm;a/2 1
= P{ t(X) trn,.&/2 1 + P{-t(X) > trn,.&/2 1
= powl (Y l + Pow;(Y 1 :) .
![Page 72: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/72.jpg)
Beweisezu : 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 7
16.4 Asymptotische Eigenschaften des t-Tests
Beweise von
(I) ~ ( 0 1 ) f ü r p = p 0 '
(2) Ijn) P_ - a? für p < p o ,
(3) Ijn) P_ + a? für p > p o .
für p < po P O W ~ ( ~ ) : = l i i W ~ o w ~ ( p ) = für p = p o
für ,LL > p0
Aus
ergeben sich nun (1) - (3) unter Berücksichtigung von Exkurs KV 11.
(5) folgt aus (1) - (3) mit Exkurs Q2 sowie
lim t =Z . n n-1;a a
![Page 73: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/73.jpg)
Beweise zu: 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 8
16.5 Schärfe-Approximation des t-Tests bei beliebiger Verteilung
Beweise von
(1) P O W ~ ( ~ ~ ~ ) = P { T > ~ - n-l;a } = P { u + v > z ~ - Y } mit
Es ist T > - t =: t n-1; a a
Jn (X- pol > - a ta
J n ( X - p ) - a t a - > - J n ( p - p 0 )
a U - - t > 0 a - - Y
8 > U + [.,- ,ta] - Za - Y
Beweise von
(11) Pow:(pla) = P { T ~ - t n-1; a } = P { u - v < - z ~ - ~ )
Es ist T < - - t = : - t n-1; a U
Jn (X- pol < - - a t U
Jn(X-P) + a t i - J n ( p - p o ) U
![Page 74: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/74.jpg)
Beweisezu : 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 9
16.6 Versuchsplanung beim t-Tests
Beweis zur Äquivalenz von
(1) APOW,(P~CX) := P{N(?,I) 2%) = @(?-L) I - ß bzw
Es ist APOW,(P~) > 1 - ß * 7-2, > "P
![Page 75: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/75.jpg)
Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B 17- 1
Beweise zu 17 Test einer Wahrscheinlichkeit
17.1 Einseitiger (oberer) Test einer Wahrscheinlichkeit
17.1.1 Exakter Test zum nominellen Niveau
Beweis von
(2) P{B(n,po)<ko-1) < 1- a < P{B(n,po)< k o - 1 ) .
Esist: P{B(n,po)<ko-1) = 1-P{B(n,po)>kO} > 1 - a (11,
P{B(n,p0)< k o - 1 ) = 1- P{B(n,p0) > ko-1) < 1- a 1 (1).
Beweis von
(3) P{B(n,p0) > X ) < a U PO < - I; u,a (4 .
Fall 1: X > 0
Da die Funktion G(x1p) = P{ B(n, p) > X ) nach 2.3.2 (2) für X > 0 streng wachsend in
p ist, ergibt sich
Wegen P{B(n,p) 2 0 ) = 1 und jU(O Ia) = 0 sind beide Seiten von (6) falsch, weil
a < 1 und po > 0. Also gilt auch die Äquivalenz (6).
![Page 76: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/76.jpg)
Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B 17- 2
17.1.2 Randomisierter Test
Beweis von
Q - P { B ( n , ~ ~ > 2 5,) Q - Q (1)
- Y = - eff P{B(n,po> = kO- l ) P{B(n,po> = 5,- 1 )
E [O,1>
Wegen Q < Q ist y > 0. Für y < 1 ist zu zeigen eff -
-
Q - P { B ( ~ , P o > 2 5,) < P{B(n,po> = kO- l ) ~ Z W .
Q < P{B(n,Po)2k0-1)
und dies ergibt sich ausa der Definition von k 0'
![Page 77: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/77.jpg)
Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B 17- 3
17.1.3 Asymptotischer Gauß-Test
Beweis von
(2) d i (x ) = i U t(x) > z a
U X > km(u) : = npO + \oO J" 0
Esist t ( ~ ) = J " ( j - ~ ~ ) / o ~ > ~ U j - p 0 - > z a O o - 1 fi
Beweise von
(6) fi) N (o,I) für p = P o '
(7) fi) P.-, für p <po ,
(8) fi) P.+, für p >po .
Der Beweis verläuft völlig analog dem von 14.4 (1) - (3).
Mit 02(P) : = PP - P) , 2 2 0 0 = 0 (P,)
gilt J" ($(X(")) - P) J" (P - Po) +
4~) .(P)
J" (P -PO) o f ü r p = p Aus 0
-CO f ü r p < p o O(P) +CO f ü r p > p o
ergeben sich nun (6) - (8) unter Berücksichtigung von Exkurs KV 11. Und (9) ist
eine direkte Folgerung aus (6) - (8).
![Page 78: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/78.jpg)
Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B17-4
Beweis von
(13) t(x) 2 Cr U @(- t(x)) i a
U < F ( x l a ) . P o - U
Die erste Äquivalenz ergibt sich aus der strengen Monotonie von @. Und die zweite
Äquivalenz erhält man mit 4.5 (19)
![Page 79: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/79.jpg)
Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B 1 7 - 5
17.4 Approximation der Testschärfe und Versuchsplanung für den asymptotischen Test
Beweis von
(3) I p { ~ l , < x ) - P { N ( o , ~ ) < X ) 1
für alle X E IR I p { ~ l , > x ) - P { N ( o , ~ ) > X ) 1
mit der von p abhängigen positiven Konstanten
c.(p2+(l-p)2) c . (1-2a2(p)) (4) C(P) =
- - > 0 , C = 0.7995. 4~) .(P)
1 Die Funktion C(p) ist streng fallend in a(p) und nimmt ihr Minimum für a(p) =-, 2
1 also für p = - an. Und für a(p) + 0 (d.h. p + 0 bzw. p + 1) gilt C(p) + W. 2
Zunächst gilt (3) nach einem Satz von Berry und Esseen (vgl. Exkurs ZGS 4 z.B.
Gänssler-Stute 1977, Satz 4.2.10, Korollar 4.2.15 ff) mit
wegen E { I B ( ~ , P ) - P I ~ ) = q p 3 + p q 3 mit q = l - p
= P q (P2 + q2) = 02(p ) . (P2 + Y ) gilt die erste Darstellung in (4), und die zweite folgt aus
(ii) 2 2 ~ = ( p + q ) ~ = p + 2 p q + q .
Weiter ist C(p) = C . f(a(p)) mit
(iii) -2 f ( x ) = x p l - L X , f l ( x ) = - X - 2 < O für X > O
Also ist f streng fallend in X > 0, und C(p) wird minimal, wenn a(p) maximal wird, 1 d.h. für a(p) = -. 2
![Page 80: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/80.jpg)
Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B 17- 6
Beweis von
Powl(p) = P{ U 2 - U +(P) } mit
![Page 81: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/81.jpg)
Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B17-7
Beweis von
(8) Pow;(p) = P{ U 5 U-(P) } mit
Analog dem Beweis von (5):
Es ist Pow;(p) = P
Beweis von
ES ist APowl(pl) > 1 - ß U u+(pl) "P
" J~(P~-PO) > ~ a g ~ + ~ ~ g ( p ~ )
![Page 82: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/82.jpg)
Beweise zu: 18. Likelihood-Quotienten Tests 3.8.06 B 1 8 - 1
Beweise zu 18. Likelihood-Quotienten Tests
18.1 Allgemeiner Likelihood-Quotienten Test
Beweis von
(9) X(xIHJ = min{l,X(xIHo,H1)}
Für S~ := S U ~ {L(BI X) I B E o ~ } , k = o , ~
ist ~ : = S U ~ { L ( ~ I X ) I ~ E @ = @ ~ U @ ~ } = max{s s } . 0' 1
Fall 1: so 5 sl bzw. S = S 1 '
Dannist X(xlHO,H1) = X(xlHJ 5 1 und (9) gilt.
Fall.2: s o > s l bzw. S = S 0 '
Dannist X(xlHO,H1) > 1 = X(xlHO) und (9) gilt.
![Page 83: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/83.jpg)
Beweise zu: 19. Vergleich zweier Erwartungswerte (Normalverteilung) 3.8.06 B 19 - 1
Beweise zu 19 Vergleich von zwei Erwartungswerten bei
Normalverteilungen mit gleichen Varianzen
19. 2 Der zweiseitige t-Test als Likelihood-Quotienten-Test
Beweise von
Aus der log-Dichte
ergeben sich die einzelnen log-Likelihoods
(ii) 2 2 1 1% L(Px, 0 I X) = [(i~y, 0 I X) - 2 nx log(24
2 2 1% L(Py, 0 l Y) = [(PY, 0 l Y) - $ ny log(24
(iii) 2 1 2 1 2 [(Px, 0 I X) = - - 2 [ nxlog(. + F :<Xi- P,) I
2 2 1 2 [(PY, 0 l Y) = - + [ nylog(a + C(Yi-Py) 1.
2
Das gesamte log-Likelihood ist daher
mit
2 2 2 Für festes a is [(-, a I X) bzw. [(-, a I y) streng konkav mit (eindeutig bestimmten)
Maximalstellen
![Page 84: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/84.jpg)
Beweise zu: 19. Vergleich zweier Erwartungswerte (N~rmalverteilun~) 3.8.06 B 19 - 2
Dies sind auch die ML-Schätzungen von px und p Zur Bestimmung der ML- Y'
2 Schätzung von a minimieren wir die Funktion
1 2 1 2 = nxlog(a2) + 7 C(Z-fix) + nylog(a2) + 7 C ( ~ ~ - f i ~ ) 0 2 0 2
1 2 2 = n log(02) + 7 [ C ( x i - ~ ) + C(yi- ~y I
2 2
2 1 = n log(o ) + 7 b mit
2 2 b = C(xi-fix) + C(yi-fiy) .
2 2
Aus 2 n b 1 b hl(a ) = 7-- - o4 - -[.-,I o2
folgt
Damit ist
8 2 - - (vii) L n 2 2
die (eindeutig bestimmte) Minimalstelle von h. Die Schätzung 8; ist nicht erwar-
tungstreu, denn nach 3.2 (5) gilt
(viii) 1 2 2 2 2 2 E{~;(x,Y)} = ---[(nx-I)a +(ny-1)" ] = a [I----I < a .
A 2 - A 2 Das zugehörige Maximum des Log-Likelihoods gilt dann, wobei abkürzend a - a L
2 = - 2 [(fix, 82 1 X) - 2 [(,Ly, 8 1 y) + n log(2ir) vgl. (iv)
= n iog(e2) + 4 [ C (xi- fiX12 + C (yi- ,Ly )2 ] + n log(%) vgl. (iii) 0 2 2
= n + n + n log(2ir) vgl. (vii).
Unter der zweiseitigen Nullhypothese Ho: px = py = p sind X und Y identisch verteilt
und die ML-Schätzungen ergeben sich wie in (7) angegeben, wobei 82 wieder nach 0 L
3.2 nicht erwartungstreu ist.. Für das zugehörige Maximum des Log-Likelihoods gilt A 2 A 2 dann analog (ix) - wobei wieder abkürzend a = a 0 OL
![Page 85: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/85.jpg)
Beweise zu: 19. Vergleich zweier Erwartungswerte (N~rmalverteilun~) 3.8.06 B 19 - 3
(4 - 2 log L(fiox, fiOY, "- I X,Y
= n log(8,2) + & [ z(xi- z ) ~ + c ( ~ ~ - z ) ~ ] + n log(2~) Oo 2
2 1 = n ) + 7 Szz + n log(27~) Oo
= n log(#) + n + n 1og(2~)
Und (8) ergibt sich dann aus
vgl. (7).
(xi) 2 log X(x, Y I Ho)
A 2 = 2 log L(fiox, fioy, gor. I .,Y) - 2 1% L(fix, fiy, 8; I x,y)
= n - log(&:)] vgi. (ix) (X).
![Page 86: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/86.jpg)
Beweise zu: 19. Vergleich zweier Erwartungswerte (N~rmalverteilun~) 3.8.06 B 19 - 4
Beweise von
(10) S z z = sxx + s y y + (- 2 1 1 1 X -y ) (-+-)- nx n~
(11) - 2 log ~ ( x , y 1 H ~ ) = n log ( 1 + m L t2(x, Y ) ) .
- 1 1 1 Es ist z = K C zi = - [ C X . + C y . ] = - [n x + n Y ] n i z i~ n X Y d.h. (9)
2 gilt.
Aus C ( X . - g 2 = C ( X . - X12 + nx(X- g2 vgl. 3.2 (4) 2 2
- und 1 X - Z = - [ ( n - n ) X - n Y ] n X Y vgl. (9)
1 = - n [ X - Y ] n Y folgt
( 2 ) 1
C (xi - Z) = sxx + nx [ K n - Y ) ] 2 und analog
2
(ii) C ( y i - 2 l 2 = ~ y y + n y [ i n y ( y - % ) I 2 . 2
Also 2 S z z = C ( X . - Z ) + C ( Y . - Z ) 2
i i 1
= S x x + S y y + ?nxnY(nx + n y ) ( ~ - y ) 2
1 1 1 -1 und mit - n n X n Y - ( G + F ) - folgt (10).
Zum Nachweis von (11) ergibt sich aus (8) bzw. aus (ix) des letzten Beweises
(iii) 2 2 - 2 log X(x, y I Ho) = 10g(O.~,) - log(&, ) n
S z z = 105 [ S x x + S y y
s z z 1 1 1 Nun ist - - 1 + [(sxx + S Y Y ) ( ~ + sxx +SYY
= 1 + (X-y12 [m ~.:(x,y)]', vgl. (14) (15)
1 2 = l + ; t (",Y)
und mit (iii) ergibt sich (8).
![Page 87: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/87.jpg)
Beweise zu: 19. Vergleich zweier Erwartungswerte (N~rmalverteilun~) 3.8.06 B 19 - 5
Beweise von
(18) 2 q X - Y ) = N ( A ~ , % ) mit
Aus .d(x) = ~ ( p , 2 o 2 ) , qY) = ~ ( p ,L2) X nx Y n~
und der Unabhängigkeit von X und Y folgt (18).
Aus 2 2 S X X - D . 2 2 Xn -1
S Y Y - D . Xn - 1 , vgl. 4.1 (4)
X Y
und der Unabhängigkeit von S X X und S Y Y folgt
2 2 m & 2 ( ~ , ~ ) = ( S X X + SYY) - D . xm
und 1 1 1 1 2 2 2 2 ~&;(x ,Y) = m & 2 ( ~ , ~ ) ( - + - ) - ( - + - ) D . x m = on.xm nx n~ nx n~
d.h. (20) gilt. Zum Nachweis von (21) stellen wir T dar als
mit U = (X-Y)/oA - N(7, 1) nach (18)
2 V = m &:(X, Y ) /oA - x m 2 nach (20).
- - Nun sind U und V nach 6.1 (2) unabhängig, weil U nur von ( X , Y') und V nur von
( S X X , S Y Y ) abhängt. Also folgt (21) mit der Definition der nichtzentralen
t -Verteilung (vgl. Exkurs V 2.2). m
![Page 88: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/88.jpg)
Beweise zu: 19. Vergleich zweier Erwartungswerte (N~rmalverteilun~) 3.8.06 B 19 - 6
19.4 Konfidenzgrenzen für die Differenz der Erwartungswerte
Beweise von
(2) B T , ) = in-, .
Der Beweis von (2) verläuft analog dem von 19.3 (21). Es ist
mit
U = ( K - ~ - A ~ ) / D , - N(0, l ) nach 19.3 (18),
2 V = m &:(X, Y ) /D, - xm 2 nach 19.3 (20).
- - U und V sind nach 6.1 (2) unabhängig, weil U nur von ( X , Y) und V nur von ( S X X ,
S Y Y ) abhängt. Also folgt (2) mit der Definition der zentralen t -Verteilung (vgl. m Exkurs V 2.2).
Beweise zu
(3) (a&= nfi-Jnia = ( X - Y ) - $ n; a bzw.
(AP) o = 4 + Jn; = ( % - Y ) + $ n; a mit
(4) $ : = t n; a .a n-2;a A '
Zu zeigen ist, daß die Grenzen die Sicherheit 1- U haben. Mit m = n - 2 gilt:
P { ( % - Y ) - t m; a .8 ,<Ap} = P{T ,<tmia} = 1-U vgl.(2).
P { ( % - Y ) + t m; a .8 ,>Ap} = P{T,>- tmia} = 1-U vg1.(2).
![Page 89: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/89.jpg)
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 1
Beweise zu 20. Vergleich von zwei Erwartungswerten bei beliebigen
Verteilungen
20.1 Herleitung einer Teststatistik
Beweis von
Esis t V a r ( A , L ) = V a r ( X - Y ) = V a r ( X ) + Var(Y)
Beweis von
1 1 n Die zweite Darstellung folgt aus - + - = - . nx n~ n x n ~
![Page 90: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/90.jpg)
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 2
20.2 Asymptotische Verteilung der Teststatistik
Beweise von
(6) 2 fi [nfin - AP] - ~ ( 0 , T ~ ) wobei
Aus dem zentralen Grenzwertsatz ergibt sich (vgl. auch 1.1 (5))
bzw.
Analog ergibt sich
(ii) k ~n [ Y ( ~ ) - P„] - 2 N(O , $ aJ) . Y
Da x ( ~ ) und v ( ~ ) voneinander unabhängig sind, ergibt sich aus (i) und (ii) - vgl. Ex-
kurs KV 5 -
Also gilt (6), woraus sich (8) nach Division durch T = a fi ergibt.
![Page 91: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/91.jpg)
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 3
Beweise von
I p { ~ l , < x ) - P { N ( o , ~ ) < X ) 1 C (9) für alle X E IR
I p { ~ l , > x ) - P { N ( o , ~ ) > X ) 1
mit der positiven Konstanten
Die zentrierte Differenz Afi - Ap läßt sich darstellen als Mittelwert der zentrier- n
ten Zufallsvariablen
(ii)
Da alle X ! und Y ! stochastisch unabhängig sind folgt aus dem Theorem von Berry 2 2
und Essken (vgl. z.B. Gänssler-Stute 1977, Satz 4.2.10 und Korollar 4.2.15)
(iii) I p { ~ l , < x ) - P { N ( o , ~ ) < X ) 1 < - 6 T - ~ B für alle X E IR, wobei I p { ~ l , > x ) - P { N ( o , ~ ) > X ) 1
vgl. (ii)
1 Also ist 6 T - ~ B = - C. Jn
![Page 92: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/92.jpg)
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 4
Beweise von
- 2 n a P 2 A n - ' T ,
an, P - 1 , n
Aus P 2 - 2 - 0 Xn X '
folgt - 2 - n a - 1 - 2 1 - 2 P l a 2 +p2= 1 2 - -
A n C~ Oxn + + D y n C~ X Y Y 7 ,
Also gilt (11) und (12) folgt aus
O n n non, 'T P 'T sowie - - - - - - = l .
an n n a n n 80n (11) 'T
Und (13) ergibt sich durch Multiplikation von
mit (12).
Beweise von
(15) P T --Co n für A p < 0 bzw. p X < p y ,
(16) P T -+Co n für A p > 0 bzw. P x > P y .
Es gilt
vgl. (13)
und 8 - 0 ~ Z W . P P
A n Co,
n
AP - W für A p < O also
n + W für Ap>O '
vgl. (11)
Addition mit (i) liefert die Behauptungen, vgl. Exkurs KV 11 (4).
![Page 93: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/93.jpg)
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 5
20.4 Schärfe-Approximation für den einseitigen Tests
Beweise von
(3)
Es ist
Beweise von
mit
(5) Un+zaVn L N < o , ~ >
(4) folgt aus 20.2 (12), und (5) folgt direkt aus
U L N(0,l) n vgl. 20.2 (8)
mit den Rechneregeln über Verteilungskonvergenz (vgl. Exkurs KV 5).
![Page 94: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/94.jpg)
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 6
Beweis von
(8) 2 Jnzv -
a N(0, d 2 ) falls pqX i pqY < Für 82 = gilt nach 3.2 (8)
Xn
2 2 ~;;;[8;,-.,1 - N(0 , ( P , - 0; 1)
und Multiplikation mit cy3l2 = C-' f i /J;ix liefert X
( 2 ) 1 2 2 ~ n - [ < ~ - a , ] - ~ ( 0 , ~ : ) mit a 2 = c -3 4
Cx X X ( ~ 4 x - ~ x ) .
Analog gilt für 82 = Y n
(ii) 1 - 2 2 2 -3 4 -03 - J n , N(O, ay ) mit ay = c y (p4y - a
Da und unabhängig sind, ergibt sich aus (i) und (ii) mit K V 3
2 2 2 Jn& - D,] + Jn: [ & J n - D y ] - ~ ( 0 , a2)
mit 2 2 2 a = a + a X Y
- 2 2 1 - 2 1 - 2 Wegen n a - T = - - - l a 2 - - A n
a2 C~ a ~ n n + ~ a ~ n cX X c y Y
folgt ~ n [ n 8 ; , - ~ ~ ] - ~ ( 0 , a2)
Für die Funktion F(x) = x1I2 ergibt sich daher mit der Delta-Methode (vgl. Exkurs
K V 14)
(iii) J ; I [ J ~ ~ A , - T I F N(O, b 2 ) mit
2 2 1 71/2. a2 b = F'(T) . a =
Division durch T = \/;; Q ergibt
(iu) - J" vn ~ ( 0 , b 2 y 2 )
2 2 und Multiplikation von (iu) mit - L ergibt die Behauptung für d = ( b 7 '2 , ) . a
![Page 95: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/95.jpg)
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 7
20.5 Versuchsplanung für den einseitigen Test
Beweise zu
mit
bzw. 7-25 > z a - ß
Die Äquivalenz von (1) und (1) folgt direkt aus
Beweise zu
2 1 2 a 2 Esist T ( c ~ ) = G ~ ~ + ~ Y
Wir betrachten allgemeiner für festes a, b E IR die Funktion
f(x) = a Z + b ( l - x ) - ~ für O < X < I
mit -2 f 1 ( X ) = - . X + b ( l - q 2
Für a, b > 0 ist f " ( X ) > 0 und somit ist f streng konvex. Wegen
![Page 96: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/96.jpg)
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 8
hat f für dieses X eine Minimalstelle.
2 2 2 Für a = ox und b = oy ist daher T (cx) streng konvex mit der Minimalstelle (6).
f l
folgt 2 2 ( C ; ) = = (ox+oY) , d.h.(7)gilt.
![Page 97: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/97.jpg)
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 9
20.6 Zweiseitiger Tests: Schärfe und Versuchplanung
Beweis von
(2) ergibt sich aus den Herleitungen in 20.4 mit statt a. Und (3) folgt aus (2)
durch Vertauschen von X mit Y, weil dann die Teststatistik T = t ( Y , X ) ihr Vorzei-
chen ändert und somit
20.7 Konfidenzgrenzen für die Differenz der Erwartungswerte
Beweise zu
(1) (ap) U = nfi-da = (X-Y)-da ~ Z W .
(ap) = ~ f i + d = (X-Y) + d a mit o a
(2) : = z .& a a A '
(3) nfi I $ a = (X-Y)
Esgilt P { ( A ~ ) ~ < A ~ ) = ~ { ~ f i - z ~ . & ~ < A ~ )
Analog P { ( A ~ ) ~ < A ~ ) = ~ { ~ f i + Z ~ . & ~ < A ~ )
1 = ~ { ~ ( n f i - a p ) < - z a } - I - ~ ~ 1 . 20.2 (13). On
Folglich haben die Konfidenzgrenzen (1) - und damit auch das Konfidenzintervall
(3) - die asymptotische Sicherheit 1 - a.
![Page 98: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/98.jpg)
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B21-1
Beweise zu 21. Vergleich von zwei Wahrscheinlichkeiten
21.2 Herleitung einer Teststatistik
Beweis von
Es ist var( Ap) = var( X - I) = var( X) + Var(Y)
21.3 Asymptotische Verteilung der Teststatistik
Beweise von
(5) ~n [njn - ~ p ] -i N ( o , T ~ ) wobei
(8) I p{un < x)-P{N(o,~) < X ) I C(px' für al le X E IR I p{un > x)-P{N(o,~) > X ) I
mit der positiven Konstanten
Es genügt, (8) zu zeigen, weil dann (7) folgt, woraus sich (5) nach Multiplikation mit
T = 4 ergibt. Die zentrierte Differenz A j - Ap läßt sich darstellen als Mittel- n wert der zentrierten Zufallsvariablen (Achtung bei Y!: Differenz umgekehrt LU X!)
2 2
![Page 99: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/99.jpg)
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B21-2
(ii) - 1 ,(X;+Y;) = -C(Xi-P,) + L c ( p y - ~ . ) 1
nx i n~ i 2
Da alle X! und Y! stochastisch unabhängig sind mit 3. absoluten Moment (vgl. Be- 2 2
weis von 17.4 (3)(4))
(iii) -3 -3 2 2 E{1x:l3} = cx E { I B ( ~ , P ~ ) - ~ ~ I ~ } = ox(1-20x))
-3 -3 2 2 E { I Y ~ ! I ~ } = E{IB(~ ,P , ) -P , I~ ) = o Y ( 1 - 2 0 Y ) .
folgt aus dem Theorem von Berry und Essken (vgl. z.B. Gänssler-Stute 1977, Satz
4.2.10 und Korollar 4.2.15)
I p {~ l , < x)-P{N(o,~) < X ) 1 (2.1 < - c s-3 B für alle X E IR, wobei I p {~ l , > x)-P{N(o,~) > X ) 1
(4 2 2 2 s = Var(X1 + Y I ) = n2 v ~ ~ ( A ~ ( x , Y ) ) = n o t t
vgl. (ii)
( ~ ~ 1 B = n x ~ { ~ ~ 2 ! 1 3 ) + n y ~ { ~ ~ ~ 1 3 )
-2 2 2 -2 2 2 = n [cX o x ( l - 2 o x ) + C, 0, ( 1 - 2 o y ) ] , vgl. (iii)
1 Alsoist c sP3B=-C(p p ) fi X ' Y '
![Page 100: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/100.jpg)
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 3
Beweise von
P Aus P Pxn - p X , P ~n - PY
folgt P P n = cxPxn + cY Pxn - c X p x + c Y p y = P 7 d.h. (10) gilt,
und na2 = 1 P 1 2 2 - ."Pn) - On c X c y - 0 ( P ) = >
d.h. (11) gilt, Cx C~
O n O n 'T P 'T sowie - - - - -
80n 80n 80n (11) 'TO
7
Und (13) ergibt sich durch Multiplikation von
mit
d.h. (12) gilt.
![Page 101: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/101.jpg)
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 4
Beweise von
(15) P T --Co
n
(16) P T -+Co
n
Es gilt
und
also
f ü r A p < O bzw. p x < p y ,
für A p > 0 bzw. Px>Py.
vgl. (11)
a On 1 +CO für A ~ > o
Addition mit (i) liefert die Behauptungen, vgl. Exkurs KV 11 (4).
![Page 102: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/102.jpg)
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 5
21.5 Schärfe-Approximation für den einseitigen Tests
Beweise von
(1) Pow,(Px,PylQ) = P{T>z,} - = ~ { u + ~ a ~ > - u ( ~ x , ~ y ) }
Es ist
mit
1 U = - [np - ap] , 0
Die letzte Darstellung von V folgt aus
mit
![Page 103: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/103.jpg)
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 6
Beweise von
(5) Un+zaVn L N(0,l)
Die zweite Darstellung von V folgt aus n
(2) 0 On f i = = , O n & = =
und die Konvergenz in (4) ergibt sich aus der Konsistenz der Schätzung 8 0
(ii) 80n -
- " n h p
1 , vgl. (i) und 21.3 (11). 00 =o
Und (5) folgt mit (4) direkt aus
1 U :=-[njn-aP] L N(0,l) vgl. 21.3 (7) On
mit den Rechneregeln über Verteilungskonvergenz (vgl. Exkurs KV 5).
![Page 104: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/104.jpg)
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B21-7
Beweis von
(8) 2
J n z v - a ~ ( 0 , d2) für ein d>O .
ES ist j = i (X?) + ~ ( ~ 1 ) t mit
1 ,) = (nxpx + nypy) = CXPX + CyPy = P
1 2 2 2 1 2 2 U n : = V a r ( j n ) = (X) ( n x o X + n Y Y D ) = - (C n x x D + C Y Y D )
nach dem zentralen Grenzwert asymptotisch normalverteilt
(2) -112 2
[@',-P] I N(o,1) bzw. n
(ii) 2 J n [ P n - p ] I N(0,u2) mit
(iii) 2 2 V = C D + C D 2 > 0.
X X Y Y
Für die Funktion ~ ( p ) = [p(l-p)]1/2 ergibt sich daher mit der Delta-Methode (vgl.
Exkurs KV 14)
(4 Jn [D<@',> - 4 ~ ) I 2 - N(O, a2u2) mit
I 1 -112 = D (P) = 2 [P(~-P)] (1 -2p)> 0.
Man beachte, daß auch a = 0 zugelassen ist. Wegen
4 ~ ) = oOn J-, ~ ( $ 1 = J-, vgl. 21.2 (IO)(II)
läßt sich (U) wie folgt schreiben
(4 I 2 n J l i C y [ & O n - ~ O n l i N(O, a2u2)
und Division durch
T J% = D n \/;; J% liefert
(V;) -1 2
- J n n = Jn - oon] 0, - N(0, b2) mit
b2 = a2 u2 72 (cX cJ1 .
2 Multiplikation von (ui) mit -L ergibt die Behauptung für d = (ba12. a
![Page 105: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/105.jpg)
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 8
21.6 Versuchsplanung für den einseitigen Test
Beweise zu
mit
mit
Ap-z a Mit a o - - J n A p za7o
u(PX,PY) = 0 7 7
folgt APowl(pl) 2 1 - ß u(px, py) > "P
Beweise zu
(2) 1
7 < für C = C =- X Y 2
bzw.
2 2 2 2 2 0 X + 2 a Y = 7 < ~ ~ = 4 a ~ ( p ) für = 1 py) bzw.
1 2 1 2 2 1 1 2 a (px) + 2 a (pu) < a ( 2 p x + 2 p y ) da a2(-) konkav ist.
![Page 106: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/106.jpg)
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 9
21.7 Zweiseitiger Tests: Schärfe und Versuchplanung
Beweis von
(2) ergibt sich aus den Herleitungen in 21.5 mit statt a. Und (3) folgt aus (2) durch
Vertauschen von X mit Y, weil dann die Teststatistik T = t(Y,X) ihr Vorzeichen
ändert und somit
![Page 107: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/107.jpg)
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 21 - 10
21.8 Konfidenzgrenzen für die Differenz der Wahrscheinlichkeiten
Beweise von
(2) P 2 n 2 - T ,
n
(3) "n P - 1 (Konsistenz) . On
Aus der Konsistenz der Schätzungen
P P Pxn - PX X P ~n ' PY für n + CO , für n +CO
Y
ergibt sich
Also gilt (2) und somit auch
und Division durch T = fi 0 ergibt (3). Und (4) erhält man durch Division von (1) n und (3).
![Page 108: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/108.jpg)
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 21 - 11
Beweise zu
(5) ( ~ p ) u = ~ j - d a =@',-@',-da bzw.
(Ap) o = ~j +da = jx -P, + da mit
(6) :=z .4. a a
(7) np k d = px - pu +d - a/2.
Esgilt P{(Ap) U <np} = P{A~- za.4<np} 1
= ~{:(np-Ap)<~} - 1-a vgl.(4). 0
Analog P{(Ap) o >np} = P{A~ + z;b>np} 1
= P{~(A~-A~)>-Z,} - 1 - vgl.(4).
Folglich haben die Konfidenzgrenzen (5) - und damit auch das Konfidenzintervall
(7) - die asymptotische Sicherheit 1- a.
![Page 109: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/109.jpg)
Beweise zu: 22. Anpassungstests bei Multinomialverteilungen 3.8.06 B 22 - 1
Beweise zu 22. Anpassungstests bei Multinomialverteilungen
Die Beweise liegen noch nicht in digitaler Form vor.
![Page 110: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro](https://reader034.vdokument.com/reader034/viewer/2022050718/5e1666c047dfa047fd7eb498/html5/thumbnails/110.jpg)
Beweise zu: 23. Chiquadrat-Anpassungstests für Verteilungen 3.8.06 B 23 - 1
Beweise zu 23. Chiquadrat-Anpassungstests für Verteilungen
Die Beweise liegen noch nicht in digitaler Form vor.