skript theorien psychometrischer tests - fsr … · skript theorien psychometrischer tests carina...
TRANSCRIPT
Skript Theorien psychometrischer Tests
Carina Giesen
Dieses Skript basiert weitestgehend auf der Vorlesung von Prof. Steyer im SS 04 sowie der Vorlesung
von Hendryk Böhme im SS 06.
Hinweis: Pfaddiagramme sind im Anhang dargestellt!
1
Inhaltsverzeichnis
1 Einführung 2
2 Klassische Testtheorie, KTT 2
2.1 Grundlagen der Klassischen Testtheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.2 Dention der theoretischen Variablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.3 Kenngröÿen der Zuverlässigkeit bzw. Unzuverlässigkeit . . . . . . . . . . . . . . . . . . . . 3
3 Modelle der KTT I: τ-Äquivalenz (Modell paralleler Tests) 5
4 Modelle der KTT II: Essentielle τ-Äquivalenz (mit unkorrelierten Fehlern) 8
5 Modelle der KTT III: τ-Kongenerität (mit unkorrelierten Fehlern) 10
5.1 Exkurs:Identizierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
6 Strukturgleichungsmodellierung mit Lisrel 13
6.1 Lisrel-Syntax - Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
6.2 Modellüberprüfung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.2.1 Modellüberprüfung auf τ -Äquivalenz . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.2.2 Modellüberprüfung auf essentielle τ -Äquivalenz . . . . . . . . . . . . . . . . . . . . 16
6.2.3 Modellüberprüfung auf τ -Kongenerität . . . . . . . . . . . . . . . . . . . . . . . . . 17
7 Latent State-Trait (LST)-Theorie 18
7.1 Grundannahmen der LST . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
7.2 Denition der theoretischen Variablen: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
7.3 Reliabilität, Konsistenz, Situationsspezität, Stabilität . . . . . . . . . . . . . . . . . . . . 20
7.4 Modelle der LST-Theorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
7.4.1 Singletrait-Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
7.4.2 Multistate-Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
7.4.3 Singletrait-Multistate-Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
7.4.4 Berücksichtigung von Methodenfaktoren . . . . . . . . . . . . . . . . . . . . . . . . 22
7.5 Modellüberprüfung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
7.5.1 Exkurs: (Alle) Modellgleichungen in Lisrel (siehe Fig. 10 (Anhang)) . . . . . . . 23
7.5.2 Modellüberprüfung: Multistate-Modell . . . . . . . . . . . . . . . . . . . . . . . . . 23
7.5.3 Modellüberprüfung: Singletrait-Multistate-Modell . . . . . . . . . . . . . . . . . . . 24
8 Item-Response-Theorie, IRT 26
8.1 Das dichotome Rasch-Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
8.2 Mehrparametrische Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
9 Partial-Credit-Modell 33
9.1 Grundannahmen des Partial-Credit-Modells . . . . . . . . . . . . . . . . . . . . . . . . . . 33
10 Latent Class Modelle 35
Literatur 37
1
1 Einführung
Dieses Skript beschäftigt sich mit unterschiedlichen Testtheorien, die sich jeweils für die Relation zwischen
empirischen Testwerten und den Merkmalsausprägungen eines Merkmalsträgers (hier: Personen)
interessieren.
Psychologische Tests stellen also Messverfahren dar, die Merkmalsausprägungen durch das Hervorrufen
von diagnostisch relevantem Verhalten erfassen. Man versucht Merkmalsträger gleichen bzw. vergleichba-
ren Situationen auszusetzen, so dass Unterschiede im Verhalten auf den Merkmalsträger zurückgeführt
werden können.
Jede Testheorie zeichnet sich durch die Einführung theoretischer Gröÿen aus sowie durch eine Spezi-
kation unterschiedlicher Messmodelle, durch die theoretische Begrie mit empirischen Begrien (z.B.
Antworten auf Items) verknüpft werden. Mit einem Messmodell werden also bestimmte empirische Ge-
setze postuliert, aus deren Gültigkeit die Existenz einer theoretischen Gröÿe logisch abgeleitet werden
kann. Die Gültigkeit der postulierten empirischen Gesetze wird dann in Anwendungen überprüft und ggf.
falsiziert (Steyer & Eid, 2001).
Wie gelangt man über beobachtbare Testwerte an die dahinter liegenden latenten, nicht
direkt beobachtbaren psychologischen Konstrukte? ist die zentrale Frage der hier behandelten
Testtheorien.
2 Klassische Testtheorie, KTT
Alle folgenden Modelle der KTT haben Testsummenvariablen oder kontinuierliche Variablen zum Gegen-
stand. D.h. das Items und Aufgaben hier einfach zu einen Testscore zusammengefasst werden - die Frage,
ob diese Zusammenfassung gerechtfertigt ist, wird in der KTT nicht gestellt (siehe dafür die Abschnitte
zur Item-Response-Theorie).
2.1 Grundlagen der Klassischen Testtheorie
Den Ausgangspunkt bildet das Zufallsexperiment, also ein empirisches Phänomen, das durch stochas-
tische Modelle beschrieben werden soll. Solch ein empirisches Phänomen ist z.B. die Durchführung eines
Tests.
• Die Menge der möglichen Ergebnisse Ω = ΩU × ΩO charakterisiert das Zufallsexperiment
Ziehe eine Person u ∈ ΩU und registriere eine Ausprägung aus der Menge ΩO der mgl. Merkmals-
ausprägungen
• Die Testwertvariable Yi : Ω → < ordnet Ergebnissen ω ∈ Ω einen quantitativen Wert zu und
repräsentiert fehlerbehaftete Testwerte
• Die Person-Projektion U : Ω → ΩU ist eine kategoriale Zufallsvariable deren Werte angeben,
welche Person gezogen wurde
2.2 Dention der theoretischen Variablen
• Die True-Score-Variable τi ist deniert als Regression der Testwertvariablen Yi auf die Perso-
nenvariable U :
τi := E(Yi | U)
Ihre Werte sind die bedingten Erwartungswerte E(Yi | U = u) der Variablen Yi bei gegebener
Person U = u.
2
Dabei ist zu beachten, dass der wahre Wert einer Person hinsichtlich Yi immer der Erwar-
tungswert der intraindividuellen Verteilung1 von Yi ist
• Die Messfehlervariable εi ist deniert als Abweichung der Testwerte einer Person von der True-
Score-Variablen τi:
εi := Yi − E(Yi | U)
• Eigenschaften der True-Score und Messfehlervariablen:
(i) Yi = τi + εi
(ii.a) Cov(Yi, Yj) = Cov(τi, τj) + Cov(εi, εj)
(ii.b) V ar(Yi) = V ar(τi) + V ar(εi)
(iii) E(εi) = 0
(iv) E(εi | U) = 0
(v) E(εi | f(U)) = 0 für jede Abbildung f(U) von U
(vi) Cov(τi, εi) = 0
(vii) Cov(εi, f(U)) = 0
(viii) Kor(Yi, τi) ≥ Kor(Yj , τj)
Hinweis: Diese Eigenschaften sind logische Folgerungen aus den Denitionen der True-Score und
Messfehlervariablen. Keine dieser Gleichungen kann in empirischen Anwendungen falsch sein, es sei denn,
man ginge von einer anderen Denition der theoretischen Gröÿen aus.
Siehe Fig. 1 (Anhang) für das Pfaddiagramm!
2.3 Kenngröÿen der Zuverlässigkeit bzw. Unzuverlässigkeit
Damit eine Testwertvariable Yi und das ihr zugrunde liegende Messverfahren als brauchbar betrach-
tet werden können, muss vorausgesetzt werden, dass ihre Varianz nicht ausschlieÿlich aus Fehlervarianz
besteht.
• Die Reliabilität ist ein Gütekriterium von Tests und gibt die Messgenauigkeit an. Ihr Kennwert
ist
Rel(Yi) =V ar(τi)V ar(Yi)
=V ar(E(Yi | U)
V ar(Yi)= R2
Yi|U
An der Formel erkennt man, dass es sich bei der Reliabilität um einen speziellen Determina-
tionskoezienten handelt (Vergleiche mit Steyer (2003), S. 89)
Die Reliabilität gibt an, wie viel Varianz der True-Score an der Varianz der Testwerte aufklärt.
Inhaltlich: Je gröÿer der Reliabilitätskoezient, desto geringer der zu erwartende Fehler bei
der Messung der in Frage stehenden latenten Variablen.
Wertebereich der Reliabilität: [0;1]
• Neben der Reliabilität bzw. der Unreliabilität 1−Rel(Yi) kann man auch die Fehlervarianz V ar(εi)
als Kennwert für die Unzuverlässigkeit einer Messung betrachten. Es besteht die folgende Beziehung:
V ar(εi) = V ar(Yi) · [1−Rel(Yi)]1Beim Komzept der intraindividuellen Verteilung geht man davon aus, dass der zu erhebende Testwert einer Person nicht
völlig festliegt, sondern nur mit einer bestimmten (unbekannten) Wahrscheinlichkeit auftritt. Die Auftretenswahrscheinlich-
keit für jeden mgl. Testwert ist durch die intraindividuelle Verteilung festgelegt!
3
• Der Standardmessfehler Std(εi) entspricht der Wurzel aus der Fehlervarianz:
Std(εi) = Std(Yi) ·√
1−Rel(Yi)
Er ist ein Kennwert für die durchschnittliche Abweichung der Testwerte von den wahren Wer-
ten.
Weiterhin lässt sich mit dem Standardmessfehler abschätzen, wie stark eine einzelne Messung
messfehlerbehaftet ist.
Er erlaubt ebensfalls die Angabe eines Kondenzintervalls, also des Bereichs, in dem der wahre
Wert einer Psn mit einer bestimmten WSK liegt: Yi ± zα/2 · Std(εi)
Alle hier aufgeführten Formeln für die Reliabilität taugen nur zu ihrer Denition, nicht aber zu ihrer
empirischen Bestimmung. Will man Formeln ableiten, nach denen sich die Reliabilität aus empirisch
schätzbaren Gröÿen wie Varianzen und Kovarianzen der manifesten Variablen Yi bestimmen lässt,
benötigt man weitere (restriktive) Modellannahmen!
Modelle der Klassischen Testtheorie
Unter der Annahme, dass zwei oder mehr Tests eine gemeinsame latente Variable erfassen,
unterscheiden sich die Modelle der KTT hinsichtlich:
• Relationen der true scores der verschiedenen Tests zueinander
• Varianzen und Kovarianzen der manifesten und latenten Variablen sowie der Fehlervarianzen
Daher ergeben sich für die Modelle Unterschiede in der Restriktivität und Parameteranzahl, in der
Identizierbarkeit der Kennwerte theoretischer Gröÿen und in ihrer Testbarkeit.
Im Folgenden werden drei Modelle der KTT behandelt, die zusätzlich zu den Denitionen der
KTT weitere Modellannahmen liefern, anhand derer die Kennwerte der latenten Variable identiziert
werden können!
4
3 Modelle der KTT I: τ -Äquivalenz (Modell paralleler Tests)
Beispiel: Angenommen, man hat drei verschiedene Testteile Y1, Y2, Y3 und möchte wissen, ob es sich da-
bei um parallele Testformen handelt (d.h. ob alle Testteile die gleiche latente Variable messen; siehe
Pfaddiagramm zur Verdeutlichung der zugrunde liegenden Modellstruktur).
Das Modell τ -äquivalenter Tests bietet eine Präzisierung, was man unter das Gleiche messen verstehen
kann.
Anhand der vorliegenden manifesten Variablen verfügt man über 6 bekannte Gröÿen: V ar(Y1),
V ar(Y2), V ar(Y3), Cov(Y1, Y2), Cov(Y2, Y3), Cov(Y3, Y1). Allgemein lässt sich die Anzahl gegebener Va-
rianzen und Kovarianzen durch die Formel (m · (m + 1))/2 berechnen!
Diesen bekannten Gröÿen stehen aber 12 Unbekannten gegenüber, nämlich jeweils 3 Varianzen und jeweils
3 Kovarianzen für εi und τi. Damit die unbekannten Gröÿen geschätzt werden können, sind Restriktionen
in Form von Modellannahmen notwendig (siehe an dieser Stelle auch den Exkurs Identizierbarkeit im
Kapitel 5!):
• Modellannahmen:
(a) τ -Äquivalenz: τi = τj = η: Die True Scores zweier Tests sind identisch mit einer zugrunde
liegenden latenten Variable η
(b) Cov(εi, εj) = 0, i 6= j: Die Fehler beider Tests sind unkorreliert
(c) V ar(εi) = V ar(εj): Die Fehlervarianzen zweier Tests sind gleich (homogen).
Zurück zum Beispiel: Durch Annahme 1 gibt es keine 3 True-Score-Variablen mehr, sondern nur
noch eine latente Variable, wodurch auch nur noch eine Varianz V ar(η) geschätzt werden muss;
durch Annahme 2 und 3 muss nur noch eine Fehlervarianz V ar(εi) geschätzt werden (siehe Fig.2
(Anhang): Pfaddiagramm Modell paralleler Tests). Das heiÿt, dass aus 6 bekannten Gröÿen nur
noch 2 Unbekannte geschätzt werden müssen - somit verbleiben 4 Gleichungen zum Modelltest -
die sogenannten Freiheitsgrade!
• Identikationen:
Anhand der zusätzlichen Modellannahmen lassen sich die Kennwerten der theoretischen Variablen
nun durch Kennwerte der manifesten Variablen schätzen:
1. Modellgleichung: Yi = η + εi
2. E(η) = E(Yi)
3. V ar(η) = Cov(Yi, Yj), i 6= j
4. V ar(εi) = V ar(Yi)− Cov(Yi, Yj), i 6= j
5. Rel(Yi) = Kor(Yi, Yj), i 6= j
Ad (5): Hier ist zu beachten, dass nicht jede Korrelation Kor(Yi, Yj) als Reliabilität interpretiert
werden darf - auch dann nicht, wenn es sich z.B. um eine wiederholte Messung mit dem gleichen
Test handelt. Sowohl die Paralleltest-Korrelation als auch die Retest-Korrelation führen nur dann zu
einer Reliabilitätsschätzung, wenn die oben aufgeführten Annahmen der (essentiellen) τ -Äquivalenz,
unkorrelierter Fehler und homogener Fehlervarianzen erfüllt sind!
5
• Vom Modell implizierte Kovarianzstruktur:
Cov(Yi, Yj) = Cov(η + εi, η + εj)
= Cov(η, η) + Cov(η, εj) + Cov(εi, η) + Cov(εi, εj)
= V ar(η) = σ2η
V ar(Yi) = V ar(η + εi)
= V ar(η) + V ar(εi) + 2 · Cov(η, εi)
= V ar(η) + V ar(εi) = σ2η + σ2
εi
Handelt es sich also um ein Modell paralleler Tests, muss sich also folgende Kovarianzmatrix ergeben:V ar(η) + V ar(εi)
V ar(η) V ar(η) + V ar(εi)
V ar(η) V ar(η) V ar(η) + V ar(εi)
Allerdings muss es sich noch lange nicht um ein Modell paralleler Tests handeln, wenn man sol-
che eine Kovarianzmatrix erhält (Falsikationsprinzip) - es kann höchstens sein, dass keiner der
Modelltests (siehe unten) dagegen spricht - dennoch kann die Hypothese dadurch nicht veriziert
werden!
• Testbarkeit in der Gesamtpopulation:
1. E(Yi) = µ: Sind die Erwartungswerte aller Subtests gleich und entsprechen damit dem Popu-
lationsparameter µ?
2. V ar(Yi) = V ar(η) + V ar(εi): Sind die Varianzen aller Subtests gleich?
3. Cov(Yi, Yj) = V ar(η), i 6= j: Sind die Kovarianzen alle gleich?
Die Annahmen 2 und 3 werden gleichzeitig bei der Überprüfung der Kovarianzstruktur getestet -
dabei wir die empirisch vorgefundene Kovarianzmatrix mit der vom Modell implizierten Kovarianz-
struktur verglichen. Für diese Art der Modellprüfung ist auch die Annahme unkorrelierter Fehler
notwendig (genauso wie zur Reliabilitätsbestimmung).
• Testbarkeit innerhalb jeder Subpopulation: E(s)(Yi) = µs: Gleichheit der Erwartungswerte
aller Tests muss auch in jeder Subpopulation gelten!
• Testverlängerung und Reliabilität:
Wird ein Test um einen zweiten (parallelen) Test verlängert, vervierfacht sich die True-score-
Varianz, während sich die Fehlervarianz lediglich verdoppelt: Es gelte das Modell paralleler Tests,
dann folgt:
V ar(Y1 + Y2) = V ar(Y1) + V ar(Y2) + 2Cov(Y1, Y2)
= V ar(τ1) + V ar(ε1) + V ar(τ2) + V ar(ε2) + 2Cov(τ1, τ2)
= 4 · V ar(τi) + 2 · V ar(εi)
Spearman-Brown-Formel zur Testverlängerung: Verlängert man den Test durch Summie-
rung der Testwerte auf das m-fache, dann ergibt sich unter den Voraussetzungen (essentieller)
τ -Äquivalenz, unkorrelierter Fehler und homogener Fehlervarianzen die Reliabilität der Summen-
variable:
Rel(S) = Rel(m∑
i=1
Yi) =m ·Rel(Yi)
1 + (m− 1) ·Rel(Yi)
6
Cronbachs α: Ein weiterer Kennwert für die Reliabilität der Summenvariable S ist Cronbachs α
(auch: Konsistenzkoezient), sofern die Annahmen der (essentiellen) τ -Äquivalenz und unkorrelier-
ter Fehler erfüllt sind. Gilt nur die Annahme 2, unterschätzt Cronbachs α die Reliabilität leicht und
bildet somit eine untere Schranke der Reliabilität!
α :=m
m− 1·[1−
∑mi=1 V ar(Yi)V ar(S)
]
7
4 Modelle der KTT II: Essentielle τ -Äquivalenz (mit unkorrelier-
ten Fehlern)
Im Vergleich zum Modell τ -äquivalenter Tests wird im Modell essentieller τ -Äquivalenz in etwas weniger
restriktiver Weise präzisiert, was es heiÿt, wenn zwei (oder mehr) Tests die gleiche latente Variable
messen.
Warum sollte man eine latente Variable überhaupt mehrfach messen (durch Retest- oder
Paralleltest-Verfahren)?
Durch mehrfache Messung ist es möglich, Informationen über die Zuverlässigkeit der Messungen zu
erhalten (= Aussagen über den Reliabilitätskoezienten). Als zweiten Grund lässt sich anführen, dass
durch mehrfache Messung derselben Eigenschaft die Möglichkeit entsteht, damit die Zuverlässigkeit
der Messung zu erhöhen.
Pralleltest-Verfahren: Yi und Yj repräsentieren Parallelformen eines Tests.
Retest-Verfahren: Yi und Yj sind beides Testwerte eines wiederholt vorgelegten Tests.
• Modellannahmen:
(a) Essentielle τ -Äquivalenz: τi = τj + λij , λij ∈ <Subtraktive Parametrisierung: τi = η − λi
Jede reelle Konstante λi charakterisiert die jeweilige Variable Yi. Ein Wert der latenten Va-
riablen η kennzeichnet die Beobachtungseinheit u, da η eine beliebige Translation jeder True-
Score-Variablen τi ist.
Nach der subtraktiven Parametrisierung haben die beobachteten Variablen Yi, abgesehen von
den Konstanten λi, die gleichen True-Score-Variablen τi.
(b) Unkorrelierte Fehler: Cov(εi, εj) = 0, i 6= j
Mit dieser Annahme sind korrelative Abhängigkeiten zw. den Y -Variablen nur insoweit zuge-
lassen, als sie auf eine Korrelation der entsprechenden True-Score-Variablen zurückzuführen
sind.
• Eindeutigkeit:
η und die Konstanten λi sind durch die Annahmen eindeutig bis auf Translationen deniert, da
Translationen der Form η′ = η + α bzw. λ′i = λi + α, i = 1, . . . m, α ∈ < die Gleichung τi = η− λi
erfüllen:
η′ − λ′i = (η + α)− (λi + α)
= η + α− λi − α
= η − λi = τi
Demzufolge gibt es also eine ganze Familie von Variablen η mit den zugehörigen Koezienten λi,
die die Gleichung aus Annahme (a) erfüllen. Jeder Repräsentant η einer solchen Familie ist eine
Translation jedes anderen Repräsentanten.
Sind theoretische Gröÿen eindeutig bis auf Translationen deniert, heiÿen sie dierenzskaliert.
• Bedeutsamkeit:
Eine Aussage über eine theoretische Gröÿe ist in einem Messmodell bedeutsam, wenn ihr Wahr-
heitswert invariant bzgl. der zulässigen Transformationen ist. Dies gilt z.B. für die Aussagen
η(ω1) − η(ω2) (Fähigkeitsdierenzen zweier Psn); λi − λj (Unterschiede zweier Testparameter),
V ar(η), Rel(Yi). Dagegen ist z.B. der Erwartungswert E(η) nichtbedeutsam, da für beliebige Re-
präsentanten η und η′ nicht E(η) = E(η′) gilt.
8
• Normierung:
In der subtraktiven Parametrisierung zu Annahme (a) wurden zwei theoretische Gröÿen eingeführt,
die jedoch beide nicht eindeutig deniert sind. Um völlige Eindeutigkeit herzustellen (und als Folge
theoretische Gröÿen identizieren zu können), müssen willkürliche Normierungen eingeführt
werden, die dazu führen, dass sowohl η als auch die Koezienten λi eindeutig festgelegt sind. Man
unterscheidet zwei Arten von Normierung:
1. Festsetzung des Erwartungswerts der latenten Variablen: E(η) = 0
E(Yi) = E(η − λi + εi)
= E(η)− λi
⇔ λi = −E(Yi)
2. Fixierung eines Koezienten λ1 = 0 führt zu E(Y1) = E(η − λ1 + ε1) = E(η); einsetzen von
E(η) = E(Y1) in E(Yi):
E(Yi) = E(η)− λ1
⇒ E(Yi) = E(Y1)− λi
⇔ λi = E(Y1)− E(Yi)
• Identikation: (Siehe Pfaddiagramm Fig. 2 (Anhang))
1. Modellgleichung: Yi = η − λi + εi
2. V ar(η) = Cov(Yi, Yj), i 6= j
3. V ar(εi) = V ar(Yi)− V ar(η) = V ar(Yi)− Cov(Yi, Yj), i 6= j
4. Rel(Yi) = Cov(Yi,Yj)V ar(Yi)
, i 6= j
• Implizierte Kovarianzstruktur:
Für die Analyse der Kovarianzstruktur sind die additiven Konstanten λi irrelevant, da Kovarianzen
invariant unter Translationen der beteiligten Variablen sind. Somit ergibt sich für 3 Variablen die
gleiche implizierte Kovarianzstruktur wie beim Modell τ -äquivalenter Tests mit
Cov(Yi, Yj) =
V ar(η), i 6= j
V ar(η) + V ar(εi), i = j
• Testbarkeit:
Erwartungswertstruktur zw. verschiedenen Subpopulationen:
Eine prüfbare Konsequenz aus Annahme der essentiellen τ -Äquivalenz ist die Gleicheit der
Erwartungswerte der Dierenzvariablen Yi − Yj in 2 Subpopulationen U (1), U (2) ⊂ U :
E(1)(Yi − Yj) = E(2)(Yi − Yj) = λij
Die Erwartungswertstruktur ist schon mit m = 2 Y -Variablen prüfbar: E(Y1), E(Y2) sind
gegeben, nur der Parameter λij muss geschätzt werden, lässt df = 1 zum Modelltest.
Kovarianzstruktur in der Gesamtpopulation:
Eine weitere prüfbare Konsequenz ist die Gleichheit der Kovarianz verschiedener essentiell τ -
äquivalenter Variablen Yi und Yj , i 6= j, die zugleich der Varianz V ar(η) entspricht.
Diese Kovarianzstruktur ist ab m = 3 Y -Variablen überprüfbar: Gegeben sind je 3 Varianzen
und 3 Kovarianzen der Variablen Y1, Y2, Y3; gesucht werden V ar(ε1), V ar(ε2), V ar(ε3), V ar(η),
bleiben df = 2 zum Modelltest!
9
5 Modelle der KTT III: τ -Kongenerität (mit unkorrelierten Feh-
lern)
Auch im dritten Modell der KTT ist die Grundidee die mehrfache Messung der gleichen latenten
Variablen. Anstelle der Annahme essentieller τ -Äquivalenz tritt jetzt die Annahme der τ -Kongenerität,
d.h. das Modell ist wieder etwas weniger restriktiv wenn es darum geht zu präzisieren, was es heiÿt, das
gleiche latente Merkmal zu messen.
• Modellannahmen:
(a) τ -Kongenerität: τi = λij0 + λij1 · τj , λij0, λij1 ∈ <, λij1 > 0. Die True-Score-Variablen sind
lineare Funktionen voneinander.
Subtraktive Parametrisierung: τi = λi1(η − λi)
Klassische Parametrisierung: τi = λi0 + λi1 · η
(b) Unkorrelierte Fehler: Cov(εi, εj) = 0, i 6= j
Erläuterungen:
Beide Parametrisierungen sind ineinander überführbar:
τi = λi1 · (η − λi)
= λi1 · η−λi1 · λi︸ ︷︷ ︸λi0
= λi0 + λi1 · η
Bedeutung der Parameter der subtraktiven Parametrisierung:
Je gröÿer λi (Testparameter; Schwierigkeit), desto kleiner der Erwartungswert von Yi bei
Betrachtung einer bestimmten Psn
Je gröÿer der Wert der Psn auf η (Psn-Parameter; Fähigkeit) desto gröÿer der bedingte
Erwartungswert der Psn auf der Variablen Yi
Je gröÿer λi1 (Testparameter), desto stärker wirkt sich der Unterschied η − λi auf den
Wert der Variablen Yi aus
• Eindeutigkeit:
Auch in diesem Modell sind die Variable η und die reellen Konstanten λi und λi1 nicht eindeutig
deniert, da die Annahme der τ -Kongenerität auch bei positiven linearen Transformationen der
Parameter η und λi( sprich: η′ = βη + α; λ′i = βλi + α) und Ähnlichkeitstransformationen der
Parameter λi1 (λ′i1 = λi1
β ) erfüllt bleibt:
τi = λ′i1 · (η′ − λ′i)
=λi1
β· [(βη + α)− (βλi + α)]
=λi1
β· βη +
λi1
β· α− λi1
β· βλi −
λi1
β· α
= λi1η − λi1λi = λi1(η − λi)
Demnach sind η und λi intervallskaliert, während λi1 verhältnisskaliert ist.
• Bedeutsamkeit:
Invariante Wahrheitswerte unter den zulässigen Transformationen haben z.B. Aussagen überη(ω1)−η(ω2)η(ω3)−η(ω4)
(Verhältnis der Fähigkeitsunterschiede von 4 Psn); λi1λj1
und λ2i1V ar(η)
10
• Normierung:
Auch in diesem Modell muss um völlige Eindeutigkeit herzustellen eine Normierung der latenten
Variablen η eingeführt werden, damit die Koezienten λi und λi1 eindeutig deniert sind. Dazu
gibt es zwei Möglichkeiten:
1. Standardisierung, d.h. E(η) = 0 und V ar(η) = 1; dann folgt für λi1:
V ar(τi) = V ar(λi1η − λiλi1)
= λ2i1V ar(η) (da λiλi1 = konstant)
⇔ V ar(τi) = λ2i1
⇒ λi1 = Std(τi)
Für λi folgt:
E(Yi) = E(τi + εi)
= E(λi1η − λiλi1 + εi)
= λi1 · E(0)− λiλi1 (Einsetzen von λi1)
⇔ λi =E(Yi)
Std(τi)
2. Fixierung der λ- Koezienten für einen einzigen Index i mit λi1 > 0, z.B. λ1 = 0 und λ11 = 1.
(Für Folgerungen aus dieser Fixierung siehe Steyer und Eid (2001), S. 176 und Übung 5)
• Identikation: (Siehe Pfaddiagramm Fig. 3 (Anhang))
Voraussetzung für die folgenden Identikationen ist, dass die Annahmen des Modells τ -
kongenerischer Variablen erfüllt sind!!
1. Modellgleichung: Yi = λi1η − λi1λi + εi
(bzw. Yi = λi0+λi1η+εi als eine Parametrisierung, die bei Programmen zur Modellüberprüfung
zugrunde gelegt wird).
2. V ar(τi) = λ2i1 · V ar(η) = Cov(Yi,Yj)·Cov(Yi,Yk)
Cov(Yj ,Yk) , i 6= j, i 6= k, j 6= k
3. V ar(εi) = V ar(Yi)− V ar(τi) = V ar(Yi)− λ2i1 · V ar(η)
4. Rel(Yi) = λ2i1·V ar(η)V ar(Yi)
An diesen Identikationen lässt sich erkennen, warum eine Normierung notwendig wird - erst da-
durch läÿt sich der Ausdruck λ2i1 · V ar(η) eindeutig bestimmen!
• Implizierte Kovarianzstruktur:
Aus der Annahmen der τ -Kongenerität und unkorrelierter Fehler folgt zunächst auch Cov(εi, η) = 0,
da η als lineare Transformation einer True-Score-Variablen ebenfalls eine Funktion der Person ist
(η = f(U)). Somit ergibt sich folgende Kovarianzstruktur der Y -Variablen:
Cov(Yi, Yj) =
λi1λj1V ar(η), i 6= j
λ2i1V ar(η) + V ar(εi), i = j
• Testbarkeit:
Erwartungswertstruktur in verschiedenen Subpopulationen:
Eine Folgerung aus der Annahme der τ -Kongenerität ist, dass die Verhältnisse der Erwartungs-
wertdierenzen zweier Tests Yi und Yj in verschiedenen Subpopulationen gleich sein müssen
(falls beide Nenner ungleich 0 sind):
E(1)(Yi)− E(2)(Yi)E(1)(Yj)− E(2)(Yj)
=E(3)(Yi)− E(4)(Yi)E(3)(Yj)− E(4)(Yj)
11
Indirekt lässt sich diese Annahme über die Gleichheit aller λ-Koezienten zwischen verschie-
denen Subpopulationen im Rahmen von Strukturgleichungsmodellen überprüfen.
Kovarianzstruktur in der Gesamtpopulation:
Die in der vom Modell τ -kongenerischer Tests implizierte Kovarianzstruktur enthaltene Re-
striktion für die Kovarianzen der Y -Variablen wird deutlich bei der Betrachtung bestimmter
Kovarianzverhältnisse. Demnach muss für 4 Testwervariablen Yi, Yj , Yk, Yl gelten:
Cov(Yi, Yk)Cov(Yj , Yk)
=Cov(Yi, Yl)Cov(Yj , Yl)
⇔ λi1λk1V ar(η)λj1λk1V ar(η)
=λi1λl1V ar(η)λj1λl1V ar(η)
, i 6= k, i 6= l, j 6= k, j 6= l
Dieses Modell lässt sich bei m = 3 Y -Variablen zwar identizieren, aber nicht testen: Wie
bisher sind 6 bekannte Gröÿen im Modell (siehe oben), es gibt zunächst 7 Unbekannte: V ar(η)
λ11, λ21, λ31 und V ar(ε1), V ar(ε2), V ar(ε3) - jedoch fällt durch die Normierung entweder
V ar(η) oder λ11 weg - bleiben 6 Unbekannte - damit ist kein Freiheitsgrad mehr zum Mo-
delltest übrig!
Bei m = 4 Y -Variablen gibt es (m · (m + 1))/2 = 10 Varianzen und Kovarianzen und 2 ·m = 8
theoretische Parameter2 - damit bleiben df = 2 zum Modelltest!
5.1 Exkurs:Identizierbarkeit
• Ein Modell gilt als gerade identiziert, wenn genauso viele bekannte (d.h. manifeste) wie unbe-
kannte Gröÿen vorhanden sind. Solch ein Modell verfügt über keine Freiheitsgrade, df = 0.
• Ein Modell ist unteridentiziert, wenn mehr theoretische Parameter zu schätzen sind als bekannte
Gröÿen im Modell sind.
• Ein Modell ist überidentiziert, sobald mehr empirisch schätzbare Parameter gegeben sind als
theoretische Parameter gesucht werden. In so einem Fall ist das Modell restriktiv, es hat also
empirischen Gehalt und kann einem Modelltest unterzogen werden (Bsp: Kongenerisches Modell
mit 4 Variablen).
• Man spricht von globaler Identiziertheit, wenn für alle Parameterkonstellationen aus den empi-
risch schätzbaren Varianzen und Kovarianzen die theoretischen Parameter geschätzt werden können.
• Dagegen liegt lediglich lokale Identiziertheit vor, wenn für einige Konstellationen die theoreti-
schen Parameter nicht geschätzt werden können.
Z.B. lässt sich ein kongenerisches Modell mit 2 latenten Variablen auch nur mit 2 Beobachtungen
pro latenter Variable identizieren, sofern man annimmt, dass die frei zu schätzenden Pfadgewich-
te gleich sind. Diese Pfadgewichte lassen sich aber nur dann identizieren, wenn die Kovarianz
zwischen beiden latenten Variablen ungleich 0 ist. Solch eine Nullkorrelation ist zwar zulässig im
Modell, führt aber dazu, dass die Pfadladung in diesem Fall nicht identiziert werden kann: Wie
kann λ identiziert werden (siehe auch Pfaddiagramm Fig. 4 (Anhang))! Es gilt:
Cov(Y21, Y12) = λ · Cov(η1, η2) (1)
Cov(Y11, Y12) = Cov(η1, η2) (2)
aus (1) und (2) folgt: λ =Cov(Y21, Y12)
Cov(Y11, Y12)(3)
2Die Formel 2 · m erigbt sich aus den m λi1-Koezienten und den m Fehlervarianzen V ar(εi)
12
6 Strukturgleichungsmodellierung mit Lisrel
Das Programm Lisrel dient zur Analyse von Kovarianz- und Erwartungswertstrukturen. D.h. es erlaubt
eine Modellüberprüfung anhand vorliegender empirischer Mittelwerte und Varianz-Kovarianzmatrizen. Im
folgenden Abschnitt geht es zunächst um eine kleine Einführung in die Syntax von Lisrel, gefolgt von der
Syntax zur Überprüfung der 3 Modelle der KTT. Zugrundeliegender Datensatz ist der Wahrscheinlichkeit
& Regression-Minitest, den H. Böhme in der VL 2006 vorgegeben hat.
6.1 Lisrel-Syntax - Grundlagen
• TI . . . Titel: Name des Lisrel-Projekts
• DA . . . Data Card: Informiert das Programm über Eigenschaften der Daten:
NI . . . Number of input variables: Anzahl der Y -Variablen
NO . . . Number of observations: Anzahl der Beobachtungen
MA . . . Matrix to be analysed: bei den hier verwendeten Modellen eigentlich nur:
∗ CM . . . Covariance matrix
∗ ME . . . vector of means
• LA . . . Labels (der Inputvariablen): Name der Y -Variablen
• SE . . . Select-Function
• MO . . . Model Card: Auf welches Modell soll getestet werden?
Matrizen:
LX . . . Ladungsmatrix der X-Variablen
LY . . . Ladungsmatrix der Y -Variablen
TD . . . Kovarianzmatrix der Messfehler von X
TE . . . Kovarianzmatrix der Messfehler von Y
GA . . . Matrix der Gamma-Koezienten
BE . . . Matrix der Beta-Koezienten
PS . . . Kovarianzmatrix der Eta's (η)
PH . . . Kovarianzmatrix der Ksi's (ξ)
Spezikation der Matrizen:
FU . . . full: Alle Elemente deniert
SY . . . symmetric: Symmetrische Matrix
DI . . . diagonal: Diagonalmatrix
ZE . . . zero: Nullen-Matrix
Spezikation der Elemente:
FR . . . free: frei zu schätzen
FI . . . xed: auf 0 xiert
Restriktionen:
VA . . . value: Parameter werden auf einen bestimmten Wert gesetzt
EQ . . . equal: Gleichsetzen bestimmter Parameter
• LE . . . Labels der Eta's (η): Name der latenten Variablen
• LK . . . Labels der Ksi's (ξ): Name der latenten Variablen 2. Ordnung
• PD . . . Path Diagram: Pfaddiagramm
• OU . . . OU: Output
13
6.2 Modellüberprüfung
• Wie kann ein Modell überprüft werden?
Wie in den vorherigen Abschnitten bereits genannt, kann entweder die Mittelwertsstruktur der
empirischen Daten betrachtet werden, oder aber man analysiert die empirischen Kovarianz-
strukturen. Jede dieser Überprüfungen für sich kann schon zum Verwerfen des Modells führen.
Wichtig: Auch hier gilt wieder das Falsikationsprinzip - nur weil eine bestimmte Kovarianzstruktur
bzw. eine Mittelwertstruktur vorliegt, heiÿt es nicht, dass auch genau dieses Modell vorliegt - solch
eine Hypothese kann nie veriziert werden!
• Wie überprüft Lisrel ein Modell?
Bei Überprüfung der Kovarianzstrukturen vergleicht das Programm die implizierte Kovarianz-
matrix, die sich aus den Restriktionen des Modells ergibt, mit der empirisch vorgefundenen
Kovarianzmatrix in Form eines χ2-Tests.
Für einen Modelltest benötigt Lisrel nichts weiter als die empirische Kovarianzmatrix (bzw. den
Mittelwertsvektor) und die Spezikation eines theoretischen Modells. Die empirische Kovarianzma-
trix (bzw. der Mittelwertsvektor) kann entweder per Hand eingegeben werden (empehlt sich nur
bei kleinen Datensätzen), oder durch Verwendung von Prelis zunächst als einzelne Datei gespei-
chert werden, die dann von Lisrel eingelesen wird.
Möchte man die Varianzen und Kovarianzen bzw. die Mittelwerte per Hand eingeben, enpehlt es
sich, diese zunächst mithilfe von SPSS zu ermitteln (über 'Deskriptive Statistiken' bzw. 'Korrela-
tionen').
• Wie evaluiert man das Modell?
Achtung: Die Nullhypothese Theoretische und empirische Kovarianzmatrix unterscheiden sich
nicht ist in diesem Fall Wunschhypothese, die möglichst beibehalten werden sollte! Aus die-
sem Grund verwendet man auch einen Signikanzniveau von mindestens α = 0.20.
Als weiteren Kennwert für die Modellpassung benutzt Lisrel den Root mean square error of ap-
proximation (RMSEA). Dieser Index berücksichtigt insbesondere die Komplexität des Modells
(da ein χ2-Test bei groÿer Stichprobe und komplexen Modell zu schnell signikant wird). Bei guter
Modellpassung sollte der RMSEA < 0.04 sein!
• Können auch zwei Modelle gegeneinander getestet werden?
Dies geht zwar nicht direkt in Lisrel, aber man kann an dieser Stelle einen χ2-Dierenzen-Test auch
per Hand durchführen. Dafür subtrahiert man die χ2-Werte und Freiheitsgrade beider Modelle. Für
die so erhaltene χ2-Dierenz inkl. Freiheitsgrade lässt sich anhand einer χ2-Tabelle überprüfen, ob
diese Dierenz gröÿer als der entsprechende kritische Wert ist. Ist dies der Fall gilt die Dierenz
als signikant,und das Modell mit dem kleinen χ2-Wert weiÿt eine deutlich bessere Passung auf!
Allerdings ist dieser direkte Vergleich nur bei genesteten Modellen möglich, also bei Modellen, in
denen die gleichen manifesten Variablen vorkommen!
6.2.1 Modellüberprüfung auf τ-Äquivalenz
Was passiert auf der mathematischen Ebene?
Bei dieser Überprüfung geht es darum, ob die beiden Testhälften Y1 und Y2 des Minitests Wahrschein-
lichkeit & Regression parallele Formen sind, also die gleiche latente Variable messen.
Überprüfung der Kovarianzstruktur:
• Die empirische Kovarianzmatrix lässt sich durch SPSS berechnen: ˆCov(~y~y) =
(3.595
1.546 3.842
)
14
• Für die implizite Kovarianzmatrix gilt: Cov(Yi, Yj) =
V ar(η), i 6= j
V ar(η) + V ar(εi), i = j
Schätzung der Varianz der latenten Variablen: Cov(Y1, Y2) = V ar(η) = 1.546
Da bei τ -äquivalenten Tests die Fehlervarianzen gleich sind, berechnet Lisrel zuerst eine
mittlere Varianz V ar(Y1)+V ar(Y2)2 = 3.72
Schätzung der Fehlervarianz: V ar(Y1)+V ar(Y2)2 − Cov(Y1, Y2) = 2.17
Somit berechnet sich die theoretische Kovarianz zu Cov(~y~y) =
(3.72
1.546 3.72
)Überprüfung der Mittelwertstruktur:
• Die Mittelwerte beider Testhälften lassen sich wieder mit Spss ausgeben: E(~y) =
(16.6
15.68
)• Für den theoretischen Erwartungswert soll gelten E(η) = E(Yi), deswegen berechnet Lisrel an
dieser Stelle einen mittleren theoretischen Erwartungswert: E(η) = E(Y1)+E(Y2)2 = 16.1
Lisrel erlaubt die gleichzeitige Überprüfung von Kovarianz- und Mittelwertstruktur. 5 gegebene Grö-
ÿen: V ar(Y1), V ar(Y2), Cov(Y1, Y2), E(Y1), E(Y2) bei 3 zu schätzenden Gröÿen (V ar(η), V ar(ε1), E(η))
ergeben 2 Freiheitsgrade zur Überprüfung!
Man erhält einen χ2-Wert von 12.15, bei df = 2 wird das Modell damit signikant! Rechnet man beide
Analysen getrennt, stellt sich heraus, dass dieses Modell aufgrund der Mittelwertstruktur signikant wird
- dennoch muss die Annahme der τ -Äquivalenz an dieser Stelle verworfen werden! (Inhaltlich bedeutet
dies, dass die Erste Testhälfte leichter ist als die zweite, weil die Vpn im Mittel einen höheren Testwert
bei der ersten Hälfte erreichen.)
Wie sieht die technische Ebene (Syntax-Eingabe) aus?
TI Paralleltestmodell Mini-Test Wahrscheinlichkeit und Regression
DA NI=2 NO=75 MA=CM
CM
3.595
1.546 3.842
ME
16.6 15.68
LA
sub1 sub2
MO NY=2 NE=1 LY=FU,FI PS=SY,FR TE=DI,FR AL=FR TY=FI
!AL: Mittelwertvektor der latenten Variablen
LE
WKundReg
VA 1 LY(1,1) LY(2,1)
EQ TE(1,1) TE(2,2)
PD
OU ALL
Wichtig: Für das Y -Modell legt das Programm Lisrel folgende Gleichung zugrunde (Achtung: die
Parameterbezeichnung hat nichts mit den oben behandelten Parametern zu tun, sondern ist programm-
spezisch): ~Y = ~τY + ΛY · η + ~ε, bei zwei Tests, die eine gemeinsame latente Variable messen:(Y1
Y2
)=
(τY1
τY2
)+
(λY11
λY21
)· η1 +
(ε11
ε21
)
15
Bei zwei parallelen Tests ist der Vektor der additiven Konstanten ~τY = 0 (Syntax-Eingabe: TY=FI)
und die Ladungsmatrix der Y-Variablen besteht nur aus Einsen ΛY = 1 (Syntax-Eingabe: LY=FU,FI VA
1 LY(1,1) LY(2,1)), ergo: (Y1
Y2
)=
(0
0
)+
(1
1
)· η1 +
(ε11
ε21
)
6.2.2 Modellüberprüfung auf essentielle τ-Äquivalenz
Auch bei diesem Modell geht es wieder um die Frage, ob verschiedene Tests die gleiche latente Variable
messen - allerdings ist dieses Modell von seinen Annahmen her etwas weniger restriktiv als das Modell
τ -äquivalenter Tests. So fällt hier die Annahme der homogenen Fehlervariablen weg, wodurch nun
auch noch die Fehlervarianzen geschätzt werden müssen. Daher ist dieses Modell auch erst ab m = 3
Testwertvariablen prüfbar. Das oben erläuterte Prinzip - Vergleich der empirischen mit der vom Modell
implizierten Kovarianzstruktur - bleibt unverändert und wird hier deswegen nicht erneut wiedergegeben.
Als Beispiel werden hier wieder die Daten zum Minitest W & R verwendet; diesmal ist die Frage, ob
die vier Testhälften Y1, Y2, Y3, Y4 essentiell τ -äquivalente Tests sind - also bis auf eine additive Konstante
die gleiche latente Variable messen.
Lisrel-Syntax
Die Gleichung für das Y-Modell in Lisrel lässt sich für vier essentiell τ -äquivalente Tests wie folgt
spezizieren: Y1
Y2
Y3
Y4
=
τY1
τY2
τY3
τY4
+
1
1
1
1
· η1 +
ε1
ε2
ε3
ε4
Der Vektor ~τY entspricht dem Vektor ~λi aus Steyer und Eid. (Da Kovarianzen invariant unter
Translationen sind, hat die additive Konstante keinen Einuss auf die Kovarianzstruktur.)
Syntax-Eingabe:
!Diese Syntax einfach in LISREL kopieren
TI Essentiell tau-aequivalentes Modell Minitest Wahrscheinlichkeit und Regression
DA NI=4 NO=55 MA=CM
CM=minitest.cov
LA
Sub1t1 Sub2t1 Sub1t2 Sub2t2
MO NY=4 NE=1 LY=FU,FI PS=SY,FR TE=DI,FR
LE
WKundReg
VA 1 LY(1,1) LY(2,1) LY(3,1) LY(4,1)
PD
OU ALL
16
6.2.3 Modellüberprüfung auf τ-Kongenerität
Bei diesem Modell handelt es sich (im Vergleich zu den zuvor behandelten Modellen) um eine noch
weniger restriktive Präzisierung dessen, was gemeint ist, wenn mehrere Tests/Testteile die gleiche
latente Variable messen.
So sind in diesem Modell die Pfadgewichte oder Ladungen λi1 nicht mehr auf 1 xiert, sondern dürfen
unterschiedlich groÿ ausfallen. Unter Berücksichtigung der Normierung ist dieses Modell erst an m = 4
Y-Variablen testbar.
Analysegrundlage sind hier wieder die Daten des Minitests W & R, inhaltlich geht es darum, ob die
vier Testhälften Y1, Y2, Y3, Y4 τ -kongenerische Tests sind.
Lisrel-Syntax
Die Gleichung für das Y-Modell in Lisrel lässt sich für vier τ -kongenerische Tests wie folgt spezizieren:Y1
Y2
Y3
Y4
=
τY1
τY2
τY3
τY4
+
λ11
λ21
λ31
λ41
· η1 +
ε11
ε21
ε31
ε41
Der Vektor ~τY kann auch hier bei der Analyse der Kovarianzstruktur ignoriert werden. Damit die
latenten Gröÿen identizierbar sind, wird in der folgenden Syntax-Eingabe der Koezient λ11 = 1
gesetzt (Normierung; Befehl: VA 1 LY(1,1)).
Syntax-Eingabe:
!Diese Syntax einfach in LISREL kopieren
TI Tau-kongenerisches Modell Minitest Wahrscheinlichkeit und Regression
DA NI=4 NO=55 MA=CM
CM=minitest.cov
LA
Sub1t1 Sub2t1 Sub1t2 Sub2t2
MO NY=4 NE=1 LY=FU,FI PS=SY,FR TE=DI,FR
LE
WKundReg
VA 1 LY(1,1)
FR LY(2,1) LY(3,1) LY(4,1)
PD
OU ALL
17
7 Latent State-Trait (LST)-Theorie
Bei der Latent State-Trait-Theorie handelt es sich um eine Verallgemeinerung der Klassischen Test-
theorie (Steyer, Schmitt & Eid, 1999). Ausgangspunkt dieser Theorie ist die Tatsache, dass psychologische
Messungen niemals in einem situationalen Vakuum stattnden, sondern dass neben Messfehlern immer
auch situationsbedingte Einüsse und Interaktionseekte zwischen Person und Situation auftreten und
somit die Messung von Eigenschaften verfälschen.
Im Kern besteht die LST aus zwei Dekompositionen (Steyer & Schmitt, 1992):
a. Jede manifeste Variable wird zerlegt in eine latente Zustandsvariable (latent state) und in eine
Messfehlerkomponente
b. Jede latente Zustandsvariable wird zerlegt in eine latente Eigenschaftsvariable (latent trait) und
in ein situationsbedingtes Residuum (latent state residual), das Einüsse der Situation und/oder
Interaktionseekte zwischen Person und Situation widerspiegelt.
Demnach messen psychologische Tests immer interindividuelle state Unterschiede, die auf trait Un-
terschiede, situationsbedingte Unterschiede und Person-Situation-Interaktionen zurückzufüh-
ren sind.
Aus diesen Dekompositionen lassen sich nun mehrere Annahmen ableiten, die wiederum zu verschiede-
nen Modellen führen. In jedem dieser Modelle werden states und traits gleichzeitig als latente Variablen
repräsentiert.
7.1 Grundannahmen der LST
Den Ausgangspunkt bildet wieder das folgende Zufallsexperiment:3
• Die Menge der möglichen Ergebnisse: Ω = ΩU × (ΩS1 × . . . × ΩSn) × (ΩO1 × . . . × ΩOn
)
charakterisiert das Zufallsexperiment Ziehe zu einer Messgelegenheit t aus der Menge ΩSn der
mgl. Situationen eine Person u ∈ ΩU und registriere eine Ausprägung aus der Menge ΩOn der mgl.
Merkmalsausprägungen in dieser Situation
• Die Testwertvariable Yi : Ω → < ordnet Ergebnissen ω ∈ Ω einen quantitativen Wert zu und
repräsentiert fehlerbehaftete Testwerte
• Die Person-Projektion U : Ω → ΩU ist eine kategoriale Zufallsvariable deren Werte angeben,
welche Person gezogen wurde
• Die Situations-Projektion St : Ω → ΩStgibt an, welche Situation sich realisiert hat (dabei muss
die Situation, in der die Messung stattgefunden hat, nicht bekannt sein und auch nicht beobachtet
werden - diese Projektion hat also reinen theoretischen Wert!)
7.2 Denition der theoretischen Variablen:
• Die latent state-Variable τit ist deniert als die multiple Regression der Testwertvariablen Yit4
auf die Personen- und die Situationsvariable:
τit := E(Yit | U, St)
3Eine Psn kann immer nur in einer Situation gemessen werden - Beobachtungseinheit ist also nicht eine Person, sondern
eine Person-in-einer-Situation4Der erste Index steht für die i-te manifeste Variable in der Situation t
18
Ihre Werte sind die bedinten Erwartungswerte E(Yit | U = u, St = st) der Variablen Yit
gegeben eine Person U = u in einer Situation st.
Dieser Wert besteht aus drei Komponenten: einer Personenkomponente, einer Situationskom-
ponente und einer Person-Situation-Interaktionskomponente.
Auch hier ist wieder zu beachten, dass der wahre state Wert einer Person hinsichtlich Yit im-
mer der Erwartungswert der intraindividuellen Verteilung innerhalb der Messgelegenheit
ist
• DieMessfehlervariable εit ist deniert als die Abweichung der Testwerte einer Psn von der latent
state Variable:
εit := Yit − τit
Damit repräsentiert εit den Teil der beobachtbaren Zufallsvariablen Yit, der weder durch die
Person, noch durch die Situation, noch durch die Person-Situation-Interaktion determiniert
ist.
• Die latent trait-Variable ξit ist deniert als die Regression der Testwertvariablen Yit auf die
Person:
ξit := E(Yit | U)
Ihre Werte sind die bedingten Erwartungswerte E(Yit | U = u) und charakterisieren nur
gegebene Person!
Der wahre trait Wert einer Person hinsichtlich Yit ist der Erwartungswert der intraindivi-
duellen Verteilung gemittelt über alle Messgelegenheiten!
• Das latent state-Residuum ζit ist (analog zur Fehlervariablen) eine Abweichungsvariable und ist
deniert über die Dierenz der latent state-Variablen τit und der latent trait-Variablen ξit:
ζit := τit − ξit
Für das situationsbedingte Residuum ergeben sich die gleichen Eigenschaften wie für die Mess-
fehlervariable (siehe auch unten).
Dieser Denition zufolge repräsentiert das situationsbedingte Residuum Eekte der Situation
und/oder Person-Situation-Interaktionseekte, Nachweis:
ζit = E(Yit | U, St)− E(Yit | U) | Erweitern mit E(Yit | St)
= E(Yit | St)︸ ︷︷ ︸Situation
+ [E(Yit | U, St)− E(Yit | U)− E(Yit | St)]︸ ︷︷ ︸P−S−Interaktion
• Eigenschaften der theoretischen Variablen: (Siehe Pfaddiagramm Fig. 5(Anhang))
i. Yit = τit + εit
ii. τit = ξit + ζit
iii. V ar(Yit) = V ar(τit) + V ar(εit)
iv. V ar(τit) = V ar(ξit) + V ar(ζit)
v. E(εit) = E(εit | U, St) = E[εit | f(U, St)] = 0
vi. E(ζit) = E(ζit | U) = 0
vii. Cov(εit, ζjt) = 0
viii. Cov(εit, τjs) = 0
ix. Cov(εit, ξjs) = 0
x. Cov(ζit, ξjs) = 0
19
7.3 Reliabilität, Konsistenz, Situationsspezität, Stabilität
Basierend auf der Denition der theoretischen Variablen und den sich logisch ableitbaren Eingeschaften
ist es möglich, dierenziertere Kennwerte füe psychologische Messungen abzuleiten. Diese ergeben sich
insbesondere aus der Additivität der Varianzen (iii. und iv.), ist gleichzeitig V ar(Yit) > 0, lassen sich
folgende Koezienten denieren:
• Reliabilität: Rel(Yit) = V ar(τit)V ar(Yit)
= Con(Yit)+Spe(Yit): Anteil der Varianz der state-Variablen an
der Varianz der Testwertvariablen
• Konsistenz: Con(Yit) = V ar(ξit)V ar(Yit)
: Varianzanteile, die ausschlieÿlich auf interindividuelle Unter-
schiede zw. Psn zurückführbar sind, unabhängig von der Situation!
• Situationsspezität: Spe(Yit) = V ar(ζit)V ar(Yit)
: Varianzanteile der Testwertvariablen, die durch Situa-
tionseekte bzw. Person-Situation-Interaktionen erklärt werden
• Stabilität der latent state-Variable: Kor(τit, τis): mehrere Messgelegenheiten, gleicher Test
• Stabilität der latent trait-Variable: Kor(ξit, ξis): mehrere Messgelegenheiten, gleicher Test:
Wie stabil ist die Regression der Testwerte auf die Person?
7.4 Modelle der LST-Theorie
Wie auch schon bei der KTT sind zusätzliche Annahmen nötig, um Kennwerte der latenten Variablen
(Reliabilität, etc.) identizieren zu können. Diese Annahmen können sich in ihrer Komplexität unter-
scheiden.
7.4.1 Singletrait-Modell
Nach diesem Modell messen alle Y-Variablen die gleiche latente Variable ξ (kongenerisch), wobei alle
Messfehlervariablen miteinander unkorreliert sind. (Dieses Modell ist durch Restriktionen der Koezien-
ten und Varianzen auch in ein (essentiell) ξ-äquivalentes Modell überführbar - dies gilt für alle folgenden
Modelle!)
• Modellannahmen:
a. Dekomposition der Variablen: Yit = τit + εit = λit0 + λit1 · ξ + εit
b. Unkorrelierte Fehler: Cov(εit, εjs) = 0, (i, t) 6= (j, s)
Damit hängen die Testwertvariablen nur von zwei Variablen ab: der latenten Variable ξ und der
korrespondierenden Messfehlervariable εit (siehe Fig. 6 (Anhang))!
• Normierung:
Da es sich hier um ein ξ-kongenerisches Modell handelt, muss entweder die Skala der latenten
Variablen ξ xiert werden durch E(ξ) = 0 und V ar(ξ) = 1 oder zwei der λ-Koezienten müssen
xiert werden (λ110 = 0 und λ111 = 1), damit Kennwerte der latenten Variablen identiziert
werden können (siehe Folien Böhme für Bsp-Identikationen). Dies gilt auch für alle folgenden
kongenerischen Modelle!
• Identikation:
Da situative Einüsse hier überhaupt nicht berücksichtigt werden, entspricht die Reliabilität der
Testwertvariablen Yit der Konsistenz. Es gilt:
Con(Yit) = Rel(Yit) =λ2
itV ar(ξ)V ar(Yit)
20
• Implizierte Kovarianzstruktur:
Cov(Yit, Yjs) =
Cov(τit, τjs) = λit1λjs1V ar(ξ) (i, t) 6= (j, s)
λ2it1V ar(ξ) + V ar(εit), (i, t) = (j, s)
• Problem:
Singletrait-Modelle ignorieren das Problem der Situationspezität, da situationsbedingte Eekte
oder Person-Situation-Interaktionen gar nicht berücksichtigt werden. Demnach kann das Modell
immer dann angewendet werden, wenn sich nachweisen lässt, dass es so gut wie keine situativen
Einüsse gibt - was so gut wie nie der Fall ist. Dennoch mag solch ein Modell puristischen Trait-
Theoretikern gefallen :).
7.4.2 Multistate-Modell
Zur Berücksichtigung von situationsspezischen Eekten können Multistate-Modelle verwendet werden.
Dabei wird angenommen, dass alle Y-Variablen derselben Messgelegenheit dieselbe latente Variable
ηt messen (situationsspezische Kongenerität). Der Unterschied zum Singletrait-Modell besteht also darin,
dass hier eine latente Variable pro Messgelegenheit berücksichtigt wird (Siehe Fig. 7 (Anhang)).
• Modellannahmen:
a. Dekomposition der Variablen: Yit = τit + εit = λit0 + λit1 · ηt + εit mit τit = λit0 + λit1 · ηt
b. Unkorrelierte Fehler: Cov(εit, εjs) = 0, (i, t) 6= (j, s)
• Normierung und Identikation:
Normierung: Z.B. jeweils ein Pfadgewicht λit1 = 1 xieren, während λit0 = 0. Für die Reliabilität
von Yit ergibt sich folgende Identikation: Rel(Yit) = λ2itV ar(ηt)V ar(Yit
• Implizierte Kovarianzstruktur:
Cov(Yit, Yjs) =
Cov(τit, τjs) = λit1λjs1Cov(ηt, ηs), (i, t) 6= (j, s)
Cov(τit, τjt) = λit1λjt1V ar(ηt), i 6= j, t = s
λ2it1V ar(ηt) + V ar(εit), (i, t) = (j, s)
• Problem:
Bei Multistate-Modellen wird zwar die Situationsspezität berücksichtigt, allerdings entstehen
Nachteile, weil kein gemeinsamer Faktor berücksichtigt wird. Die Beziehung zwischen States und
Traits kann also nicht speziziert werden. Daher kann die Varianz der state-Variablen auch nicht
in eine Trait- und eine Residualkomponente zerlegt werden. Dies geht nur in latent state-trait
Modellen!
7.4.3 Singletrait-Multistate-Modelle
Aufbauend auf dem Multistate-Modell wird hier zusätzlich ein gemeinsamer Faktor ξ eingeführt, der für
die Kovarianzen der latent state-Variablen ηt aufkommt. Daraus folgt:
• Alle Y-Variablen derselben Messgelegenheit t messen dieselbe latente state-Variable ηt (Situati-
onsspezische Kongenerität)
• Alle latent state-Variablen ηt messen dieselbe latente trait-Variable ξ (Kongenerität der η-
Variablen)
21
Solch ein Modell erlaubt die Unterscheidung zwischen Messfehlern UND situationsbeding-
ten/Interaktionseekten (siehe Fig. 8 (Anhang))!
• Modellannahmen:
a. Dekomposition der manifesten Variablen: Yit = τit + εit = λit0 + λit1 · ηt + εit
b. Dekomposition der latent state-Variablen: ηt = γt0 + γt1ξ + ζt
c. Annahme unkorrelierter Fehler: Cov(εit, εjs) = 0, (i, t) 6= (j, s), Cov(ζt, ζs) = 0
Insbesondere gelten hier die Deduktionen (vii), (viii) mit ηt = f(τit) und (x) aus den Denitionen
der Variablen!
• Implizierte Kovarianzstruktur:
Anhand der implizierten Kovarianzstruktur des Multistate-Modells kann man sich die implizierte
Kovarianzstruktur des Singletrait-Multistate-Modells herleiten. Mit V ar(ηt) = γ2t1 ·V ar(ξ)+V ar(ζt)
und Cov(ηt, ηs) = γt1 · γs1 · V ar(ξ) erhält man:
Cov(Yit, Yjs) =
λit1 λjs1 γt1 γs1 V ar(ξ), (i, t) 6= (j, s)
λit1 λjt1 γ2t1 V ar(ξ) + V ar(ζt), i 6= j, t = s
λ2it1 γ2
t1 V ar(ξ) + V ar(ζt) + V ar(εit), (i, t) = (j, s)
7.4.4 Berücksichtigung von Methodenfaktoren
Bei allen hier behandelten Modellen der LST können zusätzlich noch Methodenfaktoren berücksichtigt
werden (siehe exemplarisch Fig. 9 (Anhang)).
• Was ist ein Methodenfaktor?
Wie der Name schon nahelegt handelt es sich dabei um einen methodenspezischen Teil der
der Testwertvariablen Yit. Veranschaulichen lässt sich dies z.B. an der Tatsache, dass wiederholte
Messungen mit identischen Instrumenten (Selbstbericht) gröÿere Korrelationen aufweisen als Mes-
sungen mit verschiedenen Instrumenten (Selbstbericht-Fremdbericht). Ein Methodenfaktor ist also
eine spezische Gemeinsamkeit zwischen Testwertvariablen, die auf die gleiche Methode zurückgeht.
Wichtig ist, dass es sich dabei um eine Komponente der Methode handelt, die mit den states und
traits unkorreliert ist.
• Wie viele Methodenfaktoren sollte man berücksichtigen?
Ein Modell braucht immer einen Methodenfaktor weniger als verschiedene Methoden (bzw. Test-
teile) im Modell enthalten sind. Bei 3 Methoden fungiert die 3. Methode als Vergleichsmethode,
von der sich Methode 1 und 2 unterscheiden können. Methodenfaktoren können auch miteinander
korreliert sein.
• Was bringt ein Methodenfaktor?
Werden Methodenfaktoren berücksichtigt, hat dies einen besseren Modellt zur Folge, selbst wenn
der Methodenfaktor nicht viel Varianz aufklärt.
• Wie verändert sich die Modellgleichung durch einen Methodenfaktor?
Je nachdem, wie viele Methodenfaktoren berücksichtigt werden sollen, taucht jeder Faktor mit
einer multiplikativen Konstante (seiner Pfadladung) in der Modellgleichung auf. Analog zu konge-
nerischen Modellen kann diese auch von 1 verschieden sein.
22
7.5 Modellüberprüfung
7.5.1 Exkurs: (Alle) Modellgleichungen in Lisrel (siehe Fig. 10 (Anhang))
Konzept der endogenen und exogenen Variablen
• Endogene Variablen:
Dies sind die abhängigen Variablen im Denkmodell bzw. Pfaddiaggramm, also diejenigen Varia-
blen, die von anderen erklärt werden bzw. manchmal auch selbst wieder andere Variablen erklären
(im Pfaddiagramm erkennt man diese Variablen daran, dass Pfeile auf sie zeigen bzw. von ihnen
weggehen).
Das Y-Modell in Lisrel entspricht dem Messmodell der endogenen Variablen. Lisrel verwendet
folgende (bekannte) Gleichung für das Y-Modell (Dimension der Y-Ladungsmatrix: y × η) 5
y = τy + Λy · η + ε
• Exogene Variablen:
Dies sind die unabhängigen Variablen im Denkmodell/Pfaddiagramm, also Variablen, die andere
erklären sollen (im Pfaddiagramm gehen von diesen Variablen ausschlieÿlich Pfeile weg).
Als Messmodell der exogenen Variablen speziziert Lisrel das X-Modell durch folgende Gleichung:
x = τx + Λx · ξ + δ
Analog zum Y-Modell setzt sich der Vektor x der manifesten Variablen zusammen aus einer addi-
tiven Konstanten τx, einer Ladungsmatrix Λx, dem Vektor der erklärenden Variablen ξ und einem
Messfehlervektor δ der X-Variablen.
• Spezikation der Beziehungen zwischen endogenen und exogenen Variablen:
Die Beziehung zwischen Eta's und Ksi's lässt sich durch das Strukturmodell spezizieren:
η = α + B · η + Γ · ξ + ζ
Also: Erklärt werden Eta-Variablen η durch einen Vektor additiver Konstanten α 6; eine Beta-
Matrix B die speziziert, inwieweit die Eta-Variablen durch andere Eta-Variablen erklärt werden
(Dimension: η × η). Analog speziziert die Gamma-Matrix Γ, inwieweit die Eta-Variablen durch
andere Ksi-Variablen (unabhängige Variablen) erklärt werden (Dimension: η ×ξ ) und zuletzt wird
noch ein Vektor situativer Residuen ζ zur Erklärung der Eta-Variablen berücksichtigt.
7.5.2 Modellüberprüfung: Multistate-Modell
Aufbauend auf dem bereits bekannten Vorgehensweisen in Lisrel zur Modelllierung von kongenerischen
Modellen stellt sich nun beim Multitrait-Modell der LST-Theorie insbesondere die Frage, wie sich die
spezische Beziehung zwischen verschiedenen State-Variablen ηt modellieren lässt.
An dieser Stelle wird wieder das Minitest-Beispiel aus der Vorlesung von H. Böhme verwendet.
5Diesmal sind Vektoren nicht durch Pfeilsymbole dargestellt, sondern kleingeschrieben und fett gedruckt6Streng genommen ist dies ein Vektor der Mittelwerte der latenten Variablen, siehe auch oben beim Modelltest der
Mittelwertstruktur
23
Für das Multistate-Modell des Minitests W & R ergibt sich unter der Annahme einer essentiell
τ-äquivalenten Messung zu beiden Zeitpunkten folgende Gleichung für das Y-Modell:Y11
Y21
Y12
Y22
=
τY11
τY21
τY12
τY22
+
1 0
1 0
0 1
0 1
·
(η1
η2
)+
ε11
ε21
ε12
ε22
An der Ladungsmatrix ist zu erkennen, dass nun jeweils die Testhälften Y11 und Y21 nur auf η1
laden, genauso wie Y12 und Y22 nur auf η2 laden. Unter der Annahme einer τ -kongenerischen Messung
zu beiden Zeitpunkten wären zusätzlich jeweils zwei der Ladungen (also z.B. die Ladungen λ21 und λ22)
frei zu schätzen (wichtig für die Syntax!)
Also, technisch gesehen die Y-Ladungsmatrix zuerst auf 0 setzen (Befehl LY=FU, FI) und anschlieÿend
die einzelnen Koezienten auf 1 setzen bzw. frei schätzen lassen!
Syntax-Eingabe:
!Diese Syntax einfach in LISREL kopieren TI Multistate-Modell
!Minitest Wahrscheinlichkeit und Regression zu zwei Zeitpunkten
DA NI=4 NO=55 MA=CM
CM=Kovarianzen.cov
LA
Sub1t1 Sub2t1 Sub1t2 Sub2t2
MO NY=4 NE=2 LY=FU,FI PS=SY,FR TE=DI,FR BE=FU,FI
LE
statet1 statet2
VA 1 LY(1,1) LY(2,1) LY(3,2) LY(4,2)
PD
OU ALL
7.5.3 Modellüberprüfung: Singletrait-Multistate-Modell
Zusätzlich zur Modellierung der spezischen Beziehung zwischen verschiedenen State-Variablen ηt ist im
Rahmen der Überprüfung von Singletrait-Multistate-Modellen bisher noch ungeklärt, wie die situativen
Residuen in Lisrel berücksichtigt werden können.
Im Gegensatz zum Multistate-Modell muss zur Überprüfung des Singletrait-Multistate-Modells mit den
W & R Minitest-Daten in Lisrel noch das Strukturmodell speziziert werden (da ξ als exogene
Variable die Kovarianz zwischen η1 und η2 erklären soll).
Für die zwei State-Variablen im Minitest-Beispiel folgt für das Strukturmodell unter Annahme einer
essentiell η-äquivalenten Messung:(η1
η2
)=
(α1
α2
)+
(0 0
0 0
)·
(η1
η2
)+
(1
1
)· ξ +
(ζ1
ζ2
)
Dies bedeutet für die Eingabe in Lisrel:
Bei Betrachtung von Kovarianzstrukturen können die additiven Konstanten α1 und α2 wieder vernach-
lässigt werden; da im Beispiel keine Eta's durch andere Eta-Variablen erklärt werden, ist die Beta-Matrix
eine Nullmatrix (Befehl: BE=FU,FI - default!); ξ wird hier laut Annahme essentiell η-äquivalent
24
gemessen, weswegen also die Gewichte der Gamma-Matrix jeweils auf 1 gesetzt werden (zuerst auf 0
xieren und anschlieÿend die Koezienten auf 1 setzen). Eine wichtige Annahme bzgl. der Zeta's ist ihre
Unkorreliertheit im Singletrait-Multistate-Modell - Dies wird über die Psi-Matrix (!) speziziert:
Da beide situativen Residuen Varianzen haben dürfen, handelt es sich bei der Psi-Matrix um eine frei zu
schätzende Diagonalmatrix (Befehl: PS=DI, FR).
Diese Syntax ergänzt die Syntax zur Überprüfung des Multistate-Modells! Achtung: Vergleicht man
beide Modellüberprüfungen bzgl. ihrer Modellpassung, werden Chi-Quadrat-Wert und RMSEA exakt
gleich sein - da dass, was vorher Kovarianz der beiden states war, nun die Varianz des traits ist!
Syntax-Eingabe:!Diese Syntax einfach in LISREL kopieren
TI Multistate-Singletrait-Modell !Minitest Wahrscheinlichkeit und Regression zu zwei Zeitpunkten
DA NI=4 NO=55 MA=CM
CM=Kovarianzen.cov
LA
Sub1t1 Sub2t1 Sub1t2 Sub2t2
MO NY=4 NE=2 NK=1 LY=FU,FI PS=DI,FR TE=DI,FR GA=FU,FI
LE
statet1 statet2
LK
trait
VA 1 LY(1,1) LY(2,1) LY(3,2) LY(4,2)
VA 1 GA(1,1) GA(2,1)
PD
OU ALL
Achtung: Bei dieser Syntax wurde der trait als exogene Variable ξ speziziert - d.h. er kann in anderen
Anwendungen so niemals durch andere Variablen erklärt werden. Damit dies möglich ist, kann man den
trait aber als weitere Eta-Variable spezizieren - quasi als Eta 2. Ordnung, das als trait behandelt werden
kann! Auch hier sollte der Modell-Fit der gleiche sein wie vorher, nur das der trait nun nicht mehr als
Ksi-Variable speziziert wird - somit fällt auch die Gamma-Matrix weg!
Damit erhält man aber gleichzeitig ein Modell, in dem eine Eta-Variable (der trait) die anderen Eta-
Variablen erklären soll - wodurch also die Ladungen dieses 3. Eta's auf den beiden anderen Eta's in der
Beta-Matrix auf 1 gesetzt werden müssen (Befehl: VA 1 BE(1,3) BE(2,3)).
Syntax-Eingabe:!Diese Syntax einfach in LISREL kopieren
TI Multistate-Singletrait-Modell aus Eta-Variablen !Minitest Wahrscheinlichkeit und Regression zu zwei
Zeitpunkten
DA NI=4 NO=55 MA=CM
CM=Kovarianzen.cov
LA
Sub1t1 Sub2t1 Sub1t2 Sub2t2
MO NY=4 NE=3 LY=FU,FI PS=DI,FR TE=DI,FR BE=FU,FI
LE
statet1 statet2 trait !trait=Benennung 3. Eta
VA 1 LY(1,1) LY(2,1) LY(3,2) LY(4,2)
VA 1 BE(1,3) BE(2,3)
PD
OU ALL
25
8 Item-Response-Theorie, IRT
Im Gegensatz zu Modellen der KTT haben Modelle der Item-Response-Therie keine Testsummenvaria-
blen zum Gegenstand, sondern beziehen sich direkt auf die Beantwortung bzw. Lösung/Nichtlösung
einzelner Aufgaben eines Fähigkeitstests. Dies ermöglicht es zu untersuchten, ob bestimmte Items über-
haupt dieselbe latente Personeneigenschaft/Fähigkeit messen, was die Bildung einer Testsummenvariable
rechtfertigt.
8.1 Das dichotome Rasch-Modell
Ein Modell der IRT, das dichotome Rasch-Modell, kann immer dann zur Analyse von Variablen verwendet
werden, wenn diese nur 2 Werte annehmen können. Ausgangspunkt ist also die Indikatorvariable
Yi(ω) :=
1, falls das i-te Item gelöst/bejaht ist
0, sonst
die jeweils mit dem Wert 0 oder 1 anzeigt, ob eine Person die betreende Aufgabe gelöst hat.
Ziel des Rasch-Modell ist es, aufgrund des Lösungsverhaltens einer Person bzgl. verschiedener
Aufgaben eine latente, nicht beobachtbare Eigenschaft zu erfassen.
• Probleme des Modells essentiell τ-äquivalenter Variablen bei Indikatorvariablen
Betrachtet man die bedingten Erwartungswerte E(Yi | U = u) der dichotomen Testwertvaria-
blen Yi, so entsprechen diese den Lösungswahrscheinlichkeiten P (Yi = 1 | U = u) einer gegebenen
Person: Nach Regel iv, Box 6.1 folgt:
E(Yi | U = u) = 1 · P (Yi = 1 | U = u) + 0 · P (Yi = 0 | U = u)
= P (Yi = 1 | U = u)
In diesem Fall sind die Werte der True-Score-Variablen E(Yi | U) = P (Yi = 1 | U) also auf das
Intervall zwischen 0 und 1 beschränkt, da die bedingten Lösungswahrscheinlichkeiten nur Werte
innerhalb dieses Bereichs annehmen können.
Wendet man aber ein essentiell τ -äquivalentes Modell auf diese dichotome Testwertvariable
an, gilt für die True-Score-Variable die Gleichung τi = E(Yi | U) = η − λi = P (Yi = 1 | U). Diese
lineare Funktion ist zur Beschreibung der Beziehung zwischen latenter Personenvariable η und
dem Antwortverhalten bei dichotomen Antwortformaten ungeeignet, da für bestimmte Fähigkeits-
ausprägungen einer Person eine Lösungswahrscheinlichkeit gröÿer 1 (bzw. kleiner 0) resultieren
würde, was mit dem Wertebereicht [0;1] einer (bedingten) Wahrscheinlichkeit unvereinbar ist (siehe
Fig. 11 (Anhang)).
Kontinuierliche Variablen können nicht durch lineare Funktionen auf einem be-
grenzten Intervall [0;1] abgebildet werden! Dieser Beschränkung kann man aber durch
Transformationen der bedingten Wahrscheinlichkeiten P (Yi = 1 | U = u) entgehen.
• Wettquotient, Logit und Logit-Variable:
Der Wettquotient ist das Verhältnis der bedingten WSKn, ein Item zu lösen bzw. es nicht
zu lösen:P (Yi = 1 | U = u)
1− P (Yi = 1 | U = u)Er besagt, wie groÿ die Chance ist, dass eine Person u die i-te Aufgabe löst. Sein Wertebereich
ist [0;+∞) - also immer noch beschränkt auf Werte ≥ 0.
26
Betrachtet man dagegen die logarithmierten Wettquotienten, den Logit
lnP (Yi = 1 | U = u)P (Yi = 0 | U = u)
= ln P (Yi = 1 | U = u)− ln P (Yi = 0 | U = u)
so kann dieser Werte zwischen −∞ und +∞ annehmen - somit sind die Werte der bedingten
Erwartungen E(Yi | U) = P (Yi = 1 | U) nicht mehr auf das Intervall [0;1] beschränkt.
Bei den Logits handelt es sich um die Werte der Logit-Variablen
logiti = lnP (Yi = 1 | U)P (Yi = 0 | U)
= ln P (Yi = 1 | U)− ln P (Yi = 0 | U)
Im Rasch-Modell ist nun nicht mehr die Parallelität der True-Score-Variablen die denierende
Annahme, sondern die Parallelität der Logit-Variablen.
Spezische Objektivität:
Die Eigenschaft der spezischen Objektivität des Rasch-Modells besagt, dass der Vergleich
der Fähigkeitswerte zweier Personen unabhängig von den ausgewählten Items (und ihren
Schwierigkeiten) ist:
ξ1 − ξ2 = lnP (Yi = 1 | U = u1)P (Yi = 0 | U = u1)
− lnP (Yi = 1 | U = u2)P (Yi = 0 | U = u2)
Umgekehrt ist die Dierenz zweier Schwierigkeitsparamter unabhängig von den Personenfä-
higkeiten:
κj − κi = lnP (Yi = 1 | U = u)P (Yi = 0 | U = u)
− lnP (Yj = 1 | U = u
P (Yj = 0 | U = u)
• Modellannahmen:
1. Rasch-Homogenität:
Parallelität der Logit-Variablen: Für jedes Paar von Logit-Variablen gibt es eine Konstante
κij , so dass gilt: logiti = logitj + κij.
Äquivalent dazu kann man auch das Fundamentalgesetz der subtraktiven Parame-
trisierung des Rasch-Modells verwenden:
Demnach existiert eine reelle Zufallsvariable ξ (diese steht für die Fähigkeit einer Psn)
und für jede Testwertvariable Yi eine Konstante κi ∈ <, i = 1, . . . , m, für die gilt:
P (Yi = 1 | U) =exp (ξ − κi)
1 + exp (ξ − κi)
Folgerungen:
Beim Rasch-Modell beschreibt also eine S-förmige logistische Funktion die Beziehung zwi-
schen P (Yi = 1 | U) und der latenten Variablen ξ.
ξ ist eine Funktion von U, ξ = f(U). Die Funktion P (Yi = 1 | ξ) = P (Yi = 1 | U) heiÿt
Itemcharakteristik und gibt die Abhängigkeit der Lösungs-WSK von der latenten Perso-
nenvariablen ξ bei gegebener Itemschwierigkeit an (siehe Fig. 12 (Anhang)).
Die WSK, dass ein Item von einer Psn gelöst wird, hängt somit nur von der Dierenz des
Wertes ξu dieser Person auf der latenten Variablen (Fähigkeit) und der Schwierigkeit κi des
Items ab!
Ist die Fähigkeit ξu genauso groÿ wie die Itemschwierigkeit κi, resultiert eine Lösungs-WSK
von 1/2.
27
Die Betrachtung der bedingten Varianzen V ar(Yi | U) verdeutlicht den Sinn der Item-
charakteristik: Bei einer dichotomen Testwertvariablen Yi berechnet sich die bedingte Varianz
nach Regel (i), Box 12.1 (Steyer, 2003), d.h.:
V ar(Yi | U) = E(Y 2i | U)− E(Yi | U)2
= 12 · P (Yi = 1 | U) + 02 · P (Yi = 0 | U)− P (Yi = 1 | U)2
= P (Yi = 1 | U) · [1− P (Yi = 1 | U)]︸ ︷︷ ︸Gegen−WSK
Da ξ = f(U), hängt auch die bedingte Varianz V ar(Yi | ξ) von der latenten Variablen ξ ab. Der
Wert von V ar(Yi | ξ) ist an der Stelle ξ = κi am gröÿten: V ar(Yi | ξ = κi) = 0.5 · 0.5 = 0.25.
Damit ist die bedingte Varianz ein Maÿ für die Steigung der Itemcharakteristik (diese
ist an der Stelle ξ = κi am gröÿten) und somit eben auch ein Maÿ für die Diskrimina-
tionsfähigkeit eines Items zwischen den latenten Personenfähigkeiten (siehe auch Fig. 13
(Anhang)).
Kennt man den Fähigkeitswert ξu einer Person, kann man mit unterschiedlicher Sicherheit
auf ihr Antwortverhalten schlieÿen. Bei sehr hohen bzw. sehr niedrigen Fähigkeiten ist es
sehr wahrscheinlich, dass die Psn die Aufgabe auf jeden Fall bzw. gar nicht löst. Je gröÿer
nun die Unsicherheit ist7, desto gröÿer ist die Information, die mit der Beantwortung eines
Items durch eine Psn verbunden ist. Im Rasch-Modell entspricht die bedingte Varianz der
Informationsfunktion: I(Yi | ξ) = V ar(Yi | ξ).Ein Item dierenziert relativ gut in dem Bereich, wo seine Informationsfunktion
recht hoch ist: Es hängt also von der Schwierigkeit des Items ab, ob wie sehr sich die
Fähigkeitsunterschiede zw. Personen in den Lösungswahrscheinlichkeiten widerspiegeln!
Interessiert man sich für die Informationsfunktion eines gesamten Tests, so ist diese die
Summe der Informationsfunktionen aller im Test enthaltenen Items.
2. Bedingte stochastische Unabhängigkeit:
Diese Annahme besagt, dass die Lösungs-WSK eines Items i - gegeben eine Person u und eines
Sets anderer Items - ausschlieÿlich von der Person (und damit ihrer Fähigkeit) abhängt und
nicht davon, ob andere Items gelöst wurden (Lern- oder Transfereekte sind ausgeschlossen):
P (Yi = 1 | U, Y1, . . . , Yi−1, Yi+1, . . . , Ym) = P (Yi = 1 | U), i = 1, . . . , m
Diese Gleichung ist äquivalent mit:
P (Yi1 = 1, . . . , Yin = 1 | U) = P (Yi1 = 1 | U) · . . . · P (Yin = 1 | U)
für jede Teilmenge i1, . . . , in ⊂ 1, . . . ,m .
Erläuterungen:
Warum kovariieren/korrelieren Items?
Gemäÿ der IRT unterscheiden sich Psn bzgl. ihrer Fähigkeiten. Bei einer hohen Fähigkeit ist
das Lösen vieler Items wahrscheinlich, bei einer niedrigen Fähigkeit ist das Lösen weniger Items
wahrscheinlich. Somit ergibt sich eine beobachtbare Korrelation zwischen den Items, die
allein durch die Unterschiede in der Fähigkeit bedingt ist.
7Diese ist am gröÿten bei ξu = κi, da dann P (Yi = 1 | ξ) = P (Yi = 0 | ξ)
28
Diese Korrelation sollte jedoch verschwinden, wenn die Fähigkeit auf einem bestimmten Wert
(einer lokalen Stufe) konstant gehalten wird - die lokale stochastische Unabhängigkeit
zeigt sich genau darin, dass die Korrelationen zwischen den Items auf diesen Stufen verschwin-
den.
Technisch gesehen muss sich dann die Verbundwahrscheinlichkeit (Zellenwert) aus den Rand-
wahrscheinlichkeiten ergeben (siehe auch die äquivalente Umformung oben!)
• Zulässige Transformationen und Eindeutigkeit:
Im subtraktiv parametrisierten Rasch-Modell sind Translationen zulässige Transformationen, da für
Translationen der Form ξ′ := ξ + α und κ′i := κi + α gilt:
ξ′ − κ′i = (ξ + α)− (κi + α) = ξ − κi
Für die Variablen Yi gilt daher auch die Gleichung
P (Yi = 1 | U) =exp (ξ′ − κ′
i)1 + exp (ξ′ − κ′
i)
Vorausgesetzt eine subtraktive Parametrisierung liegt vor, sind die Variable ξ und die Koezienten
κi dierenzenskaliert.
• Normierung:
Eine Normierung ist erforderlich, damit ξ und die zugehörigen Koezienten κi eindeutig deniert
sind. Möglichkeiten der Normierung sind die Fixierung eines bestimmten Schwierigkeitsparameters
κi, z.B. κ1 = 0, die Fixierung des Werts einer Person u der Variablen ξ, z.B. ξu = 0 oder die
Normierung des Erwartungswerts von ξ: E(ξ) = 0.
• Bedeutsamkeit:
Im subtraktiv parametrisierten Rasch-Modell sind z.B. Aussagen über die Dierenzen zwischen den
Werten von ξ und Aussagen über die Dierenzen zwischen den Koezienten κi bedeutsam, also
invariant bzgl. der zulässigen Transformationen. Beweis: Sei ξ′ := ξ + α und κ′i := κi + α,
dann gilt:
ξ′1 − ξ′2 = (ξ1 + α)− (ξ2 + α)
= ξ1 + α− ξ2 − α = ξ1 − ξ2
κ′1 − κ′
2 = (κ1 + α)− (κ2 + α)
= κ1 + α− κ2 − α
= κ1 − κ2
Ebenso sind Aussagen über die Varianz V ar(ξ) bedeutsam, da Varianzen invarianz unter Transla-
tionen sind.
• Testbarkeit:
Wie auch schon bei der KTT kann man Item- und Personenparameter erst im Sinne der IRT inter-
pretieren, wenn von der Gültigkeit des Rasch-Modells ausgegangen werden kann. Deswegen lassen
sich auch beim Rasch-Modell den Annahmen der Rasch-Homogenität und der lokalen stochastischen
Unabhängigkeit Aussagen ableiten, die empirisch überprüft werden können:
1. Gleichheit der Itemparameter in Subpopulationen:
Subpopulationen sind Teilmengen der Gesamtpopulation U - somit liegt auf der Hand, dass die
Schwierigkeitsparameter ihren Wert bei Betrachtung beliebiger Subpopulationen nicht ändern
29
dürfen, da die Itemparameter κi für alle Personen u ∈ U gleich sind. Rasch-Homogenität
vorausgesetzt, muss also für je zwei Subpopulationen s und t gelten:
κ(s)i = κ
(t)i
2. Gleichheit der Rangfolge der Lösungs-WSKn in Subpopulationen:
Ordnet man die Items nach ihrer Schwierigkeit in einer Rangfolge an, so muss diese Rangreihe
auch in allen Subpopulationen dieselbe sein. Die Gleichheit der Rangfolge der unbedingten
Lösungs-WSKn P (Yi = 1) ≤ P (Yj = 1) gilt genau dann, wenn für alle Subpopulationen die
Beziehung P (s)(Yi = 1) ≤ P (s)(Yj = 1) gilt.
Zur Überprüfung kann man die relativen Lösungshäugkeiten in Subpopulationen heranziehen.
3. Gleichheit bestimmter WSK-Verhältnisse in Subpopulationen:
Nimmt man bedingte stochastische Unabhängigkeit an, muss die Gleichheit der WSK-
Verhältnisse gelten, damit das Rasch-Modell gültig ist:
P (s)(Yi = 1, Yj = 0)P (s)(Yi = 0, Yj = 1)
=P (t)(Yi = 1, Yj = 0)P (t)(Yi = 0, Yj = 1)
• Schätzung der theoretischen Gröÿen:
Schätzung der Itemparameter:
Bei Gültigkeit des Rasch-Modells kann die Dierenz zweier Itemparameter aus empirisch
schätzbaren Lösungs-WSKn berechnet werden:
κj − κi = ln
[P (Yi = 1, Yj = 0)P (Yi = 0, Yj = 1)
]In Stichproben können Zähler und Nenner dieser Gleichung jeweils über Lösungshäugkei-
ten geschätzt werden (Hfk. der Personen, die Item i, aber nicht Item j gelöst haben, etc.).
Allerdings können sich für ein Item unterschiedliche Schätzwerte ergeben, da jeweils nur die
WSK-Verhältnisse zweier und nicht aller Items betrachtet werden.
Schätzung der Personenparameter:
Die Schätzung der Fähigkeit einer Person erfolgt im Rasch-Modell anhand der Maximum-
Likelihood-Methode: Dabei wird einer Person derjenige Wert auf der latenten Variable ξ
zugewiesen, bei dem ihr manifestes (beobachtetes) Lösungsverhalten am wahrscheinlichsten
ist.
Der Summenscore enthält also alle notwendigen Informationen zur Schätzung der Psn-
Fähigkeit (dies gilt nur im Rasch-Modell) - man spricht dann auch von einer suzienten
Statistik.
Für Personen, die mindestens 1 Item und höchstens (m− 1) Items gelöst haben, lässt sich ihr
Wert auf ξ anhand dieser Methode schätzen.
Für Personen, die entweder alle oder keines der Items gelöst haben, kann die Fähigkeits-
ausprägung zumindest nicht über die Maximum-Likelihood-Methode geschätzt werden, da die
ξ-bedingten WSK-Funktionen keine Maxima im Wertebereich der latenten Variablen aufwei-
sen. In solch einem Fall empehlt es sich, andere Schätzer (z.B. den Warm-Schätzer) zu ver-
wenden.
Genauigkeit der Schätzung:
Bei der Maximum-Likelihood-Methode hängt die Genauigkeit der Schätzung für einen Perso-
nenwert ξ von der Summe der Informationsfunktionen aller Rasch-homogenen Items ab: Je
30
gröÿer die Summe der Informationsfunktionen an der Stelle ξ = ξu ist, desto genauer
kann der Wert einer Person an dieser Stelle geschätzt werden.
Für die Werte der bedingten Varianzfkt. V ar(ξ | ξ) des Schätzers ξ gilt bei genügend groÿer
Itemzahl:
V ar(ξ | ξ = ξu) ≈ 1∑mi=1 I(Yi | ξ = ξu)
Die Schätzgenauigkeit nimmt mit Anzahl der Items zu, da die Summe der Werte der Informa-
tionsfunktionen durch Hinzunahme von Items zwangsläug gröÿer wird.
Standardfehler:
Aus der bedingten Varianz lässt sich der Standardfehler der Fähigkeitsschätzung berechnen
(Maÿ für die Streuung der Fehler) - wie auch schon an der obigen Formel ersichtlich ist, ist
der Standardfehler (als Wurzel der bedingten Varianz, siehe auch Kondenzintervalle) gering
in dem Bereich, wo die Informationsfunktionen ihr Maximum haben - für den Test bedeutet
das, dass er an unterschiedlichen Stellen gut misst - was für ausgewogene Schwierigkeitsgrade
der Items spricht!
Reliabilität:
Die Reliabilitätsschätzung beruht in der IRT auf der Dekomposition der Schätzer der
Personenvariablen ξ. Als Reliabilität dieser Schätzvariablen deniert man das Varianzver-
hältnis
Rel(ξ) =V ar[E(ξ | U)]
V ar(ξ)= 1− V ar(ε)
V ar(ξ)wobeiV ar(ε) = E[V ar(ξ | ξ)]
Erläuterungen:
∗ Die Fehlervarianz variiert als Kehrwert der Summe der Informationsfunktionen für ver-
schiedene Werte ξ von ξ.
∗ Somit ist auch die Genauigkeit der Schätzungen der Personenvariablen verschieden
für verschiedene Werte ξ von ξ:
∗ Die Fehlervarianz ist gering, wenn die Itemschwierigkeiten eines Tests mit der Ausprägung
der latenten Psn-Variable übereinstimmen (dort haben die Informationsfunktionen jeweils
ihre Maxima, so dass die Reliabilität hohe Werte annimmt).
∗ Ist ein Test zu leicht/zu schwer für die Person, sind hohe Fehlervarianzen und eine geringe
Reliabilität die Folge.
Somit ist die Reliabilität abhängig von der Itemzahl und den Item-
Informationsfunktionen - messen die Items im Fähigkeitsbereich der Psn?
Berechnung von Kondenzintervallen:
Ein Gesamttest mit homogenen Itemschwierigkeiten kann Personen, deren Fähigkeitsausprä-
gungen in der Nähe der Itemlokation (Schwierigkeit) liegen, gut diskriminieren (schmale Kon-
denzintervalle).
Weicht die Fähigkeitsausprägung der Person jedoch weit von den Itemschwierigkeiten ab, kann
nicht gut zwischen Personen dierenziert werden (breite, überlappende Kondenzinter-
valle).
Berechnung des Kondenzintervalls:
ξ ± zα/2 ×
√1∑m
i=1 I(Yi | ξ = ξu)
31
8.2 Mehrparametrische Modelle
• Logistisches 2-Parameter-Modell (Birnbaum-Modell):
Das Birnbaum-Modell erlaubt es, unterschiedliche Item-Diskriminationen zu berücksichtigen - bei
gleicher Itemschwierigkeit bedeutet das, dass zwei oder mehr Items in unterschiedlichem Ausmaÿ
zwischen den Ausprägungen von ξ dierenzieren. Die Itemcharakteristiken verlaufen nicht parallel
- d.h. Die Rangreihe der Lösungswahrscheinlichkeiten von Items ist unterschiedlich für
verschiedene Ausprägungen von ξ.
Unterschiedliche Item-Diskriminationen werden im Modell durch einen zusätzlichen multiplikativen
Parameter βi repräsentiert:
P (Yi = 1 | U) =exp [βi(ξ − κi)]
1 + exp [βi(ξ − κi)]
Graphisch bedeuten unterschiedliche Item-Diskriminationen verschiedene Anstiege der itemcharak-
teristischen Funktionen der einzelnen Items (siehe Fig. 14 (Anhang)).
• Logistisches 3-Parameter-Modell:
In diesem Modell wird zusätzlich ein Rateparameter berücksichtigt: Bei niedrigen Fähigkeitsausprä-
gungen kann das Antwortverhalten die Folge von Raten der Vpn sein (siehe Fig. 15 (Anhang)). Der
Rateparameter γi kann präexperimentell bestimmt oder empirisch geschätzt werden.
P (Yi = 1 | U) = γi + (1− γi) ·exp [βi(ξ − κi)]
1 + exp [βi(ξ − κi)]
32
9 Partial-Credit-Modell
Wie auch beim Rasch-Modell ist das Grundprinzip des Partial-Credit-Modells doe Modellierung des
Zusammenhangs zwischen der zu messenden Personeneigenschaft (ξu = f(U = u)) und den manifesten
Antwortmustern.
Im Gegensatz zum Rasch-Modell werden im Partial-Credit-Modell mehrere Antwortkategorien pro
Item betrachtet - somit bringt jedes Item mehr Information, was im Vergleich zu dichotomen Items
natürlich auch zu einer Erhöhung der Reliabilität führt.
Also: Für jedes Item i wird betrachtet, wie die WSK, bei diesem Item in einer bestimmten Kategorie zu
antworten (Yi = y) mit der Ausprägung einer für alle Items gemeinsamen latenten Personeneigenschaft ξ
zusammenhängt. Betrachtet werden also die personenbedingten Kategorienwahrscheinlichkeiten
P (Yi = y | U = u) = P (Yi = y | ξ = ξu)
(Antwort-WSKn pro Kategorie, gegeben eine Person.) Man kann diese bedingten Kategorien-WSKn
auch als Regression ausdrücken unter Verwendung einer Indikatorvariablen IYi=y ( Wert 1 zeigt an, dass
in der Kategorie y geantwortet wurde): E(IYi=y | U) ist dann die bedingte Erwartung in der Kategorie
y zu antworten, gegeben eine Person.
Die Menge der mgl. Antwortmuster lässt sich über (c + 1)m berechnen, wobei c die höchste
Antwortkategorie und m die Itemanzahl ist.
9.1 Grundannahmen des Partial-Credit-Modells
Den Ausgangspunkt bildet das Zufallsexperiment:
• Menge der mgl. Ergebnisse Ω = ΩU × ΩO, wobei die Menge der Beobachtungen ΩO = ΩO1 ×ΩO2 × . . . × ΩOm sich aus den einzelnen Beobachtungen pro Item zusammensetzt (m: Anzahl der
Items); ΩOi= 0, 1, . . . ci ist die Menge der Antwortkategorien beim i-ten Item (Achtung:
die Zählung der Kategorien beginnt immer bei 0). Die Anzahl der Antwortkategorien kann sich
zwischen den Items durchaus unterscheiden!
• Für die mehrdimensionale Zufallsvariable Y = (Y1, . . . , Yi, . . . , Ym)′ (Itemvektor) gilt: Yi :
Ω → 0, 1, 2, . . . ci ⊂ ℵ0
• Für die Personenprojektion gilt U : Ω → ΩU
• Schwellenwahrscheinlichkeiten:
Im Partial-Credit-Modell werden immer zwei benachbarte Kategorien betrachtet: Die Schwel-
lenwahrscheinlichkeit PTUiy ist dann deniert als
PTUiy := P [Yi = y | U, (Yi = y − 1 ∪ Yi = y)]
Genauer geht es um die bedingte WSK in Kategorie y zu antworten, unter der Voraussetzung, dass
die Person in Kategorie (y − 1) oder y antwortet.
Äquivalent:
PTUiy =P (Yi = y | U)
P (Yi = y − 1 | U) + P (Yi = y | U)
Für diese bedingte WSK wird wieder das Rasch-Modell angenommen!
33
• Modellannahmen des Partial-Credit-Modells:
1. Rasch-Homogenität:
PTUiy =exp (ξu − κij)
1 + exp (ξu − κij), j = 1, . . . , ci
wobei ξu der Personenparameter und κij ein item-und kategorienspezischer Schwellenpara-
meter sind.
Mit der Rasch-Homogenitätsannahme wird weiterhin eine latente Dimension unter-
stellt - der Personenparameter ist derselbe für jedes Item und jede Antwortkatego-
rie/Schwellenwahrscheinlichkeit, wobei die Kategorienschwellen jedes Mal anders sind, abhän-
gig davon, welche Kategorien gerade betrachtet werden.
2. Lokale stochastische Unabhängigkeit:
P (Yi = y | ξ,yi) = P (Yi = y | ξ), yi = (Y1, . . . , Yi−1, . . . , Yi+1, . . . , Ym)
Betrachtung der Kategorienwahrscheinlichkeit in Abhängigkeit von Fähigkeit und den Antwor-
ten auf die anderen Items: Kategorienwahrscheinlichkeit hängt lediglich von der zu messenden
Fähigkeit ab und nicht von den Antworten auf den anderen Items!
• Folgerungen aus den Annahmen:
Anhand der beiden oben genannten Annahmen lassen sich dann Formeln für die einzelnen Kate-
gorienwahrscheinlichkeiten in Abhängigkeit von der Fähigkeit berechnen (siehe Folien für Formeln).
Letztendlich ergeben sich aus den Formeln für die Kategorienwahrscheinlichkeiten ebenfalls
bestimmte Kurven: Bei besonders niedriger Fähigkeitsausprägung ist dabei die niedrigste Kategorie
y = 0 zunächst am wahrscheinlichsten. Mit wachsender Fähigkeit sinkt diese WSK jedoch, und
eine Antwort in Kategorie y = 1 wird immer wahrscheinlicher. Auch diese hat eine maximale
Wahrscheinlichkeit bei einer bestimmten Fähigkeit; ist die Fähigkeit gröÿer, sinkt die WSK für
diese Kategorie wieder und eine Antwort in der nächsthöheren Kategorie wird wahrscheinlicher,
etc.
Die Schwellenwahrscheinlichkeiten nun sind die Schnittpunkte der Kategoriencharakteristiken.
In diesen Punkten ist die Antwort-WSK für die nächsthöhere Kategorie jeweils gröÿer als für
die vorangegangene Kategorie. Die Schwellen charakterisieren also eine bestimmte Kategorie, die
geprägt ist durch ein bestimmtes Maÿ an Zustimmung zu einem Item.
34
10 Latent Class Modelle
In den bisher behandelten Modellen war die zu messende latente Variable eine metrische (kontinuierliche)
Gröÿe. Bei den Latent-Class-Modellen geht es nun um die Messung eines qualitativen Konstrukts,
d.h. die latente Variable ist in diesem Fall nominalskaliert. Im Rahmen des Stufenmodells kindlicher
Entwicklung von Piaget oder bei Persönlichkeitstypologien der Dierentiellen Psychologie hat man es
mit nominalskalierten Gröÿen zu tun.
Wie bisher werden wieder die Antwortwahrscheinlichkeiten für die Kategorien eines Items in Ab-
hängigkeit von der Ausprägung einer latenten Variable, in diesem Fall einer Klassenvariablen,
betrachtet.
• Grundideen:
1. Jede Person gehört zu einer und nur einer latenten Klasse. Die Klassen sind also paarweise
disjunkt und exhaustiv.
2. Innerhalb jeder Klasse sind die Antwort-WSKn für Kategorien eines Items jeweils gleich.
Zwischen den latenten Klassen unterscheiden sich diese Antwort-WSKn.
3. Innerhalb jeder latenten Klasse gilt wieder die (lokale) stochastische Unabhängigkeit
der Antworten auf die Items. Der einzige Grund für Abhängigkeiten zwischen Items sind die
verschiedenen Klassenzugehörigkeiten (die latente Variable) - werden diese konstant gehalten,
gilt lokale stochastische Unabhängigkeit.
Hinweis: Die Latent-Class-Modelle beziehen sich stark auf Grundlagen aus der Vorlesung Wahr-
scheinlichkeit und Regression, wie z.B. bedingte Wahrscheinlichkeiten, den Satz der totalen WSK
und das Bayes-Theorem. An dieser Stelle also der Verweis auf das Kapitel 3 in Steyer (2003).
• Satz der totalen WSK:
Mit dem Satz der totalen WSK lässt sich die WSK eines Ereignisses B aus der Summe der Schnitt-
mengen von B mit den disjunkten Ereignissen A1, A2, . . . An berechnen:
P (B) = P (B ∩A1) + . . . + P (B ∩Ai) + . . . + P (B ∩An)
= P (B | A1) · P (A1) + . . . + P (B | Ai) · P (Ai) + . . . + P (B | An) · P (An)
Wendet man den Satz der totalen WSK auf Latent-Class-Modelle an, so kann man das Ereignis
B als das Antwortmuster einer Person auf verschiedenen Items verstehen. Dies ist natürlich
beobachtbar, seine Wahrscheinlichkeit lässt sich über die relativen Häugkeiten schätzen.
In Latent-Class-Terminologie setzt sich die Wahrscheinlichkeit des Antwortmusters zusam-
men aus der WSK des Antwortmusters gegeben die Klassenzugehörigkeit P (B | Ai), multipliziert
mit der WSK dieser Klassenzugehörigkeit P (Ai) (aufsummiert über alle Klassen). Alle theore-
tischen Parameter auf der rechten Seite der Gleichung sind unbekannt und müssen zunächst
geschätzt werden.
• Bayes-Theorem:
Sind die theoretischen Parameter geschätzt, kann man über das Bayes-Theorem für jede Person mit
dem Antwortmuster B die WSK der Zugehörigkeit zu jeder latenten Klasse Ai ausrechnen:
P (Ai | B) =P (B | Ai) · P (Ai)
P (B | A1) · P (A1) + . . . + P (B | An) · P (An)
35
• Grundideen in Formeln übersetzt:
Ad 1. Nach Annahme 1 ist die latente Klassenvariable ξ diskret, d.h. ihre Werte können mit 1, . . . ,K
bezeichnet werden. ξ ist weiterhin eine Funktion der Personenabbildung U, ξ = f(U). Es gilt:
P (Yi = y | U) = P (Yi = y | ξ)
wobei y = 1, 2, . . . , ci (Kategorien pro Item i) und die latente Variable ξ die Werte 1, . . . ,K
annehmen kann (K bezeichnet die Zahl der latenten Klassen).
Ad 3. Nach Annahme 3 gilt lokale stochastische Unabhängigkeit, d.h. die WSK in der Kategorie
y zu antworten hängt nur von der Klassenzugehörigkeit ab, nicht von den anderen Antworten:
P (Yi = y | ξ,yi) = P (Yi = y | ξ)
wobei yi = (Y1, . . . , Yi−1, Yi+1, . . . , Ym).
Lokale stochastische Unabhängigkeit impliziert:
P (y = y | ξ) =m∏
i=1
P (Yi = yi | ξ)
Der Satz der totalen WSK liefert nun die Modellgleichung des Latent-Class-Modells:
P (y = y) =K∑
k=1
P (ξ = k)m∏
i=1
P (Yi = yi | ξ)
Das Bayes-Theorem liefert nun:
P (ξ = k | y = y) =P (y = y | ξ = k) · P (ξ = k)∑Kl=1 P (y = y | ξ = l) · P (ξ = l)
Dies ist nichts anderes als die WSK einer bestimmten Klasse ξ = k anzugehören, gegeben ein
konkretes Antwortmuster y auf allen Items.
36
Literatur
Steyer, R. (2003). Wahrscheinlichkeit und Regression. Berlin: Springer.
Steyer, R. & Eid, M. (2001). Messen und Testen. Berlin: Springer.
Steyer, R. & Schmitt, M. J. (1992). States and traits in psychological assessment. European Journal of
Psychological Assessment, 8, 79-98.
Steyer, R., Schmitt, M. J. & Eid, M. (1999). Latent state-trait theory and research in personality and
individual dierences. European Journal of Personality, 13, 389-408.
37
Anhang
1
Fig. 1: Pfaddiagramm Grundlagen der KTT (ohne Restriktionen)
Fig. 2: Pfaddiagramm: Modell paralleler Tests/Modell essentiell τ-äquivalenter Tests
Anhang
2
Fig. 3: Pfaddiagramm Modell τ-kongenerischer Tests
Fig. 4: Speziallfall: Bestimmung von λ
λ
λ
Anhang
3
Fig. 5: Pfaddiagramm LST-Theorie (ohne Restriktionen) Fig. 6: Pfaddiagramm Singletrait-Modell (LST-Theorie)
Anhang
4
Fig. 7: Pfaddiagramm Multistate-Modell (LST-Theorie) Fig. 8: Pfaddiagramm Singletrait-Multistate-Modell (LST-Theorie)
Anhang
5
Fig. 9: Singletrait-Multistate-Modell mit Methodenfaktoren
Fig. 10: LISREL-Pfaddiagramm
Anhang
6
Fig. 11: Essentiell τ-äquivalentes Modell mit dichotomen Variablen
Fig. 12: Item-Charakteristiken zweier Rasch-homogener Items
Anhang
7
Fig. 13: Bedingte Varianz und Informationsfunktion
Fig. 14: Item-Charakteristiken im Birnbaum-Modell
Fig. 15: Logistisches 3-Parameter-Modell