Anhang A:
Ansatze zur Analyse von Abhangigkeitsstrukturen
A.1 Hypothesenbildung
Unabhăngigkeitshypothese
Die gemeinsame Verteilung der beiden diskreten Merkmale (Kundenrisi
ko Y und ein beliebiges Merkmal X) kann in einer Kontingenztabelle mit
den jeweiligen absoluten Hăufigkeiten hjlc dargestellt werden.
"schlechte" "gute"
Kunden Kunden
X\Y Y! Y2 L
Xl h\l h12 h!+
X2 h2! h22 h2+
L h+! h+2 h++=N
Zur DurchfUhrung eines Tests auf Unabhăngigkeit werden X und Y als
Zufallsvariablen aufgefal1t. Die Zufallsvariable X(Y) gibt danach den
Merkmalswert eines zufăllig ausgewăhlten Kunden bei dem entspre
chenden Merkmal an. Im folgenden sprechen wir auch kurz von dem
Merkmal X(Y) , wenn die Zufallsvariable gemeint ist.
die Wahrscheinlichkeit, bei zufălliger Auswahl ei nes Kunden aus der
Grundgesamtheit die Merkmalskombination (Xj'Yk ) vorzufinden. Die
490 Anhang A
Randverteilungen konnen dann durch Summenbildung berechnet wer
den:
p. ==P(X==x)=='Lp. j+ j k jk
P+k ==P(Y == Yk) == 'LP jk j
Die Frage nach der Abhangigkeit beider Variablen fOhrt zu folgendem
Testproblem:
Ho:Pjk == Pj+P+k Vj,k
Hl:Pjk =1:- Pj+P+k 3j,k
Es wird die Hypothese Ho getestet, ob sich die Wahrscheinlichkeit fOr
ein Auspragungspaar gerade aus dem Produkt der entsprechenden
Randwahrscheinlichkeiten ergibt, womit die beiden Zufalls-variablen
voneinander unabhăngig sind. Die Wahrscheinlichkeiten P j+ und P +k
sind nicht bekannt und mussen zur TestdurchfOhrung geschatzt werden:
h j + und _ ~k Pj+ ==-h P+k--h
++ ++
Homogenitatshypothese
Wurde man von vornherein festlegen, wieviele gute und wieviele
schlechte Antrage betrachtet werden sollen, dann waren die beiden
Randsummen der Kontingenztafel bezuglich der Zufallsvariablen Risiko
Y von Anfang an determiniert. Damit wurde sich die Fragestellung ge
genuber dem Unabhangigkeitsmodell verandern. Im Grunde wurde man
untersuchen, ob in beiden Populationen die gleichen Anteile einzelner
Auspragungen der Zufallsvariablen X auftreten.
Ansătze zur Analyse von Abhăngigkeitsstrukturen
Das fUhrt zu folgender Homogenitătshypothese:
Ha:P(X = xjlgut) =P(X = xjlschlecht)
HI:P(X = xjlgut) *P(X = xjlschlecht)
491
Zur statistischen OberprUfung von Unabhăngigkeitshypothese und Ho
mogenitatshypothese kann jeweils dieselbe Teststatistik und derselbe
kritische Wert verwendet werden. Die Verbindung beider Hypothesen ist
in Hartung(93), S. 412 ff. năher beschrieben.
A.2 Unabhăngigkeitstests
,r-Test:
Der am hăufigsten verwendete Test auf Unabhăngigkeit zweier diskreter
Zufallsvariablen basiert auf der folgenden Teststatistik von Pearson.
J K (h _ A )2 J? = L L jk A m)k
j=1 k=1 mjk
(Schatzung fUr die unter Ha erwarteten Hăufig-
keiten)
j = 1, ... , J und k = 1, ... , K
Unter der Nullhypothese Ha, dar.. die Zufallsvariablen unabhăngig sind,
ist diese PrUfgrăr..e approximativ X~J-IXK-I) -verteilt. Beim Test zum Ni
veau a ist demnach Ha zu verwerfen, wenn gilt: 2 2
X > X(J-IXK-I),I-a
492 Anhang A
Voraussetzung ist ein genugend groBer Stichprobenumfang. Die Anga
ben dazu in der Literatur sind uneinheitlich (vgl. Hartung(93), Ander
sen(74), Bosch(93». Hăufig wird ei ne Mindestbesetzung in den Zellen
von 5 Objekten empfohlen und eine StichprobengroBe von mindestens N
> 60 (Fur kleinere Stichproben siehe Yates(81».
Der exakte Test von Fisher
Grundidee ist es zu prufen, ob die Wahrscheinlichkeit unter der Nullhy
pothese die beobachtete Datenmatrix anzutreffen, genugend groB ist.
Das heiBt, man betrachtet die Verteilung aller moglichen Matrizen, deren
Randsummen gleich denen der beobachteten Matrix sind. Fur den Fali
einer 2x2-Matrix konnen alle zu betrachtenden Matrizen anhand der
Zellbesetzung h11 identifiziert werden. Unter der Unabhăngigkeitshypo
these kann nun die Wahrscheinlichkeit fUr das Auftreten der betrachteten
Matrix folgendermaBen ermiUelt werden:
Die Hypothese Ho ist dann zu verwerfen, wenn die Wahrscheinlichkeit,
mit der die beobachtete Tafel unter der Giiltigkeit der Unabhăngigkeits
hypothese anzutreffen ist, sehr klein ist (Unter Berucksichtigung fester
Randsummen). Nun werden alle Tafeln (mit gleichen Randsummen wie
die beobachtete Tabelle), deren Wahrscheinlichkeiten unter einer
Schranke c liegen, herausgenommen. Die Summe der dazugehorenden
Auftrittswahrscheinlichkeiten entspricht dann dem Testniveau a .
Ansătze zur Analyse von Abhăngigkeitsstrukturen 493
Ais Teststatistik dient dabei die Zellbesetzung hll , mit der eine Vierfel
dertafel eindeutig beschrieben ist. Die Nullhypothese wird abgelehnt,
wenn hll auBerhalb zweier Schranken liegt:
Die Schranke CI ist naherungsweise das a -Quantil und Cz das (1- a)_ 2 2
Quantil der hypergeometrischen Verteilung H(N,h+,h+I ).
In der praktischen Anwendung ist dieses Verfahren jedoch als problema
tisch anzusehen. Bei groBen Stichproben fUhren die exakten Tests zu
bedeutendem Rechenaufwand. Im weiteren sollen deshalb Methoden
vorgestellt werden, deren Rechenaufwand auch bei groBen Datenmen
gen zweckmăBig ist.
A.3 AssoziationsmaBe
Ist man daran interessiert, die Abhăngigkeitstruktur zweier Zufallsvaria
blen durch eine einzige reelle Zahl zu charakterisieren, 50 konnen Asso
ziationsmaBe verwendet werden. Eine Darstellung einzelner Aspekte des
Zusammenhangs geht dabei verloren. Insbesondere bei sehr groBen 2
Datensatzen zeigen sich diese MaBe als sinnvoll, da die X -Statistik mit
dem Stichprobenumfang wăchst (vgl. Bol(93), Hartung(84». Daher gibt
es ei ne Vielzahl von Ansătzen, die im fOlgenden skizziert werden sollen.
Zunachst sollen die 2x2-Tabellen zwei binărer Zufallsvariablen betrach
tet werden. Im weiteren Verlauf werden die dafUr geltenden Assoziati
onsmaBe auf Merkmale mit mehr als 2 Ausprăgungen erweitert.
494 Anhang A
A.3.1 AssoziationsmaBe fUr 2x2-Tafeln
cross-product ratio (odds ratio)
Diese Form ergibt sich aus dem Produkt der UnabMngigkeitsbedingung*
der 2x2-Kontingenztabelle:
Pjlc
P+kPj+ 1
Bei Unabhangigkeit ist q =1. Werden die Zeilen und Spalten der Kontin
genztabelle vertauscht, bleibt die odds-ratio unverandert. Vertauscht
man nur Zeilen oder nur Spalten, so wird q in 1/ q UberfUhrt. Bei der
Multiplikation von Zeilen und Spalten der Kontingenztafel mit beliebigen
positiven Konstanten c> O bleibt q und alle davon ableitbaren MaBe
unabhangig (Invarianzeigenschaft).
Die Schatzung der Wahrscheinlichkeiten erfolgt, wie bereits in Abschnitt
A.2 vorgestellt, an hand der Zellhaufigkeiten.
* Pll =lund = 1 -+ _--=-P-,-,lI,-=Pc...:z=z __ = PlI Pzz = 1 mit , P+1P1+ P+zPz+ P+1P1+P+2 PZ+ P12 P21
P+1PZ+ = P Z1 und P+ Z P1+ = P12
Ansătze zur Analyse van Abhăngigkeitsstrukturen 495
Q-Koeffizient von Yule
Im Gegensatz zur odds-ratio wird beim Q-Koeffizienten ein Wertebe
reich zwischen -1 und +1 erreicht, der sich wie folgt berechnet:
q -1
q +1
Durch Differenzenbildung zweier bedingter Wahrscheinlichkeiten wird versucht, kontrăre Sachverhalte aufzuzeigen. Dabei wird gleiches Ver
halten bei der Besetzung der Zellen in dem Produkt Pll P22 der Zell-
wahrscheinlichkeiten ausgedruckt, beziehungsweise gegensătzliches
Verhalten im Produkt Pl2 P21 •
wird auf Basis der Zellhăufigkeiten ermiUelt und ist asymptotisch nor
malverteilt mit dem MiUelwert Q und der Standardabweichung
Damit kann ein Konfidenzintervall zum Niveau (1- a) angegeben wer
den:
[Q-U1- aI2 (rQ;Q+U1- aI2 (rQ1 mit U1- a12 , dem (1- ~) - Quantil der
N(OI1)-Verteiiung
496 Anhang A
Korrelationskoeffizient
Betrachtet man eine 2x2-Tafel, bei der die Ausprăgungen der beiden
Merkmale mit Null und Eins kodiert sind, so ergibt sich folgende Darstellung:
XW O 1 Summe
O P ll P 12 P1+
1 P 21 P 22 P2+
Summe P+l P+z 1
Die beiden Merkmale X und Y konnen als binomiale ZufallsgroBen auf
gefaBt werden. Das heiBt, Merkmal Kundenrisiko (Y) unterliegt ei ner
B(1,p+2 )- und das Merkmal X ei ner B(1,pz)-Verteilung. Daraus lassen
sich jeweils Mittelwert und Varianz in bekannter Weise errechnen:
Y:
X: P+2(l- P+z)
Pz+(l- P 2)
Damit ist es moglich, den Korrelationskoeffizient folgendermaBen zu
berechnen:
p= P ll P 22 - P 12 P 21
~Pl+P2+P+IP+2
Bei Vertauschen der Spalten und Zeilen in der 2x2-Tafel verăndert sich
das Vorzeichen von p. Gilt fUr die Randwahrscheinlichkeiten der beiden
Ansătze zur Analyse van Abhăngigkeitsstrukturen 497
Merkmale (PI+ = P2+ und P +1 = P +2)' dann wird p =1 oder p =-1. Die
Schatzung von p und dessen Varianz erfolgt anhand der Haufigkeiten:
Da der Schatzer fUr den Korrelationskoeffizienten asymptotisch normal
verteilt ist, kann somit wie oben schon gezeigt, ein Konfidenzintervall
zum Niveau (1- a) angegeben werden.
Vergleich zweier Wahrscheinlichkeiten
Die Idee beim Vergleich zweier Wahrscheinlichkeiten, dargestellt inner
halb ei ner Kontingenztabelle, besteht darin, das Auftreten eines Ereig
nisses in zwei verschiedenen Grundgesamtheiten (charakterisiert durch
das Merkmal Y) miteinander zu vergleichen.
Seien FI =!!JJ... und F2 = h2 die Parameterschătzungen fUr die beiden h+1 h+2
Wahrscheinlichkeiten P I und P 2 und p h11 + hl2 die Schatzung fUr h+1 + h+2
die Gesamwahrscheinlichkeit p. Ist PI gleich P 2 , kann die gesamte
Serie vom Umfang N = h+1 + h+2 als binomialverteilt mit den Parametern
p = P1 = P2 aufgefal1t werden. Damit kann folgende Hypothese getestet
werden:
HO:Pl = P2
HO:Pl Ţ. P2
498 Anhang A
Die TestgroBe
ist unter der Nullhypothese naherungsweise N(OI1)-verteilt, mit dem Ab
lehnungsbereich von H o :
Weitere Ansatze zum Vergleich mehrerer Wahrscheinlichkeiten konnen
in Bosch(93) (S. 456 ff.) nachgeschlagen werden.
A.3.2 AssoziationmaBe fOr J x K -Tafeln
Pearsonscher Kontingenzkoeffizient
Eine weitere Moglichkeit, AssoziationmaBe zu konstruieren, liegt in der
Verwendung der Pearsonschen ,r-Statistik, wie im Test auf Unabhan
gigkeit bereits beschrieben (siehe A3.2). Im Gegensatz zum Korrelati
onskoeffizienten kann dieses MaB in kanonischer Weise auf beliebige
zweidimensionale Kontingenztabellen verallgemeinert werden. Durch
Aufsummieren der relativen quadratischen Abweichungen ist der ,r
Wert genau dann Null, wenn die Merkmale unabhangig sind. Durch
Umformung dieses Ausdruckes kann gezeigt werden, daB die ,r
Statistik bei gleichbleibenden Proportionen mit der GroBe der Stichprobe
Ansătze zur Analyse von Abhăngigkeitsstrukturen 499
wachst (vgl. Bol(93». Der darauf aufbauende Kontingenzkoeffizient nach
Pearson liegt im Wertebereich [0,1) und hat folgende Form:
mit C=O bei Unabhăngigkeit.
C liegt immer zwischen Null und Eins, nimmt aber als maximalen Wert
nicht Eins an, sondern:
min(J,K)-l
min(J,K)
Aus diesem Grund kann folgende Korrektur vorgenommen werden:
Korrigierter Kontingenzkoeffizient
Durch EinfUgen eines Korrekturfaktors ergibt sich folgende Form:
C min(J,K) g;; eorr == ---:::z mit O$; Ceorr $; 1
min(J,K) -1 N + /.,
Ist C eorr = O, dann bedeutet dies, dal1 die beiden Zufallsvariablen von
einander unabhangig sind. Je grol1er der Wert von C eorr ist, desto gro
l1er ist die Abhangigkeitsbeziehung zwischen den beiden Zufallsvaria
blen. Weitere Assoziationsmal1e und Konfidenzbereiche sind bei Har
tung(93) und Goodmann/Kruskal(54) dargestellt. Eine andere Quantifi
zierung der Abhangigkeiten zwischen zwei Merkmalen kann Gber die
varianzanalytische Betrachtung wie folgt hergeleitet werden.
500 Anhang A
A.4 Varianzanalytische Betrachtung
Ăhnlich der Quadratsummenzerlegung bei der Varianzanalyse kann auch
bei kategorialen Daten untersucht werden, ob ein "Gruppeneffekt" (Ein
fluB des Merkmals X auf das Merkmal Y) vorliegt. Das Merkmals Y mit
den Ausprăgungen Yl und Y2 wird in J=2 Gruppen betrachtet, die durch
das Merkmal X und dessen Ausprăgungen charakterisiert werden. Damit
kann ăhnlich der Varianzanalyse ei ne Quadratsummenzerlegung folgen
der Form durchgefGhrt werden (vgl. Hartung(93), S. 460ff).
- Gesamtvarianz
h. 1 2 ~jnner. _ ~ ___ " h2 (J j - 2 2h L.J jk
j+ k=l - Varianz innerhalb der Gruppe j
â.inner. = L[h j + -_l-Lh~kl = N _! L_l_Lh~k - Innergruppen ] 2 2h j+ k 2 2 ] h j+ k
varianz
Beim Vergleich dieser beiden Quadratsummen kann schlieBlich geprGft
werden, ob ein Gruppeneffekt, d.h. ein EinfluB des Merkmals X auf das
Y vorliegt. Die PrGfgroBe hat folgende Gestalt:
Ansătze zur Analyse van Abhăngigkeitsstrukturen 501
Unter der Hypothese der Unabhăngigkeit der beiden Zufallsvariablen ist
(k -1)(N -1)-. risiko approximativ X2 -verteilt mit (K -1)(J -1) Freiheits
graden. Bei Abhangigkeit ist Trisiko asymptotisch normalverteilt, unter
VelWendung der Schatzung fOr die Varianz (s. Hartung (93» kann ein
Konfidenzintervall zum Niveau 1-a, wie oben bereits beschrieben, angegeben werden.
A.5 Loglineare Modelle bei multinomialem Erhebungsschema
In den bisherigen Betrachtungen sind ausschlieBlich Interaktionen zwi
schen zwei Merkmale untersucht worden. Dadurch konnte lediglich die
Frage erortert werden, ob Abhăngigkeit vorliegt oder nicht. Bei Betrach
tung mehrerer Merkmale gleichzeitig stellt sich die Frage, welche Arten
von Abhăngigkeiten vorliegen. Dies fOhrt zu ei ner groBen Anzahl mogli
cher Abhăngigkeitshypothesen. Dazu bedarf es eines Modellansatzes,
mit dessen Hilfe mehrdimensionale Abhăngigkeitsstrukturen geschătzt
werden konnen. Aus diesem Grund soli nun Uber das Unabhăngigkeits
modell der einfachen 2x2-Kontingenztabelle der Ansatz der loglinearen
Modelle vorgestellt werden. Zielvariable des loglinearen Modells ist die
logarithmierte zu elWartende Zellhaufigkeit. Analog zur Varianzanalyse
wird der ElWartungswert der Zielvariable als Summe der Effekte von
Faktoren dargestellt.
In diesem Abschnitt werden zunachst loglineare Modelle an hand der
bisher betrachteten 2x2-Kontingenztabelle erlautert. Um mehrdimensio
nale Anhangigkeitsstrukturen zwischen den Zufallsvariablen zu identifi
zieren, wird anschlieBend dieser Ansatz auf hoherdimensionale Kontin
genztabellen Ubertragen.
502 Anhang A
A.5.1 Zweidimensionale Modelle
Im folgenden werden loglineare Modellle an hand von zweidimensionalen
Kontingenztabellen beschrieben. Dabei werden die logarithmierten Zell
haufigkeiten anhand des folgenden Modellansatzes ermittelt:
m jk - mit dem Modell zu erwartende Haufigkeiten
Der Parameter ţi steht fUr den von beiden Zufallsvariablen unabhangi
gen Anteil der Zellbesetzung. Die beiden Parameter ţix. und J
ţi charakterisieren jeweils den Einflul? der Zufallsvariablen X und Y Yk
auf die zu erwartenden Zellbesetzungen. Der Einflul? Ober die bereits
dargestellten Parameter hinaus, der durch eine gemeinsame Betrach
tung der beiden Zufallsvariablen ertolgt, wird durch II dargestellt. Ist rXjYk
dieser Parameter gleich null, sosind die beiden Zufallsvariablen vonein
ander unabhangig.
Im folgenden wird gezeigt, wie das loglineare Modell Ober das Unabhăn
gigkeitsmodell der 2x2-Kontingenztabelle abgeleitet werden kann.
Unabhangigkeitsmodell der 2x2 Kontingenztafel
Ausgehend von der im vorangegangenen Kapitel vorgestellten Unab
hangigkeitshypothese
Ansătze zur Analyse van Abhăngigkeitsstrukturen 503
erhălt man durch Logarithmieren einen additiven Ausdruck:
Damit lassen sich die EinfluBgroBen der Zellbesetzungen einer Kontin
genztabelle in allgemeiner Form wie folgt darstellen:
Der Parameter ţi steht fUr den EinfiuB der j -ten Ausprăgung des XJ
Merkmals X, der Parameter ţi fUr den EinfluB der k-ten Ausprăgung Yk
des Merkmals Y und ţi ist von der Gesamtbesetzung abhăngig. FUr die
Parameter gelten folgende Restriktionen:
J K "ţi - "ţi - O mit J ,K: Anzahl der Merkmalsausprăgungen ~ XJ - ~ Yk-j=1 k=1
Damit erhălt man eine Parametrisierung, die einerseits gute Schătzei
genschaften besitzt und andererseits einfach auf mehrdimensionale Pro
bleme verallgemeinert werden kann. Dieses dargestellte Modell unter
BerUcksichtigung der angefUhrten Nebenbedingungen wird in der Litera
tur auch als Unabhăngigkeitsmodeli bezeichnet (vgl. Fahrmeir et al.(96)
S. 479 ff.).
504 Anhang A
Durch Hinzunahme zusatzlicher Parameter konnen auch Abhăngigkeiten
zwischen den Merkmalen erfaBt werden. Damit erhalt man im zweidi
mensionalen Fali den erweiterten Modellansatz:
Mit den Nebenbedingungen:
In der Literatur werden die Parameter ţi ,ţi als Haupteffekte und die Xj Yk
Parameter ţi als Interaktionseffekte bezeichnet. Die Haupteffekte XJYk
beinhalten die jeweilige Abweichung der logarithmierten erwarteten Zell
besetzung vom Gesamtmittel, die ausschlieBlich auf ein einziges Merk
male X und dessen Auspragungen x j zurGckzufGhren ist. Die Interaktio-
neffekte beinhalten den Beitrag, den die gemeinsame Betrachtung der
jeweiligen Merkmale Gber die bereits dargestellten Effekte hinaus auf die
Zellbesetzungen haben.
In spater folgenden Darstellungen werden zur Vereinfachung die Indi
zes j,k weggelassen, wenn samtliche Haupt- oder Interaktionseffekte fUr
ei ne Merkmalskombination betrachtet werden. Somit existieren J* K-1
frei variierende Parameter, was der Anzahl der frei variierende Zellhau
figkeiten entspricht. Damit kann jede Tabelle mit den Zellhaufigkeiten
{h jk J und damit jede komplexe Abhăngigkeitsstruktur beschrieben wer-
den. Ansătze, welche diese Eigenschaften besitzen, werden als satu
rierte Modelle bezeichnet.
Ansătze zur Analyse von Abhăngigkeitsstrukturen 505
Aligemeines lineares Modell
Zur Schătzung der Parameter des 2x2-dimensionalen loglinearen Mo
dells kann auf die allgemeine Form linearer Modelle zuruckgegriffen
werden. Da sich die Haupt- und Nebeneffekte jeweils zu O aufsummie
ren, IăBt sich immer ein Effekt als negative Summe der anderen Effekte
darstellen. In der Regel wird immer der Effekt der letzten Kategorie, der
sog. Referenzkategorie, als negative Summe der anderen ausgedruckt. Fur das Unabhăngigkeitsmodell gilt somit:
Unter Berucksichtigung dieser Nebenbedingungen erhălt man folgende
Vektordarstellung:
1 1
1 -1
-1 + ţlYl 1
-1 -1
FaBt man nun die Vektoren (1,1,1,1)', (1,1,-1,-1,)' und (1,-1,1,-1) zur
(4x3)-Matrix X zusammen und definiert die beiden Vektoren
so resultiert die Darstellung in ubersichtlicher Matrixschreibweise:
lnrn =Xţl
506 Anhang A
FUr das Merkmal X mit J Haupteffekten gilt die Verallgemeinerung. daB lediglich J -1 Parameter in das Modell aufgenommen werden. Die letzte Ausprăgung. zu welcher der fehlende Parameter gehort. wird durch
J-l c'en Effekt ţl = - Lţl erfa~t. Dies tindet BerUcksichtigung in der De-
XJ j=l Xj
signmatrix X. mit der fUr J Ausprăgungen J -1 Dummy-Variablen fol
genderma~en kodiert werden:
MerkrnalX hatKategoriej "" J MerkrnalX hatKategorieJ fUr j = 1 •.... J-1
sonst
Diese Moglichkeit der Kodierung erfolgt in Anlehnung an die Varianza
nalyse und wird auch als Effektkodierung bezeichnet. Damit Iă~t sich
jede Zelle durch den entsprechenden Dummy-Merkmalsvektor
(Xl ,"',XJ-l'Yl ""'YK-/ charakterisieren.
FUr saturierte loglineare Modelle ergibt sich dann folgende allgemeine
Darstellung:
lnm = 1/ + ţl Xl + ... + ţl XJ-l + ţl Yl + ... r' xl XJ-l Yl
Die zu den Interaktionstermen gehOrenden Spalten der Designmatrix X
ergeben sich durch Multiplikation der Elemente korrespondierender
Haupteffekte.
Ansătze zur Analyse van Abhăngigkeitsstrukturen 507
Parameterschatzung
Die Parameterschatzungen des saturierten loglinearen Modells erhalt
man liber die Exponentialfamilie (siehe Fahrmeir/Hamerle(84), Bis
hop/Fienberg/Holland(75) S. 77 ff). Entsprechend der ML-Schatzungen
in Exponentialfamilien ergeben sich daraus folgende Schatzungen:
A 1 ţi =-Llnhjk
JKj,k
unter der Bedingung:
h++ = e"Leţi'j + ţlYk +ţi'jYk i.k
Unter Berlicksichtigung der zusatzlichen Bedingung des Unabhangig
keitsmodells
508 Anhang A
entfallt der Term "Lh)'k ţi und damit ergeben sich bei dem hier zu jk XjYt
betrachtenden multinomialen Erhebungsschema die Randsummen h j +,
h+k mit j = 1, ... , J; k = 1, ... , K als suffiziente Statistiken (Mit h++ gleich dem Stichprobenumfang N):
Somit lassen sich die ML-Schatzungen allein aus der Kenntnis der
Randsummen ableiten. Dieses Prinzip gilt fUr samtliche loglinearen Mo
delle.
A 1 J
ţ1x. = lnh j + +- "L1nh j + J J j=1
Bild A 1: ML-Schatzungen des loglinearen Modells
Ansătze zur Analyse von Abhăngigkeitsstrukturen 509
Analogie zur 'odds-ratio'
Die in Anhang A.3.1) bereits vorgestellte Unabh8ngigkeitshypothese
kann (fUr j = k =1)'wie folgt formuliert werden (vgl. o.a. AusfUhrungen):
Die Nullhypothese ist dann erfullt, wenn die odds-ratio
den Wert 1 annimmt. Die Nullhypothese kann somit folgendermaBen
dargestellt werden:
Ho:p=l, bzw.: H o:lnp=O
Fahrmeir/Hamerle(96) (S. 549 ff.) zeigen den Zusammehang der odds-
ratio mit dem Interaktionsterm ţl des loglinearen Modells: x\y\
Wird nun der Anwendungsbereich auf J x K -Tabellen erweitert, so
lassen sich mehrere odds-ratio's aus jeweils vier Zellen bestimmen.
510 Anhang A
Mit der Darstellung der Beziehung zu den Parametern des loglinearen
Modells
- ţi. -ţi. -(ţi -ţi ) p. . k k - e Jikl Jlk 2 hkl h k2' lIh I 2
kann bei Unabhăngigkeit das Verhăltnis der beiden Zellwahrscheinlichkeiten mit
Pjkl ţi-ţi --=e 11 k2
Pjk2
dargestellt werden. p . . k k ist ei ne direkte Funktion der Interaktionspa-lIh I 2
rameter. ţi. - ţi. ist der Interaktionsparameter der il -ten Ausprăgung Jlkl JI12
des Merkmals X und ţi. - ţi. ist der Interaktionsparameter der i 2 -J211 J212
ten Ausprăgung des Merkmals X. Die Differenz entspricht dem log
arithmierten Verhăltnis der Wahr-scheinlichkeiten des Auftretens von
A.5.2 Mehrdimensionale Kontingenztabellen
Die Methodik zur Analyse 2-dimensionaler Kontingenztabellen kann auf
n-dimensionale Problemstellungen verallgemeinert werden. Auf der Ba
sis kanonisch erweiterter Kontingenztabellen soli untersucht werden, ob
mehrere Zufallsvariablen voneinander unabhăngig sind oder nicht. Falls
Ansătze zur Analyse van Abhăngigkeitsstrukturen 511
Abhangigkeiten varliegen, ist schlieBlich die Art des Zusammenhangs
genauer zu untersuchen. Aufgrund der hOheren Variablenzahl wachst
auch die Anzahl moglicher Zusammenhange und somit steigt letztendlich auch die Zahl der notwendigen Hypothesen. Im falgenden wird zu
nachst das saturierte Modell vorgestellt, mit dessen Hilfe ein Eindruck
gewonnen werden kann, welche Effekte hauptsachlich wirken. Um dar
Uber statistisch gesicherte Aussagen treffen zu konnen, sollen anschlie
Bend die Verfahren zur Parameterschatzung dargestellt und geeignete
Hypothesen formuliert und getestet werden.
Saturierte Modelle
Wie im vorangegangen Abschnitt gezeigt wurde, werden bei loglinearen
Modellen die logarithmierten zu erwartenden Haufigkeiten als Summe
sukzessive aufeinander bezogener Effekte (Parameter) dargestellt. Bei
Betrachtung sogenannter saturierter Modellen, bei denen alle moglichen
Effekte enthalten sind, konnen damit problemlos zu testende Hypothesen
formuliert werden konnen. Mit Hilfe des saturierten Modells lassen sich
zu erwartende Zellhaufigkeiten und damit jede komplexe Ab
hăngigkeitsstruktur beschreiben. Das saturierte Modell ei ner J-
dimensionalen Tafel enthalt jeweils (~) k-Faktor-Effekte. Zur einfache
ren Darstellung soli die in der Literatur gangige Notierung verwendet
werden. Betrachtet man beispielsweise eine vierdimensionale Tabelle
mit den Merkmalen Xl =A, Xz =8, X 3 =C, Y =0 und deren Auspragun-
gen (at, ... , a,), (bt, ... , bJ), (Ct, ... , cK), (dt, ... , dU, dann hat hat das
saturierte loglineare Modell folgende Gestalt:
512 Anhang A
FOr i = 1, ... ,1; j = 1, ... ,J; k = 1, ... ,K; 1 = l, ... ,L gilt:
lnmi;k/ = ţt+ P + Ilb + P +Ild , aj 'j Ct }
Dabei ist mijkl die zu erwartende Zellhăufigkeit bei Verwendung dieses
Modells mit folgenden Nebenbedingungen:
Llla.b. =Llla.b. =0, LPajCL =LllaICL =0 , ... , Lk IlCLdt =L1 PCtd} =0 i 1) j 1) i • k' •
~P a;bjck ='7 Il ajbJck =ţPajbjCk = O , ... , '7llbJCkdt =ţllbJCtd} =~ IlbjCkdt = O
L P ab ,cLdt = L P a.b ,cLdt = L Il a.b 'Ctdt = L Il a.b ,cLdt =0 il)' j 1). k 1) I 1).
Obwohl fOr jedes hierarchische Modell die Randsummen angegeben
werden konnen, ist eine Darstellung der ML-Schătzer als Produkt bzw.
Quotient aus den Randsummen nicht immer moglich. FOr das Modell
einer 3-dimensionalen Tafel ohne Interaktion 2. Stufe ist eine direkte
Schătzung nicht moglich (vgl. Fahrmeir/Hamerle(84) S. 522). Loglineare
Modelle mOssen unterschieden werden in solche, fOr die ei ne direkte
Schătzung moglich und solche fOr die eine Schătzung nur iterativ erfol
gen kann. Hinreichende Bedingung dafOr, daB ML-Schătzungen existie-
Ansătze zur Analyse von Abhăngigkeitsstrukturen 513
ren, ist ei ne Besetzung von mindestens einer Beobachtung in jeder Zelle
(vgl. Habermann(74a), Wedderburn(76)). Die Losung erfolgt mit dem
sog. Fisher-Scoring oder dessen Vereinfachung, dem modifizierten
Newton-Verfahren (siehe Bishop/Fienberg/Holland(75), S.76, Fahr
meir/Hamerle(84), S.522).
Hypothesentests
Motivation zum Kapitel uber die loglinearen Modelle ist die Oberlegung,
mehrdimensionale Abhăngigkeitsstrukturen in Daten zu analysieren.
Gegenstand der Untersuchung bilden somit einzelne Interaktionseffekte
und deren Relevanz. In Abhangigkeit der zu betrachtenden Fragestel
lung resultieren deshalb unterschiedliche Testprobleme, auf die im fol
genden eingegangen werden solI.
Zur Interpretation der Effekte des mehrdimensionalen Modells und der
folgenden Auswahl von Hypothesen 5011 zunachst festgehalten werden,
daB in den hier durchzufUhrenden Betrachtungen das Auftreten von Ef
fekten hoherer Ordnung die Existenz aller zugehorigen Effekte niedrige
rer Ordnung impliziert. In Fahrmeir/Hamerle(84) werden Modelle, fUr die
diese Pramissen gelten, auch als hierarchische Modelle bezeichnet.
Unter dieser Bedingung reicht es schlieBlich aus, die Wechsel
wirkungsterme hOchster Ordnung anzugeben, um ein Modell zu definie-
ren. Das oben angefUhrte Modell enthalt den Term Il ABCD' somit sind
auch, entsprechend dem Hierarchieprinzip, alle Marginaleffekte enthal
ten. Damit kann das saturierte vierdim. hierarchische Modell mit [ABCD]
abgekGrzt werden.
• Anpassungs-Tests
Die hier verwendeten Methoden, die Anpassung eines loglinearen Mo
dells zu GberprGfen, beruhen auf den im Anhang A.1 Gber Assoziativma
Be behandelten Tests auf Unabhangigkeit. Im folgenden soli die allge-
514 Anhang A
meine Form der Pearsonschen :C -Statistik und der Likelihood-Quotient
lq betrachtet werden.
:C -Teststatistik:
Unter Verwendung der erwarteten Zellhaufigkeiten mi eines loglinearen
Modells M, kann ein Anpassungstest mit Hilfe der :C -Teststatistik
le)
1'2 (M) = 2: (hi~mir (Mit i als Mehrfachindex fOr jede einzelne Zelmi
durchgefOhrt werden.
Likelihood-Quotient
Fur ein gewăhltes Modell M k6nnen die erwarteten Zellhăufigkeiten mi
geschătzt werden. Darauf aufbauend kann ein Anpassungstest mit fol
gender Teststatistik durchgefOhrt werden:
Iq(M) = 22:h1n ~i (Mit i als Mehrfachindex fOr jede einzelne Zelle) mi
Die beiden vorgestellten Teststatistiken sind asymptotisch :C -verteilt.
Die Anzahl der Freiheitsgrade ergibt sich aus der Differenz von der An
zahl der Zellen und der Anzahl der geschătzten Parameter. Leere Zellen,
durch deren Anordnung suffiziente Randsummen gleich Null sind, wer
den nicht berucksichtigt.
Ansătze zur Analyse von Abhăngigkeitsstrukturen 515
"Nested Models"
FUr eine spezielle Teilklasse loglinearer Modelle den sog. "nested mo
dels" kann eine einfache Beziehung zwischen den Werten der Likeli
hood-Quotienten-Teststatistik zwei verschiedener Modelle hergestellt
werden.
Ist ein loglineares Modell MI vollstandig in einem Modell M2 enthal
ten, d.h. die Parametermenge von MI ist ei ne echte Teilmenge der Pa
rametermenge von M2' 50 gilt fUr die beiden Statistiken folgende Be
ziehung:
Iq(MI ) = 2Lh1n ~i i mi
und Iq(M2) = 2Lh1n ~i i mi
(m: Mit Modell MI geschatzte Haufigkeiten)
(fn: Mit Modell M2 geschatzte Haufigkeiten)
Mit MI::::l M 2 kann gebprUft werden, ob die fehlenden Parameter des
Modells M 2 signifikant sind. DafUr wird der Log-Likelihood Quotient
gebildet. Ais Ma~ fUr die resultierende Verschlechterung der Anpassung
wird die Differenz der beiden Teststatistiken gebildet:
Iq(MI\M2 ) = /q(MI )-lq(M2) = 2L~iln "!i i mi
Die Teststatistik Iq(MI \M2) ist unter der Nullhypothese, da~ M2 gilt,
asymptotisch .i -verteilt. Die Anzahl der Freiheitsgrade ergibt sich da
bei aus der Differenz der Anzahl der Parameter beider Modelle M1 und
M2 (siehe Bishop/Fienberg/Holiand (75».
Sind die Differenzen der Modellanpassung klein, d.h. die bedingte
Teststatistik ist klein, dann tragen die zusatzlichen Parameter in M2
wenig zur Anpassung bei. Ist die Teststatistik dagegen gro~, 50 ist durch
516 Anhang A
ale zusatzlichen Parameter des Modells M2 eine wesentliche Verbesse
rung zu erreichen. Die Likelihood-Quotienten-Teststatistik kann insbe
sondere dazu verwendet werden, aus einer vorgegebenen Hierarchie
loglinearer Modelle ein passendes Modell auszuwahlen. Dies ist bei
spielsweise der Fali, wenn aus einer Menge von Merkmalen diejenigen
ausgewahlt werden sollen, deren EinfluB auf die Verteilung der Stichpro
beneinheiten am groBten ist. FOr die weiteren Betrachtungen stehen die
Interaktionen verschiedener Merkmale auf die Auspragungen einer ganz
bestimmten Variablen, dem Kundenrisiko, im Vordergrund. FOr diese
Betrachtungen sollen spater die sog. Logitmodellen genauer erlautert
werden.
Die ML-Schatzungen fOr die Parameter Pk konnen von den ML-
Schatzungen der zu erwartenden Zellhaufigkeiten abgeleitet werden. Auf
die Schătzungen s2(uk) fOr die Varianzen der Parameterschatzungen
soli an dieser Stelle nicht naher eingegangen werden. FOr weitere Infor
mation wird auf Fahrmeir et al.(96) und Lee(77) verwiesen. Die ML
Schatzungen sind jedoch nur fOr saturierte Modelle und spezielle einfa
che nicht saturierte Modelle direkt angehbar.
Die Hypothese H O)Jk = O kann mit Hilfe der standardisierten Para-
meterschatzungen ~k OberprOft werden. Wenn HO gilt, dann ist dies(Jlk)
ser Ausdruck asymptotisch N(OI1)-verteilt.
Anhang B: Diskriminanzanalyse zur Risikoklassifikation
B.1 Diskriminanzanalyse mit diskreten Merkmalen
B.1.1 Das voile multinomiale Modell
In dem hier vorgestellten Verfahren werden keinerlei Annahmen getrof
fen, die Uber das Vorliegen einer Multinomialverteilung hinausgehen.
Deshalb wird es in der Literatur auch als volles multinomiales Modell
bezeichnet (vgl. Fahrmeir/Hamerle(96». Wie in den vorangegangenen
Abschnitten, haben die Merkmale X1"",X1 jeweils die Auspragungen
1 {l, ... ,JJ. Der Merkmalsraum enthalt somit S = ITJi mogliche Merk-
i=1
malskombinationen, deren Auftreten einer Multinomialverteilung unter
liegt. Bei Betrachtung diskreter Variablen ist f(x,k) nicht als Dichte son
dern als Wahrscheinlichkeitsfunktion f(x,k) = p(x,k) aufzufassen. Die
Daten einer Stichprobe mit {xn,knl. n = 1, ... ,N konnen in ei ner 1+1 di
mensionalen Kontingenztabelle dargestellt werden.
Seien 1l(x,k) = p(x,k) die unbekannten Zellwahrscheinlichkeiten und
h(x,k) die beobachteten Zellbesetzungen, dann konnen die Diskrimi
nanzfunktionen (Bayes-Zuordnung) auf Basis der beobachteten ZeII hau
figkeiten geschatzt werden:
't An( k) h(x,k) mi x =--, N
Damit la~t sich eine einfache Zuordnungsregel formulieren: "Ordne eine
Beobachtung x derjenigen Klasse k zu, welche unter den Objekten der
Lernstichprobe mit eben dieser Merkmalskombination am haufigsten
vorkommt". Der Merkmalsraum S wird durch diese Klassifikationsregel
518 Anhang B
in K Klassengebiete DI, ... ,DK zerlegt. Daraus ergeben sich folgende
geschatzten Klassengebiete:
Dk = {xlh(x, k) > h(x, r) fur alle r Ţ. k}
Falls die betrachtete Merkmalskombination eines zu klassifizierenden Objektes in mehreren Klassen gleich hăufig auftritt, erfolgt die Zuord
nung zu einer dieser Klassen per Zufallsauswahl.
Unabhăngige dichotome Merkmale
Im folgenden gelte fUr die unabhăngigen Variablen X; E {O,l} :
1r;k = P(X; = llk)
und 1-1r;k =P(X; = 0lk)
Aufgrund der Unabhăngigkeit der einzelnen Merkmale gilt somit:
]
P«XI , ... ,X]) = (XI , .. .x] )Ik) = n1r;~ (l-1r;k)I-Xi
;=1
Die logarithmierten Funktionen der Bayes-Regel dk(x) = p(k)f(xlk)
haben folgende Gestalt:
d' k(X) = lndk(x) = lnp(k) + lnf(xlk)
Die logarithmierte Form der fehleroptimalen Zuordnungsregel ist dann: ] ]
d'k(x) = LX;ln 7lik + L(l- x;)ln(l- 7lik)+ lnp(k) ;=1 ;=1
]
= LV;X;+Vo ;=1
Die Schătzung der Koeffizienten ergibt sich aus der Stichprobe wie folgt:
Diskriminanzanalyse zur Risikoklassifikation 519
A 1 1rjk 1 h(xj =l,k) v· = n--= n ----'--'-----'--
1 l-1rjk N k -h(xj =1,k)
I I h(xj =1,k) 1 N k Vo =L:ln(I-1r jk)+lnp(k) = L:ln(1 )+ n-j=l j=l N k N
mit: N k = h++ .. .k -Anzahl der Objekte in Klasse k
Damit ist jede Diskrfminanzfunktion durch 1 + 1 Koeffizienten bestimmt.
Dichteschatzer Mit den sog. nichtparametrischen Verfahren zur Dichteschatzung kann
die Schatzung der Auftrittswahrscheinlichkeit der Merkmalskombinatio
nen x in der Klasse k p(xlk) erfolgen. Fur diskrete Daten werden dafGr
speziell zugeschnittene Kernfunktionen verwendet (Aitchison/Aitken
(76)). Fur dichotome Merkmale und deren Stichprobenraum
S = {O,l Y = {(XI , ... XI ~Xj E {O,l}}
kann aus der Matrix der beobachteten Merkmalsvektoren der k-ten Klas
se Xk = (Xkl, ... ,XkN )' folgende Schatzung der Auftrittswahrscheinlichkeit k
vorgenommen werden:
und der Distanz: d(X,Xkn) = (x - Xkn)'(x- Xkn) ,
und .!. $ Âk $1 (Anzahl der nicht ubereinstim-2
menden Merkmalsauspragungen)
520 Anhang B
Die Kernfunktion ist eine Wahrscheinlichkeitsfunktion fUr diskrete Werte
auf S und hat folgende Eigenschaften:
• Ist x = Xkn ' dann ist die Kernfunktion maximal mit: K(xIXkn' Ak)= Ar • Unterscheiden sich x und Xkn in allen Komponenten, dann wird die
Kernfunktion minimal: K(xIXkn' Ak) = (1- Ak)1
Jeder Wert von K(xIXkn' Ak) stellt einen 'Kern' zur Beobachtung Xkn dar.
Mit wachsender Entfernung der Beobachtung wird dieser immer kleiner
in Abhăngigkeit von der GroBe Ak' FOr den speziellen Fali mit  = 1 gilt:
I {1 x = Xkn K(xxkn ,1) =
O x"# Xkn
Im Falle von  =.! ergibt sich eine geschătzte Gleichverteilung Ober den 2
Stichprobenraum. Somit entspricht die Schatzung p(xlk, X k' Ak) der des
vollen multinomialen Modells, wobei die Wahl des Glattungsparameters
Ak fUr die Eigenschaften des Schatzers entscheidend ist. Schatzmetho-
den zur Bestimmung des Glattungsparameters, basieren auf der soge
nannten 'Ieaving one out' oder 'Jackknife' Methode. Dabei werden die
Schatzungen mit den um jeweils einen Beobachtungswert reduzierten
Datenmatrizen durchgefUhrt. AnschlieBend wird das Produkt Ober alle
Schătzungen, eine sog. Pseudo-Likelihoodfunktion, maximiert (5. Aitchi
son/Aitken(76); Habbema et al.(74»:
N t
W(ÂIXk ) = max II p(xkn Ik,Xk \xkn,Âk ) .bO n=l
mit der reduzierten Matrix: X k \ xkn
Diskriminanzanalyse zur Risikoklassifikation 521
Erweiterungen dieses Verfahrens hinsichtlich verschiedener Glattungs
parameter fUr einzelne Klassen und die Verallgemeinerung auf nicht
binare diskrete Daten kann bei Aitchison/Aitgen(76), Hall(81), Tittering
ton(80) und Murray/Titterington(78) nachgelesen werden.
B.1.2 Logit-Modell
Mit den bereits vorgestellten loglinearen Modellen konnen alle Wechsel
wirkungen zwischen den betrachteten Merkmalen erfa~t werden. In den
meisten Anwendungen ist dies jedoch nicht erforderlich. In der Anwen
dung zur Klassifikation von Kreditrisiken steht lediglich das abhangige
Merkmal (Kundenrisiko) und dessen erklarende Variablen im Blickfeld.
Eine solche asymmetrische Betrachtung als Sonderfall loglinearer Mo
delle wird als Logit-Modell (vgl. Fahrmeir et al. (96) S. 618ff.) bezeich
net. Das Risiko Y wird als dichotomes Merkmal aufgefa~t, d. h. Y nimmt
nur zwei Merkmalsauspragungen (guter/ schlechter Kunde) an.
Die Response-Variable kann somit in der Form (Yl=O, Y2=1) kodiert
werden. Betrachtet man beispielsweise das saturierte Modell einer 3-
dimensionalen Kontingenztafel, um den Einflu~ der Merkmale A und B
auf das Kundenrisiko Y als dichotomes Merkmal zu untersuchen, kann
ein loglineares Modell aufgestellt werden. Die logarithmierte erwartete
Anzahl "guter" bzw. "schlechter" Engagements (lnm(]1 bzw. lnmij2) hat
folgende Darstellung:
bzw.
1nmif2 = /1+ Pai + ţlbj + ţlY2 + Pa;bj + ţlaiY2 + ţlbjYz + ţlaibjY2
Bild B1: Loglineare Modelle fUr die beiden Klasse k =1,2 zur
Schatzung der logarithmierten erwarteten Zellhaufig
keiten einer 3- dimensionalen Kontingenztabelle.
522 Anhang 8
Ais RisikomaB wird der Quotient aus den beiden erwarteten Haufigkeiten
betrachtet:
Damit erhălt man nur noch Terme, welche mit dem Risikomerkmal in
Verbindung stehen. Zur Vereinfachung konnen dieses folgendermaBen
ersetzt werden:
Daraus ergibt sich das Logit-Modell:
m'l ln-IJ = v+ V-a + lA + V,ab
mij2 j ro} j j
Auf die Verallgemeinerung soli hier nicht eingegangen werden. Grund
satzlich ist jedoch, durch Subtraktion der loglinearen Modelle hOherer
Ordnung, analog zu verfahren.
Parameterauswahl
Wie bei den loglinearen Modellen kann zur Auswahl signifikanter Merk
male (bzw. zur Festlegung des Modells) auf den Log-Likelihood
Quotienten zurUckgegriffen werden. FUr ei ne Hierarchie von Modellen
(nested models) der Form MI C M2 c ... c M m gilt fUr die Modellanpas
sungs-Statistiken folgende Reihenfolge:
Diskriminanzanalyse zur Risikoklassifikation 523
Die Idee besteht darin, zunăchst die Anpassung des vollstăndigen Mo
dells M m zu testen und anschlieBend sukzessive die Signifikanz der
Anpassungsstatistiken lq(Mm_ l ) und der Abweichungsstatistiken
lq(M m-IIM m) reduzierter Modelle zu vergleichen (vgl. Toutenburg (92),
S. 63ff.). Ist eine dieser beiden Statistiken signifikant, d.h. die Anpassung
des reduzierten Modells ist signifikant schlechter, wird das Modell M m
als adăquates Modell auswăhlen. Sind beide Statistiken nicht signifikant,
d.h. mit einem reduzierten Modell wird keine signifikante Anpassungs
verschlechterung bewirkt, dann wird das Verfahren analog mit dem
năchst kleineren Modell fortgesetzten. Bei Betrachtung einfacher Inter
aktionen enthălt das einfachste Logit-Modell die Effekte der Parameter
von den Variablen XI"" XI' SchlieBlich wird jeweils ein Parameter aus
dem Modell entfernt und die Anpassung UberprUft. Somit kann der Ein
fluB jedes einzelnen Parameters getestet werden.
Die PrUfung der Hypothese H o : fJi = O erfolgt mittels der x 2 -
verteilten quadrierten t-Statistik:
~2
Z = [2 = fJi (vgl. Fahrmeitr (96), S. 88ff.) b~
fii
Weitere Modellansătze mit BerUcksichtigung der Interaktionen innerhalb
der abhăngigen Variablen, werden bei Fahrmeir/Hamerle(84), Haber
mann(74), Benedetti/Brown(78), Goodman(71 a) und Bishop/Fienberg
(74» vorgestellt. Es ist jedoch zu bemerken, daB sich die Menge der
măg lichen Tests sehr stark vergrăBert und somit die Aussagekraft des
Signifikanzniveaus abnimmt. Da es sich dabei um explorative, d.h. da
tengetriebene Vorgehensweisen handelt, ist fUr dieses heuristische Vor
gehen eine inferrenzstatistische Absicherung mittels einer neuen Stich
probe notwendig.
524 Anhang B
B.1.3 Vergleich mit der Regressionsanalyse diskreter Merkmale
Mit der Regressionsanalyse werden die Beziehungen zwischen Variablen
untersucht. Die Darstellung dieser Beziehungen erfolgt in Form ei ner
Gleichung, bei der die abhangige Variable Y mit einer oder mehreren
Variablen Xl,,,,,X1 in Verbindung gebracht wird:
Dabei werden die Regressionskoeffizienten Pi aus den Daten ge
schătzt. s ist eine Storvariable mit dem Erwartungswert E(s) = O. Fur die
folgenden Betrachtungen werden sowohl die abhangige Variablen als
auch die unabhăngigen Variablen als kategorial angenommen. Die in
diesem Abschnitt vorgestellt Modelle zur Analyse von kategorialen Daten
sind Spezialfalle der generalisierten linearen Modelle (GLM). Diese sind
durch eine lineare funktionale Beziehung zwischen den unabhangigen
Variablen und der Zufallsvariable Y, deren Wahrscheinlichkeitsvertei
lung der natGrlichen Exponentialfamilie angehort, charakterisiert.
Ais abhangige Variable wird entweder ein dichotomes Merkmal mit
den Auspragungen Y E {O,I}} oder die bedingte Wahrscheinlichkeit
p(Y = llX) betrachtet. Der EinfiuB einer Variablen Xi auf die ab
hangige Variable ist in dem Term PiXi enthalten.
Die unabhangigen Variablen Xi sind jedoch nominal skaliert, d.h. es
werden den verschiedenen Kategorien Zahlen zugeordnet. Der EinfluB
einzelner Merkmale auf die abhangige Variable ist deshalb nicht mehr
sinnvoll interpretierbar. Dies kann umgangen werden, in dem die Merk
malsauspragungen separat als Variable definiert werden. Dazu werden
die einzelnen Kategorien separat kodiert. Von einer Reihe unterschiedli-
Diskriminanzanalyse zur Risikoklassifikation 525
cher Moglichkeiten sollen lediglich die zwei wichtigsten vorgestellt wer
den.
• Dummy-Kodierung:
Ein Merkmal A mit den Merkmalsauspragungen (Kategorien) j =1 ... J
wird mit J -1 Dummy-Variablen folgender Form ausgedrOcki:
A _{l Xj - O
Variable A hat Kategorie j mit j=1, ... ,J-1
sonst
Damit lassen sich samtliche Kategorien des Merkmals A mit dem
Merkmalsvektor XA == (X~ ,.··,xL)' kodieren. Die Dummy-Variable
nimmt den Wert 1 an, falls die j -te Kategorie vorliegt und die J -te Ka
tegorie wird durch die Kodierung x j = O fOr j =1, ... , J -1 implizit erfaBt.
Die dazugehorenden {J j drOcken analog zur Varianzanalyse die sog.
Haupteffekte aus.
• Effekt-Kodierung:
Diese Moglichkeit der Kodierung erfolgt in Anlehnung an die Varianza
nalyse und hat folgende Gestalt:
x;={-~ Variable A hatKategorie j
VariableA hatKategorieJ mit j = 1, ... , J-1
sonst
J-I J
Damit wird {J J == - L {J j bzw L {J j == O (siehe loglineare Modelle). j=1 j=1
526 Anhang B
Die KOdierung von Dummy-Variablen wird fUr jedes Merkmal und dessen
Auspragungen vorgenommen. FUr das entsprechende Haupteffektmodell
sind die Dummy-Variablen der Merkmale A,B,e ... und deren I,J,K ... Aus
pragungen im Merkmalsvektor
mit dem Parametervektor
P = (J3a ,.··,Pa ,P,. ,,··,Pb 'Pc ,.··,Pc ... )' 1 1-1 "1 J-l 1 K-l
enthalten.
Um den EinfluB einer bestimmten Kombination von zwei oder mehre
ren Merkmalen zu messen, konnen zusatzlich Interaktionseffekte mit
berUcksichtigt werden. Dies geschieht, in dem Produkte der Dummy
Variablen in den Regressionansatz mit aufgenommen werden. Der Da-
tenvektor wird mit den Termen XalXq, ... ,XalXq, ... ,XqXcl, ... ,x<ltXqXcl ...
erweitert und der Koeffizientenvektor P wird entsprechend dimensio
niert.
Logit-Modelle
Bei Logit-Modellen wird die abhangige Variable (Kundenrisiko) als di
chotom mit den Auspragungen y = O, Y = 1 aufgefaBt. Y ist binomial-
verteilt (aus der Familie der Exponentialverteilungen) mit P(Y = 1) = 7r
und p(Y = O) = 1-7r . Wird Y bei N Objekten realisiert, 50 erhălt man N
verschiedene Zufallsvariablen Yn mit p(Yn = 1) = 7r n und p(Yn = O) = 1-7r n
mit n=1, ... ,N:
Diskriminanzanalyse zur Risikoklassifikation 527
mit: Yn E {O,l}
Der Ausdruck In ~ wird als Logit von 7r n bezeichtet. Mit Verwen-1-7rn
dung der Logit-Linkfunktion erhalt man das Logit-Modell (vgl. Toutenburg
(91) S. 52ff.):
Die Datenbasis wird nach Merkmalskombinationen gruppiert, 50 daB fOr
jede Merkmalskombination s mitNs Beobachtungen vorliegen. Davon
sind jeweils N sa Beobachtungen mit dem Wert der Zufallsvariabeln
y = O und N sl mit y = 1. Die Wahrscheinlichkeiten konnen aus den je
weiligen Hăufigkeiten geschatzt werden:
Logitregression
Wie bei den Logit-Modellen wird auch hier vorausgesetzt, daB die ab
hangige Variable Y binar ist. Dabei wird mit dem Ansatz der logistischen
Regression die Wahrscheinlichkeit p(Y = Ilx) = 7r(x) in Abhangigkeit von
den EinfluBvariablen Xl, ... ,X1 modelliert. In Fahrmeir et a. (96) wird
dieser Ansatz fOr den Fali mit 1 = 1 beschrieben:
7r(X) = Pa + fix
Toutenburg (92) erwahnt dabei den Nachteil dieses Ansatzes, daB die
Wahrscheinlichkeiten 7r(x) zwischen O und 1 liegen die Zielvariable der
logistischen Regression dagegen jedoch Werte zwischen -00 und +00
528 Anhang B
annehmen kann. Aus diesem Grund wird ein Ansatz mit dem Wertebe
reich [0,1] gewahlt:
n-(x) = exp(Po + fJx) 1 + exp(Po + fJx)
Mit VelWendung der Logit-Linkfunktion erhalt man das im vorangegangenen Abschnitt bereits vorgestellte generalisierte lineare Modell:
In n-(x) Po + fJx l-n-(x)
Nach Cox(66) und Day/Kerridge(67) ist im Zwei-Klassen-Fall das log
arithmierte Verhăltnis der beiden Klassendichten linear:
f(xll) In--= Po + fJx
f(xI2)
Die erklarenden Variablen kănnen sowohl kategorial als auch stetig sein.
Ist X kategorial und wird der Logit-Link velWendet, dann sind die Logit
Modelle aquivalent zu den loglinearen Modellen (kategoriale Regression:
vgl. Toutenburg (92), S. 52 ff.).
B.1.4 Mehrkategoriales Logit-Modell als multivariates generalisiertes
lineares Modell
Betrachtet man Falle, bei denen die abhangige Variable mehr als zwei
Auspragungen K > 2 hat, dann ist die Zielvariablen multinomialverteilt.
Wie oben bereits beschrieben sind mit den unabhangigen Variablen wie
der S verschiedene Merkmalskombinationen măglich. Zu jeder dieser
Merkmalskombinationen X s werden N s unabhangige Beobachtungen
Diskriminanzanalyse zur Risikoklassifikation 529
der abhăngigen Variablen Y realisiert, wie in folgender Anordnung dar
gestellt ist:
Merkmals- AuftriUswahrscheinlich- Teilstichproben-
kombination keiten fUr die Klassen
1, ... ,K
1 A A
7Z"1I ,···,7Z"IK
A A
S 7Z"sl ,···,7Z"sK
S A A
7Z"SI,···,7Z"sK
umfănge
NI
N s
Ns
Bild B2: Beschreibung eines K-kategorialen Problems
In diesem Fali erhălt man fUr jede Merkmalskombination s mit N s Beob
achtungen die AuftriUswahrscheinlichkeiten 7r sk .
Es sei Ys eine Zufallsvariable mit:
{l' Klasse k
Y = s 0, sonst
k=l, ... ,K-l
und dem Erwartungswert: E(Ys ) = P(Ys = Ils) = 7r sk
Fur den Erwartungswert von Ys = YsI , .•. 'ysK-I (d.h. fUr jede Merkmals
kombination 5) erhălt man den Vektor der AuftriUswahrscheinlichkeiten
der Klassen k = 1, ... , K -1 :
530 Anhang B
Die Verallgemeinerung des im vorangegangenen Abschnitt dargestellten
Modells fiir K = 2 ergibt das mehrkategoriale Logistische Regres
sionsmodell:
1C sk = K-l
1+ Lexp(POk +xs'Pk) k=l
Damit ergibt sich die Darstellung als generalisiertes lineares Modell
(GLM):
. ~ 1 N, n mit 7rsk=-LYsk
N s n=l
s = 1, ... , S; k = 1, ... , K
Da in dieser Arbeit lediglich der Zwei-Klassen-Fall betrachtet wird, soli
auf die Schatzung der Parameter des mehrkategorialen Logit-Modells
und auf die Beschreibung der verschiedenen Testverfahren nicht einge
gangen werden. FUr den interessierten Leser sei auf Fahrmeir et al. (96),
S. 262 ff. verwiesen.
Diskriminanzanalyse zur Risikobewertung 531
8.2 Multivariate Analyse stetiger Risikomerkmale
Die ersten multivariaten Ansatze zur Trennung und Identifikation ver
schiedener Klassen von Objekten entstanden bereits in den' dreiBiger
Jahren von Fisher. Der sog. Fisher-Ansatz basiert auf der Optimierung
eines varianzanalytischen Kriteriums. Dieser Ansatz und die beschriebe
ne Maximum-Likelihood Methode konnen als Spezialfalle der Bayes
Regel verstanden werden.
m Fisher-Ansatz werden keine Annahmen zur Verteilung des Merk
malsvektors in den Klassen vorgenommen. Diese Oberlegungen werden
bei den sogenannten parametrischen Verfahren mit berlicksichtigt. In
deren weiteren Verlauf nimmt die Normalverteilungsannahme aufgrund
ihrer ZweckmaBigkeit einen groBen Raum ein. Ausgehend vom allge
meinen Fali der Quadratischen Diskriminanzanalyse bis hin zu immer
restriktiveren Annahmen der linearen Diskriminanzanalyse werden diese
Ansatze beschrieben. Dabei soli die Verbindung zu den Minimale
Distanz-Konzepten aufgezeigt werden.
In der realen Anwendung konnen Verteilungsannahmen liber die
Merkmalsvektoren jedoch nur sehr ungenligend oder gar nicht getroffen
werden. Die dazu entwickelten verteilungsfreien Ansatze konnen in der
Literatur im Grunde als zweigleisig angesehen werden. Einerseits wird
versucht, eine Dichteschatzung in den Klassen vorzunehmen. Erste Ar
beiten entstanden dazu in den fUnfziger Jahren von Rosenblatt(56) und
darauf aufbauend von Parzen(62).
Andere Oberlegungen beruhen auf den bereits viei frliher entwickelten
ĂhnlichkeitsmaBen (Hotelling (30)), mit denen die Zuordnung eines
Merkmalsvektors gemaB eines Kleinste-Distanz-Kriteriums vorgenom
men wird. Ausgehend von der Oberlegung, ein zu klassifizierendes Ele
ment gemaB der Klassenzugehorigkeit ihm ahnlicher Elemente zuzuord
nen, hat in den fUnfziger Jahren zu den sog. Nachste-Nachbarn
Verfahren gefUhrt (FixlHodges(51)). Dabei haben Definition und Auswahl
532 Anhang B
geeigneter ĂhnlichkeitsmaBe und Distanzen eine weitere Diskussion
erfahren (Hills(67), Cover/Hard(67), Peterson70». Dabei werden die k
Beobachtungen , die am nachsten am zu klassifizierenden Merkmals
vektor (Objekt) liegen, betrachtet. Dort findet prinzipiell die Bayes -Regel
Anwendung, wonach die Beobachtung jener Klasse zugeordnet wird,
welche die groBte a -posteriori-Wahrscheinlichkeit dieser Beobachtung
aufweist. In Anlehnung an die o.a. nichtparametrischen Verfahren wird
dazu ei ne Dichteschatzung vorgenommen.
B.2.1 Fisher Ansatz
In der Literatur erfolgt eine Zuordnung des Fisher Ansatzes sowohl zu
den parametrischen als auch zu den nichtparametrischen Verfahren.
Beim ursprunglichen Ansatz wird jedoch keine Verteilungsannahme ge
troffen, sondern nur verlangt, daB ein Trennkriterium maximiert wird. Aus
diesem Grund soli der Fisher Ansatz als nichtparametrisches Verfahren
eingeordnet werden, obwohl dieser als Grundlage spaterer parametri
scher Verfahren dient und Spezialfalle des Maximum-Likelihood-Ver
fahrens zu gleichem Diskriminanzkriterium fGhren.
Zwei-Klassen Fali
Der im folgenden dargestellte klassische Ansatz von Fisher (1936) be
steht darin, einen I-dimensionalen Merkmalsraum miUels einer linearen
Funktion
y==px
so zu transformieren, daB die Trennung der beiden Gruppen optimal
wird, wobei den beiden Ausgangsverteilungen der Klassen 0k>k == 1,2,
kein bestimmter Verteilungstyp unterstellt wird.
Diskriminanzanalyse zur Risikobewertung 533
Es wird eine Trennfunktion geschătzt, die ei ne optimale Trennung zwi
schen den Gruppen und ei ne OberprUfung der diskriminatorischen Be
deutung der Merkmale ermoglicht. Geometrisch erfolgt eine Projektion
der Beobachtungen auf ei ne sog. Diskriminanzachse. Diese verlăuft
durch den Nullpunkt des Koordinatensystems und ihre Lage wird von den
Diskriminanzkoeffizienten Pi bestimmt.
Die Verteilungen der Werte der Trennfunktion (Diskriminanzwerte)
unterschiedlicher Klassen sollen moglichst weit voneinander entfernt sein
und die Werte innerhalb der Klassen sollen năher zusammenrGcken. In
anderen Worten fGhrt dies zu einer Darstellung mit gro~tmoglicher Ho
mogenităt innerhalb der Gruppen und gro~tmoglicher Heterogenităt der
Gruppen untereinander. Dies wird dann erreicht, wenn der folgende Aus
druck maximal ist:
mit: Yk = P X k - Mittelwerte der beiden Klassen und
2 Nt - 2 Sk = L (Ykn - Y k ) - Summe der quadrierten Abweichungen
n=1
Ein Merkmalsvektor X mit den Ausprăgungen x wird der Ausgangsver
teilung nI zugeordnet, wenn die Ungleichung
d(x) = (xI - x2 l W-I[x - "Î(XI + X2 )] > o
gilt (vgl. Fahrmeir et al. (96».
534 Anhang B
Mehr-Klassen Fali
Bei mehr als zwei Klassen wird die oben beschriebene Vorgehensweise
fortgesetzt, in dem lineare Funktionen ermiUelt werden, die folgenden Ausdruck maximieren:
K: Anzahl der Klassen
Mit der Zwischen-Klassen Streumatrix
und der Inner-Klassen Streumatrix
Nk I
Wk= L (Xkn-:XkXXkn-Xk) n=l
kann das Trennkriterium vereinfacht dargestellt werden:
Q(jJ) = PBfJ ~ max PWfJ /#0
Dabei ist der Ausdruck PBfJ ein Mal1 fUr die Streuung der Diskrimi
nanzwerte zwischen den Klassen und P W fJ steht fUr die Streuung inner
halb der Klassen. Die optimalen Gewichte erhălt man, indem das Trenn
kriterium nach allen fJi partiell differenziert und gleich Null gesetzt wird.
Diskriminanzanalyse zur Risikobewertung 535
Durch Umformung erhălt man folgendes Eigenwertproblem:
Unter der Voraussetzung, daB W invertierbar ist, gilt es nun, die Eigen
werte Âj der Matrix W-JB zu bestimmen. Die dazugehorenden Eigen
vektoren entsprechen somit den Diskriminanzkoeffizientenvektoren,
womit die Diskriminanzfunktionen gebildet werden konnen. FUr die Folge
der Eigenwerte gilt: Â J ~ Â2 ~ ~ ~ .••• Die Anzahl der positiven Eigenwerte
und damit der moglichen Diskriminanz-funktionen bei K Klassen und I
Merkmalen betrăgt hochstens (K-1,1)
Die erste Diskriminanzfunktion wird so ermittelt, daB ihr Eigenwert und
damit ihr Erkărungsanteil EA maximal ist. Die zweite Diskriminanzfunk
tion kann maximal den restlichen Anteil derjenigen Streuung erklăren,
die nach Ermittlung der ersten Diskriminanzfunktion Ubrig bleibt. Ais MaB
fUr die relative Wichtigkeit einer Diskriminanzfunktion wird der Eigenwertanteil (erklărter Varianzanteil) verwendet (vgl. Backhaus et al.(94»:
Nach Cooley/Lohnes(71) nimmt die Wichtigkeit der sukzessiv ermittelten
Diskriminanzfunktionen rasch ab. Unter Verwendung der ersten Diskri
minanzfunktion wird das zu klassifizierende Objekt mit den Merkmals
ausprăgungen X jener Klasse 0.k .k = 1 •...• K zugeordnet, fUr die gilt:
fUr alle i "* k
Dabei ist f3 der Eigenvektor, der dem groBten Eigenwert entspricht und
xk ist der Mittelwert der beobachteten Merkmalswerte in der Klasse 0k.
536 Anhang B
B.2.2 Parametrische Verfahren
Sind die Ausgangsverteilungen der Klassen bekannt, 50 konnen die
Dichtefunktionen des Merkmalsvektors X aus den Teilgesamtheiten 0k
zur Diskriminanzanalyse verwendet werden. In Abhăngigkeit der voraus
gesetzten Annahmen Uber die Klassenverteilungsfunktionen sollen im
folgenden die entsprechenden Ansătze vorgestellt werden.
Die Bestimmung der Parameter, mit denen solche Verteilungen cha
rakterisiert werden, ist teilweise sehr aufwendig. Dies hat dazu gefUhrt,
daI?, Ansătze, bei denen eine Normalverteilung zugrunde gelegt wird, am
hăufigsten Verwendung finden, da diese Verteilungsform einerseits mit
dem Erwartungswert und der Varianz eindeutig bestimmt ist und anderer
seits die Verfahren sehr robust gegen Verletzung dieser Annahmen rea
gieren.
Im folgenden werden parametrische Modellansătze anhand der Maxi
mum-Likekihood-I und anhand der Bayes-Entscheidungsregel vorge
stellt. Dabei 5011 vorausgesetzt werden, daI?, die Klassenverteilungen
normalverteilt sind:
f (xiO ) = f (xlk) = 1 e -~(x- I'i)' Iii (x- I'i )
k !fi; ~(detLd
mit: ţi k: E(x) in der Klasse k
Lk: Kovarianz in der Klasse k
Maximum-Likelihood-Entscheidungsregel
Grundidee ist es, ein Objekt derjenigen Klasse zuzuordnen, fUr welche
f (xIOk ) am grol?,ten ist. Sind die Ausgangsverteilungen in den Klassen
0k,k = 1, ... ,K multinormalverteilt und die Kovarianzmatrizen stimmen
Diskriminanzanalyse zur Risikobewertung 537
uberein, 50 fUhrt dieses Verfahren zur selben Zuordnungsregel wie der
Fisher-Ansatz.
• ML-Entscheidungsregel fUr den Zwei-Klassen Fali
Wie bei den Logit-Modellen konnen im Zwei-Klassen Fali Quotienten
gebildet werden. Durch Einsetzen der beiden Dichtefunktionen ergibt
sich folgende Form:
f (xlk = 1)
f (xlk = 2)
Ist der Quotient gror..er als eins, dann wird der zu klassifizierende Merk
malsvektor x der Klasse k = 1 zugeordnet. Mit der Voraussetzung, dar..
die Kovarianzmatrizen in den beiden Klassen identisch sind 0:1 = ~2)
gilt:
f (xlk = 1) X'L-1(PI-P2)--.!.(Pl+P2)' L-1(PI-P2) ---;---=e 2 f (xlk = 2)
Mit den unverzerrten Schătzungen Xj,x2 fUr die unbekannten Parameter
P1,P2 und Sw = W fUr ~ erhălt man durch Logarithmieren des (N-K)
obigen Ausdrucks folgende Diskriminanzfunktion:
In diesem Fali erhălt man also dieselbe Diskriminanzfunktion wie beim
o.a. Fisher-Ansatz.
538 Anhang B
• Maximum-Likelihood Diskriminanzanalyse fUr den Mehr-Klassen
Fali
Ganz allgemein gilt, daB die Klassenverteilung
1 ( '1 1 -- X-Pk) L- (X-Pk) f (xlk) = e 2
!..j2; ~(det L )
dann maximal ist, wenn der Exponent minimal ist. Unter Verwendung der
bereits fUr den Zwei-Klassen Fali angegebenen Parameterschătzer kann die Zuordnungsregel hergeleitet werden.
Das Objekt mit den Ausprăgungen x wird jener Verteilung 0k (mit
k = 1, ... ,K) zugeordnet, fUr die folgende Diskriminanzfunktion minimal ist:
mit Sw =-1-f2(xn -Xk)(Xn -xk)' N -K k=ln=l
als unverzerrten Schătzer fUr L mit den Beobachtungen xn ' n = 1, ... ,Nk
aus Klasse Qk und dem arithmetischen Mittel x k der Klasse 0k' Der
ML-Ansatz ist nur dann bezUglich der bedingten Fehlerrate
&(e(x» = P(k "* e(x)lk)
mit &: Fehlerrate
e(x) : Entscheidungsfunktion
e(x) = k: das Objekt x wird der Klasse k zugeordnet
optimal, wenn die a-priori Wahrscheinlichkeiten gleich sind.
Diskriminanzanalyse zur Risikobewertung 539
Bayes Entscheidungsregel Im Unterschied zu den obengenannten Verfahren, bei denen lediglich
Stichprobeninformationen zur Verfligung stehen, werden bei der Bayes
Regel Vorinformationen liber die Ausgangsverteilungen mit berlicksich
tigt. Dazu werden Stichprobeninformationen und a-priori Informationen
zu einer Posterioriverteilung verknli pft. Nun wird ein Objekt derjenigen
Ausgangsverteilung zugeordnet, deren Posterioriwahrscheinlichkeit am
groBten ist. Diese Posterioriwahrscheinlichkeit berechnet sich nach
Bayes als bedingte Wahrscheinlichkeit f(klx) fi.ir Klasse k bei vorge-
gebenen Merkmalsvektor x als
f(klx) = :(k)f(~k) L p(k)f(xlk) k=1
• Quadratische Diskriminanzfunktion QDA
Durch Einsetzen der Klassenverteilungsfunktionen
in die logarithmierte Form des allgemeinen Bayes Ansatzes
dk = lnp(k)+lnf(xlk)
erhălt man unter Vernachlăssigung des gemeinsamen additiven Terms
- p ln27r folgende Diskriminanzfunktionen: 2
d k (x) = -±(x- ţlkh:k1 (X- ţlk)-±ln(detLk)+lnp(k)
540 Anhang B
OberprOfung der Gleichheit der Kovarianzmatrizen
Vor dem Einsatz der Quadratischen Diskriminanzanalyse ist somit zu
prOfen, ob sich die theoretischen Kovarianzmatrizen ~k der k Klassen
unterscheiden. Damit ist folgende Hypothese zu OberprOfen:
Basis fOr diesen Hypothesentest bildet die Likelihood Quotienten-Statistik
von Neyman und Pearson (vgl. BOning (91), S.180 ff.):
2 1 N k - 2 mit Sk ==-:L(Xkn -xk)
N k n=l
K K S2 == :LNkS1 / N mit N == :LNk
k=l k=l
Unter HO ist folgende Teststatistik approximativ ,i-verteilt mit K-1
Freiheitsgraden: Lz == -Nln~
Eine Modifikation dieser Statistik (fOr den univariaten Fali 1 =1) mit
dem Ziei die ,i-Verteilung besser zu approximieren, wird beim Bartlett
Test vorgenommen (vgl. Bosch (93) S. 438ff.). Die dazugehOrige Test
statistik lautet:
2 1 K X ==-(N -K)lnS2 - :L((Nk -1)lnS1)
C k=l
1 K 1 1 mit C == 1+ :L-----
3(K -l)k=lNk -1 N-K
Diskriminanzanalyse zur Risikobewertung 541
Diese Teststatistik ist asymptotisch X2 -verteilt mit K -1 Freiheitsgraden,
Die Nullhypothese, daB die K Varianzen gleich sind wird abgelehnt,
'It 2 2 wenn gl : X > XK-l,l-a
Box (1949) entwickelte folgenden Scaling-Faktor emit guten Appro
ximationen fUr die Anzahl von nicht mehr als funf Variablen und bis zu
fi.inf Klassen:
c = 212 +31 -1 f_1 ___ 1_ 6(1 +l)(K -lh=lNk N-K
Dieser modifizierte Bartlett-Test wird auch als Box's-M-Test bezeichnet
(vgl. Eisenblatter (88), S.26 ff). Die Statistik folgt unter HO bei 1 Merk
malen einer r-Verteilung mit 0,5 (K -1) 1 (I +1) Freiheitsgraden. Fur
K >6 und 1 >6 hat Box eine prazisere Statistik entwickelt (vgl. Altman et
al. (81), S. 94 ff,). Nach Buning (91) reagiert dieser Test empfindlich auf
die Verletzung der Annahme der Normalverteilung der Merkmale. Ais
alternativer Test wird von Buning der modifizierte Levene-Test vorge
schlagen, der in Duffner et al. (92) beschrieben ist.
• Lineare Diskriminanzfunktion LDA
Trifft man nun die Annahme, daB fi.ir die Kovarianzmatrizen der Merk
malsvariablen in allen Klassen identisch sind, 50 kann der von k unab-
hăngige Term - ..!:.ln(ctet ~k) der ODA vernachlassigt werden. Daraus 2
ergibt sich die einfachere Darstellung der sog. Iinearen Diskriminanz
funktionen (LDA):
542 Anhang B
Unter der zusatzlichen Restriktion, daB alle Merkmale die gleiche Vari
anz 5 2 besitzen und voneinander unabhangig sind L:r = 5 21 , ergibt sich
folgende einfache lineare Diskriminanzfunktion:
• Minimum - Distanz Konzepte
Ausgehend vom Fali klassenweise identischer Kovarianzmatrizen mit
den Diskriminanzfunktionen
erfolgt bei gleichen a-priori Wahrscheinlichkeiten die Zuordnung auf
grund der quadrierten Mahalanobis-Distanzen:
Unter der zusatzlichen Voraussetzung, daB alle Merkmale gleiche Vari
anzen besitzen und voneinander unabhangig sind, ergibt sich folgende
auf euklidischer Distanz basierende Regel:
(Vergleiche aDA und LDA)
Diskriminanzanalyse zur Risikobewertung 543
B.2.3 Nichtparametrische Verfahren
In der Praxis sind die fUr parametrische Verfahren notwendigen Voraussetzungen selten erfGIlt. Eine explizite Annahme Gber die Verteilung der
Merkmale, z.B. Normalverteilung, kann nicht getroffen werden. Ein Weg
aus dieser Problematik besteht darin, die Verteilung der Merkmale in
jeder Klasse J(xlk) mit nichtparametrischen Methoden zu schătzen.
Eine andere Moglichkeit besteht darin, mit einer Năchste-Nachbarn Re
gel ei ne randomisierte Zuordnung mit angenăhert diesen a-posteriori
Wahrscheinlichkeiten f(xlk) ins Blickfeld zu nehmen.
Kern-Dichteschătzung bei stetigen Merkmalen
Die Grundidee dieses auf Rosenblatt(56) basierenden Verfahrens be
steht darin, um jedes beobachtete Objekt einen sogenannten Kern
(Dichtefunktion) zu legen, dessen maximaler Wert eben bei diesem ent
sprechenden Merkmalsvektor liegt. Die Dichte der Klasse Qk wird ge
schătzt, indem die Werte der dort befindlichen Kernfunktionen aufsum
miert werden. Ais Kernfunktion kann jede unimodale Dichtefunktion ge
wăhlt werden.
Meist werden symmetrische Kernfunktionen gewăhlt, mit der Gleich
verteilung Gber einem Intervall der Lănge 2h erhălt man:
](xlk)=_l ~K(X-Xkn) N k n=l 2h
mit: - GIăttungsparameter: h
544 Anhang B
{I'
- Kernfunktion K (u) =
0,
falls lui <h
falls lui ~h - beobachtete Merkmalsvektoren in der Klasse k: x/en mit n = I, ... ,Nk
f (x \n k)
K ( X k 1)
K ( X k2)
K (X k3)
• •
•
Bild B3: Kernschătzung nach Rosenblatt
Die geschătzte Dichte Î(xlk) ergibt sich somit aus der gemittelten
Summe vieler einzelner Verteilungsdichten. FUr den multivariaten Fali gilt folgende Gleichung der Dichteschătzung:
Um asymptotische Konsistenz und Unverzerrtheit des Dichteschătzers
zu erreichen, mUssen an die Kernfunktionen und GIăttungsparameter
eine Reihe von Bedingungen geknUpft sein (vgl. Hand(81), S. 24 ff.;
Bretzger (91), S. 205 ff.). Der GIăttungsparameter 5011 fUr wachsenden
Stichprobenumfang gegen Null konvergieren (S.Fukunaga(72); Devi
jver/Kittler(81». Durch diese Eigenschaften sind diese Ansătze den pa
rametrischen Verfahren theoretisch Uberlegen, da sich die geschătzte
Dichtefunktion der wahren, jedoch unbekannten Dichte asymptotisch
Diskriminanzanalyse zur Risikobewertung 545
nahert. Dazu sind verschiedene Kerntypen moglich, mit Verwendung der
Normalverteilung ergibt sich folgende Darstellung:
Ais Glattungsparameter schlagt Fukunaga folgende vom Stichpro
benumfang abhangige GroBe vor:
h - N-slI k - k mit 0< S < 0,5
Der Vorteil dieses Parameters liegt im geringen Rechenaufwand, da die
einzelnen Merkmalswerte der Beobachungen nicht berucksichtigt werden
mussen. Weitere Ansatze, die Beobachtungswerte berucksichtigen, wer
den bei Habbema(74), Van Ness/Simpson(76) oder Van Ness(80) vor
gestellt.
Nachste-Nachbarn Verfahren
Im Rahmen der Darstellung von verteilungsfreien Verfahren sind neben
der Dichteschatzung mit Kernfunktionen ebenso die Nachste-Nachbarn
Verfahren zu erwahnen. Erstmals wurden diese Verfahren von Fix und
Hodges 1951 vorgestellt. Zur Analyse von Kreditrisiken wurden diese
Verfahren u.a. von Luneborg(81), Bretzger(91), Shagaghi(95) und Fahr
meir et al. (95) getestet. Dabei konnten zum Teil gute Klassifikationer
gebnisse erzielt werden, wenn die Anzahl der zu berucksichtigenden
Nachste-Nachbarn optimiert wird. Da bei jeder Klassifikation der ge
samte Datenbestand abgesucht werden muB, werden im allgemeinen die
daflir erforderlichen hohen Rechenzeiten als Nachteil dieser Verfahren
genannt.
546 Anhang B
Beim Minimale-Distanz Konzept wird eine Beobachtung x derjenigen
Klasse zugeordnet, der der nachste Nachbar von x angehort. Der nach
ste Nachbar XL wird durch folgendes Kriterium ermittelt:
d(x,xL ) = min d(x,xn ) n=l •...• N
Die Erweiterung dieses Ansatzes besteht darin, die Anzahl der zu be
trachtenden nachsten Nachbarn zu vergroBern. Seien unter den 1 nach
sten Nachbarn von X jeweils nk aus der Klasse k, dann wird die Beob-
achtung derjenigen Klasse k * zugeordnet, fUr die gilt:
Im Falle ungleicher Klassenaufteilungen und StichprobengroBen werden
die Stichprobenumfange N k und die a-priori Wahrscheinlichkeiten p(k)
mit einbezogen, sodaB gilt:
• n, n p(k )_k_ = max p(k)_k
N k , k=l •...• K N k
Zur Festlegung der Anzahl der Nachbarn in Abhăngigkeit von der GroBe
der Klassen sowie zur Gewichtung anhand der Distanz zum zu klassifi
zierenden Objekt X wird an dieser Stelle auf Duda/Hart(73), HiIIs(67)
und Peterson(70» verwiesen.
Literatur- und Quellenverzeichnis
Adlassing, K.-P.; Kolarz, G. (82): CADIAC-2: Computer-assisted medical diagnosis usung
fuzzy subsets, in: Gupta, M. M.; Sanchez, E (Eds.): Approximate Reasoning in Decision
Analysis, North-Holland, New York 1982, S. 219-247
Aha, D. W. (92): Generalizing from Case-Studies: A Case study, in: Sleeman, D.; Edwards, P.,
Proc. of the 9th International Workshop on Machine Learning (ML 92), Morgan Kaufmann
Publishers. Los Altos, CA. 1992
Aitchison, J.; Aitken, C. C. (76): Multivariate binary discrimination by the kernel Method,
Biometrika 63, S. 413-420
Alexander, C. (96): The Handbook of Risk Management and Analysis, Wiley 1996
Almeida, L. B.; Wellekens, C. J. (90): Acceleration Techniques for the Bachpropagation
Aigorithm, in: Goos, G.; Hartmanis J.: Lecture Notes in Computer Science. Springer 1990
Anders, U. (96): Statistische Neuronale Netze, Dissertation, Fakultăt fUr
Wirtschaftswissenschaften, Universităt Karlsruhe (TH)
Andersen, A. H. (74): Multidimensional contingency tables, Scand.J.Statist. 1 1974, S. 115-127
Andersen, E. B. (80): The Statistical Analysis of Catecorical Data, Springer Verlag 1980
Anderson J. A.; Silverstein, J. W.; Ritz, S. A.; Johns, R. S. (77): Distinctive Features
categorical perceptron, and probability learning: Some applications of a neural model.
Psycological Teview 85,1977, S.413ff.
Anderson, J.; Pellonisz, A.; Rosenfeld, E. (90): Neurocomputing 2- directions of research,
Cambridge (massachusetts) 1990
Backhaus, K.; Erichson, B.; Plinke, W.; Weiber, K. (94): Multivariate Analysemethoden, 7.
Auflage, Springer-Verlag 1994
Baetge, J. (80): FrOherkennung negativer Entwicklungen der zu prOfenden Unternehmung mit
Hilfe von Kennzahlen, in: Die WirtschaftsprOfung, Heft 22/23 1980, S.651-665
Baetge, J. (89): Bilanzanalyse und Bilanzpolitik, DOsseldorf 1989
Baetge, J.; Krause, C. (93): The Classification of Companies by Means of Neural Network,
Journal of Information Science and Technologiy, VoI. 3, No. 1, 1993
Baetge, J. (95a): Bonitătsklassifikationen von Unternehmen mit Neuronalen Netzen, in: Buhl,
H.U.; Meyer zu Selhausen, H. (Eds.): Tagungsband der Fachgruppe Informationssysteme
in der Finanzwirtschaft der Gesellschaft fUr Informatik e. V. 10/95
Baetge, J.; Kruse, A.; Uthoff, C. (95b): Bonitătsklassifikationen von Unternehmen mit
Neronalen Netzen, Wirtschaftsinformatik, Nr. 21995 S. 273ff.
Baltensperger, E. (80): Alternative approaches to the theory of the banking firm, Journal of
Monetary Economics 6/1980
548 literatur- und Quellenverzeichnis
Bamberg, G.; Coenenberg, A. G. (92): Betriebswirtschaftliche Entscheidungslehre, 7. Aufl.
MUnchen 1992
Bamberg, G.; Baur, F. (85): Statistik. 4. Aufl., MUnchen-Wien 1985
Bartsch, H. (97): Alles Uber Leasing. FUr Unternehmer, Selbstandige und Privatpersonen,
Heyne, MUnchen 1997
Becker, U. (93): Risikowahrnehmung der Offentlichkeit und neue Konzepte unternehmerischer
Risikokommunikation, in Bayerische RUck (Hrsg.): Risiko ist ein Konstrukt, MUnchen 1993,
S.343
Benedet!i, J. K., Brown, M. B. (78): Strategies for selection of logliear models, in: Biometrics 34
1978, S. 680 ff.
Benner, W. (88): Asset Backet Securities - eine Finanzinnovation mit Wachstumschancen?, in:
BFuP 40 1988 S. 404ff.
Berger, U.; Bernhard-Mehlich, 1. (93): Die verhaltenswissenschaftliche Entscheidungstheorie,
in: Kieser, A. (Hrsg.) Organisationstheorien, Stut!gart u.a. 1993, S. 127 ff.
Berkau, C.; Scheer, A. W. (93): VKI im internen Rechnungswesen, in:Kirn, S.; Weinhardt, C.
(Eds.) Tagungsband zum Workshop KI-Methoden in der Finanzwirtschaft (17. Fachtagung
fUr KI, Giessen) 1993
Berndt, R. (90): Risk-Management im Rahmen des internationalen Marketing,
Diskussionsbeitrag Nr. 8, Wirtschaftswissenschaftliches Seminar, TUbingen 1990
Berndt, R. (91): Risk-Management im Rahmen des internationalen Marketing, in: Marketing
ZFP, 1, 1991, S. 27ff.
Bernstorff, v. H .G. (91): Risiko-Management im Auslandsgeschaft, Frankfurt a.M. 1991
Berthel, J. (75): Betriebliche Informationssystem, Stut!gart 1975
Beyel, J. (87): KreditwUrdigkeitsanalyse, in: Das Wirtschaftsstudium (WISU) 8-9,1987, S.
418ff.
Beyeler, A. (94): Risikomanagement komplexer Projekte, in: io Management Zeitschrift, 4,
1994, S. 27 ff.
Bircher, B. (76): Langfristige Unternehmenplanung, Bern, Stut!gart 1976
Bisani, F. (95): Personalwesen und PersonalfUhrung, 4. Aufl., Wiesbaden 1995
Bishop; Fienberg; Holland (75): Discrete multivariate analysis: Theorie and Practice MIT Press,
Cambridge 1975
Blien, U.; Lindner, H.-G. (93): Neuronale Netze - Werkzeuge fUr empirische Analysen
ăkonomischer Fragestellungen, in: Jahrbuch. f. Nationalăk. u. Stat., G. Fischer Verlag,
Stut!gart 1993
Bock, H.H. (74): Automatische Klassifikation, Găt!ingen 1974
Bol, G. (92): Wahrscheinlichkeitstheorie: EinfUhrung, Oldenbourg, MUnchen u.a. 1992
Bol, G. (93): Deskriptive Statistik: Lehr und Arbeitsbuch, Oldenbourg 2.0berarbeitung u. erw.
Aufl., Munchen u.a. 1993
549
Bol, G. (95): Induktive Statisitik: Lehr und Arbeitsbuch, Oldenbourg, MUnchen u.a. 1995
Bol, G.; Nakhaeizadeh, G.; Vollmer, K. H. (93): Finanzmarktanwendungen neuronaler Netzte
und okonometrischer Verfahren, Physica-Verlag, Heidelberg 1993
Bordewin A. (96): Leasingvertrăge in Handels- und Steuerbilanz, NWB Nr. 22; 28.5.96, S. 1813
ff.
Bortz, J. (93) Statistik, Berlin 1993
Bosch (93): Statistik Handbuch, Oldenburg Verlag , 2. Aufl., MUnchen, Wien 1993
Brakensiek, T. (91): Die Kalkulation und Steuerung von Ausfallrisiken im Kreditgeschăft der
Banken, Frankfurt 1991
Bratko, 1.; Cestnik, B.; Kononenko, 1. (87): Assistant 86: A knowledge-elecitation tool for
sophisticated users, in N. Lavrac 1., Bratko 1. editor, Progress in Machine Learning. Sigma
Press, Wilmslow, 1987
Braun, H. (84): Risikomanagement-eine spezifische Controllingaufgabe, Darmstadt 1984
Brazdil, P.; Gama, J.; Henery, B. (93): Comparisons of ML and Statistical Approaches using
Meta Level Learning, in: Kodratoff, Y.; Langley, P.: Real-World Applications of Machine
Learning, Workshop Notes, European Conference on Machine Learning, Dept. of Medical
Cybernetics and AI, Universităt Wien 1993
Breiman, L.; Friedman, J. H.; Olshen, R. A.; Stone, C. J. (84): Classification and Regression
Trees, Wadsworth, Belmont, 1984
Bretzger, T. N. (91): Die Anwendung statistischer Verfahren zur RisikofrUherkennung bei
Dispositionskrediten. Diss., Universităt Hohenheim 1991
Breuer, R.-E. (91): Bilanzanalyse aus Sicht der Kreditinstitute, in: Zeitschrift fUr
betriebswirtschaftliche Forschung, Sonderheft 29, S. 151 ff.
Brodley, C. E.; Rissland E. L. (93): Measuring concept change: In Training Issues in
Incremental Learning papers from the 1993 spring symposium MI 1993
BrUna, M. (91): Expertensysteme in Kreditinstituten, Frankfurt, 1991
BUhler, W. (88): BonitătsprUfung jenseits von Bilanzanalyse und Insolvenzprognose, in: BUhler,
W.; Schuster, L. (Eds.): Kreditinformations- und KreditUberwachungssysteme:
Tagungsbericht, Wien 1988
BrUhwiler, B. (80): Risiko-Management-eine Aufgabe der UnternehmensfUhrung, Bern,
Stuttgart 1980
Buck, S. F. (60): A Method of Estimation of Missing Values in Multivariate Data suitable for Use
with Electronic Computer, in Roy.Stat.Soc. London B, VoI. 22, S.302 ff.
Bulkeley, W. M. (86): A Special Summary and Forecast of Scientific Ddevelopments Affecting
Business, in: Wall Street Journal Europe, 11.2.86, S.1
Bundesminister fUr Post und Telekommunikation (91): Verordnung Uber den Datenschutz der
Deutschen Bundespost Telekom (Telekom-Datenschutzverordnung-TDSV), in:
Bundesgesetzblatt, Jg. 1991 Teill Nr. 39, S. 1390-1394
550 Literatur- und Quellenverzeichnis
Bundesminister fOr Post und Telekommunikalion (91): Verordnung uber den Datenschutz fOr
Unternehmen, die Telekommunikationsdienstleistungen erbringen (Teledienstunternehmen
Datenschutzverordnung-UDSV), in: Bundesgesetzblatt, Jg. 1991 Teill Nr. 69, S. 2337-
2341
Buning (91): Robuste und Adaptive Tests, Berlin 1991
Burger, A. (94): Zur K1assifikation von Unternehmen mit neuronalen Netzen und
Diskriminanzanalysen, in: Zeitschrift fOr Betriebswirtschaft, S. 1165 ff.
Buschgen, H. E. (92): Organisation der Kreditinstitute, in: HdO (Eds.): Friese, E. ,3. Aufl.,
Stuttgart
Buschgen, H. E. (87): Das kleine Btirsenlexikon, Dusseldorf 1992
Carbonell, J. G. (90): Machine Learning: Paradigms and Methods. MIT Press, Massachusetts
1990
Catlett, J. (91a): Overpruning Large decis ion Trees, in: Mylopoulos, J.; Reiter, R.: Proc. ofthe
12th International Conference on Artificiallntelligence. Morgan Kaufmann Publishers, San
Mateo 1991
Catlett, J. (91 b): On changing Continuous Attributes Into Ordered Disscrete Attributes, in:
Kodratoff, Y.: Machine Learning-EWSL-91. Proc. of the European Working Session on
Learning, Lecture Notes in Artificiallntelligence, Springer Verlag, Berlin u.a.1991
Caouette, J.B.; Narayanan, P.; Altman, E.1. (98): Management Credit Risk: The Next Great
Financial Challenge (Wiley Frontiers in France), 1998
Chatterjee; Price (95): Praxis der Regressionsanalyse, Oldenburg 1995
Chen, S.; Cowan, C. F. N.; Grant, P. H. (91): Orthogonalleast squares learning algorithm for
RBF networks. IEEE Trans. on Neural Networks, VoI. 2, No. 2: S. 302-309
Chicken, J. (96): Risk Handbook, Chapman & Hali, 1996
Chorfas, D.N. (92): Globales Finanzmanagement in Finanzinstituten: Technologische
Herausforderung und intelligente Technik, Wiesbaden 1992
Choradas, D. N. (89): Expertensysteme in der Wirtschaft und Industrie, in: Bankin & Finance,
o. Jg. (1989)
Clark, P.; Niblett, T. (88): The CN2 induction algorithm. Machine Learning 3, S. 261-283
Clark, P.; Boswell, R. (91): Rule induction with CN2: Some Recent Improvements, in: Kodratoff,
Y.: Machine Learning-EWSL-91. Proc. of the European Working Session on Learning,
Lecture Notes in Artificial Intelligence, Springer Verlag, Berlin u.a. 1991
Clark, P. (90): Machine Learning: Techniques and Recent Developments. Turing Institute
Press, Glasgow 1990
Coenenberg, A. G. (70): Unternehmensbewertung mit Hilfe der Monte-Varlo-Simulation, in ZfB,
40. Jg. (1970), H. 12, S. 793 ff.
Coenenberg, A. G. (88): Jahresabschlur.. und Jahresabschlur..analyse, in:
Betriebswirschaftliche, handels. und steuerrechtliche Grundlagen, 10. Auflage,1988
551
Coenenberg, A. G.; Fischer, T. M. (88): Proze!!.kostenrechnung- Strategische Neuorientierung
in der Kostenrechnung, in: Die Betriebswirtschaft 51 1991, S. 21 ff.
Cooley, W. W.; Lohnes, P. R. (71): Mutivariate Data Analysis, New York 1971
Corsten, H. (95): Beschaffungsmangement - Konzeption und Aufgabenbereiche, in: Corsten,
H.; Rei!!., M (Hrsg.): Handbuch der UnternehmensfUhrung, Wiesbaden, 1995, S. 573ff.
Cox, D. R .. ; Small, N. J. H. (78): Testing Multivariate Normality, in: Biometrics 651978, S. 263-
272
Creditreform (94): Unternehmensentwicklung 1994 (NeugrOndungen, Uischungen,
Insolvenzen), Presse-Informationen, Neuss 14.12.94
Dahinden, R. (91): Risiken im industriellen Umfeld - Aspekte einer ganzheitlichen
umweltorientierten Risikobeurteilung, St. Gallen 1991
Delfmann, W. (95): Logistik, in: Corsten, H.; Reir.., M (Hrsg.): Handbuch der
UnternehmensfUhrung, Wiesbaden, 1995, S. 505ff.
De Raedt, L.; Bruynoogh, M. (92): Believe updating from integrety constraints and queries:
Artificiallntelligence 53, 1992
De Raedt, L. (92): Interactive Theory Revision. Academic Press, London 1992
Deiters, W.; Striemer, R. (94): Workflow Management-Chancen und Perspektiven
prozer..orientierter Workgroup-Computing-Systeme, In: DV-Management, Heft 3/94, Erich
Schmidt Verlag, Berlin 1994
Dempfle, E. (92): Konzeptionelle Ansatze zum Risikomanagement von Finanzinnovationen.
Diss. Hochschule St. Gallen, Difo Druck GmbH, Bamberg 1992
Devijver, P. A.; Kittler, J. V. (82): Pattern Recognition.A Statistical Approach. Prentice Hali,
Englewood Cliffs 1982
Dolgin, S. M.; Schwartz, J. S.; Kressel, K Y. (81): Identification of patients with cholesterol or
pigment gallstones by discriminant analysis of radiographic features, New England J.Med
voI. 304, 1982, S. 808-811
DObon, K (96): Risikomanagement mit maschinellem Lernen unter BerOcksichtigung
dynamischer Aspekte, in: Mucha, H. J.; Bock, H. H. (Eds.), Classification and multivariate
graphics: models, software and applications, Weiserstrar..-Institut fUr Angewandte Analysis
und Stochastik, Report 10 Berlin 1996
DObon, K; Beitlich, E. (97): KOnstliche Intelligenz zur Risikovorsorege bei Leasing im
Telekommunikationsmarkt, in: DB, Beilage Nr. 8/97 zu Heft 18
DObon, K (97): Riskanalysis with machi ne learning taking account of dynamic aspects.
Discussion pa per, Daimler-Benz FT, Ulm 1997
Duda, R.D.; Hart, P.E. (73): Pattern recognition and scene analyses, Eiley, New York 1973
Duffner; Jensen; Schumacher (92): Statistik mit SAS, Stuttgart 1992
Eisenblatter (88): Ein informationstheoretischer Ansatz der klassischen Diskriminanzanalyse,
Kiiln 1988
552 Literatur- und Quellenverzeichnis
EisenfOhr; Weber (94): Rationales Entscheiden, 2. AUfl., Berlin 1994
Eller, R. (98): Handbuch des Risikomanagements, Schăffer Verlag, Stuttgart 1998
Esposito, F.; Malerba, D.; Semeraro, G. (93): Decision Tree Pruning as a Search in the Space,
in: Brazdil, P.B. (ed.), Machine Learning: ECML-93, S. 165 ff., Springer, Berlin 1993
Esposito, F.; Malerba, D.; Semeraro, G. (95): Simplifying Decision Trees by Pruning and
Grafting; New Results (Extendet Abstract), in Lavrac, N.; Wrobel, S. (eds), Machine
Learning: ECML-95, S. 287 ff., Springer, Berlin u.a. 1995
Esposito, F.; Malerba, D.; Semeraro, G. (97): A Comparative Analysis of Methods for Pruning
Decision Trees, IEEE Transactions on Pattern Analysis and Machine Intelligence, 19(5), S.
476ff., 1997
Fahlmann, S. E.; Lebiere, C. (90): The Cascade-Correlation Learning Architecture, in: NIPS II,
Touretzky, D.S. (Ed.), San Mateo 1990, S. 524 ff.
Fahlmann, S. E. (91): What the Business Community should know about Artificiallntelligence
and Neural Networks, in: Die Informationswirtschaft im Unternehmen. Heinrich, L.J.;
Pomberger, G.; Schauer, R. Linz 1991.
Fahrmeir, L.; Hamerle, A. (Ed.) (84): Multivariate statistische Verfahren, Berlin/New York 1984.
Fanning, K.; Cogger, K. O.; Srivastava, R. (95): Detection of Management Frauds: A Neural
Network Approach. International Journal od Intelligent Systems in Accounting Finance &
Management VoI. 4, 1995
Fasse F.-W. (95): Risk-Management im strategischen internationalen Marketing, Diss., S+W
Hamburg 1995
Feidicker, M. (92): KreditwOrdigkeitsprOfung: Entwicklung eines Bonitătsindikators,
Dargestellt am Beispiel von Kreditversicherungsunternehmen, Diss. MOnster, 1992
Feigenbaum, E. A.; Cohen, P. R. (82): The Handbook of Artificiallntelligence; VoI. 3, Pitman
1982
Feilmeir, M.; Fergel, 1.; Segerer, G. (81): Lineare Diskriminanz- und Clusteranalyseverfahren bei
Kreditscoringsystemen, Z.f.Operations Research, Serie B, 25, S. B25-B38
Fensel, D. (93): JoJo. Technischer Bericht, Institut fOr angewandte Informatik und formale
Beschreibungsverfahren, Universităt Karlsruhe, 1993
Ferstl, O. K.; Sinz, E. J. (93): GeschăftsprozeP..modellierung, in Wirtschaftsinformatik, 35
(1993) 5.
Feulner, W. (80): Moderne Verfahren bei der KreditwOrdigkeitsprOfung im
Konsumentenkreditgeschăft, Frankfurt am Main, 1980.
Fienberg, S. E.; Mason, W. M. (78): Identification and Estimation of Age-Period-Cohort Models
in the Analysis of Discrete Archival Data, in: SchOsseler, K.F. (Ed.): Siciological
Methodologie, San Francisco 1978, S. 1-67
553
Finnoff, W. ; Zimmermann, H. G. (92): Detecting Structure in Small Datasets by Network Fitting
under Complexity Constraints, Siemens AG, Corporate Research and Development, Otto
Hahn-Ring 6, Munchen
Fix, E.; Hodges, J. L. (51): Discriminatory Analysis: Nonparametric Distribution: Consistency
Properties, in: Dasarathy, B.v. (Ed.) IEEE Computer Society Press, Los Alamitos 1991.
Focardi, S.; Jonas, C. (98): Risk Management: Framework, Methods and Practice, F.J. Fabozzi
Assoc.1998
Fukunaga, K. (72): Introduction to statistical Pattern Recognition, Academic Press, New York
1972
Furer, G. (90): Risk Management im internationalen Bankgeschiift, Bern 1990
Gammack, J. (87): Different Techniques and Different Aspects on Declarative Kowledge, in
Kidd, A. (Ed.): Knowledge Acquisition for Expert Systems, Plenum Press, New York 1987
Gastineau, G.L.; Kritzmann, M.P. (96): Dictionary of Financial Risk Management, F.J. Fabozzi
Assoc., 1996
Gaul, W.; Schader, M. (88): Data, Expert Knowledge and Decisions: An Interdisciplinary
Approach with Emphasis on Marketing Applications, Springer, Berlin u.a. 1988
Gaul, W.; Both, M. (90): Computergestutztes Marketing, Springer, Berlin u.a. 1990
Gaul, W.; Baier, D. (94): Marktforschung und Marketing Management, 2. Aufl., Oldenbourg,
Munchen 1994
Gaul, W.; Schader, M. (94): Wissensbasierte Marketing-Datenanalyse, Lang, Frankfurt 1994
Gaul, W.(98): Data mining: A new Labei for an old Problem?, First Draft of a Paper for the
Workshop "Data Mining and Knowledge Discovery in Business Applications", Osaka
September 24-25, 1998 (Institut fOr Entscheidungstheorie und Operations Research,
Univeritiit Karlsruhe)
Gemunden, H.G. (88): Defizite der empirischen Insolvenzforschung, in: Krisendiagnose durch
Bilanzanalyse, (Ed.): Hauschildt, J., Kăln 1988, S.135ff.
Gerrits, H. (93): Business Process Redesign and Information System Design: A Happy
Couple?, in: Prakash, N.; Rolland, C.; Pernici, B. (Ed.): Information System Developement
Process, 1993
Gibb, W. J.; Auslander, D. M.; Griffin, J. C. (94): Adaptive classification of myocardial
electrogram wave-forms. IEEE Transactions on Biometrical Engineering 41
Glasel; Siebel (84): Risikovorsorge bei Leasing-Gesellschaften aus steuerlicher Sicht, in: BB,
Beilage 8 zu Heft 141984, S. 22-27
Glover, H.D. (93): Effective Fraud Detection and Prevention Techniques (Practice Set Series),
Ins!. of Internal Auditors 1993
Goldstein, M.; DHlon, W. R. (78): Discrete Discriminant Analysis, New York 1985
Goldstein, M.; Rabinowitz, M. (75): Selection of variables for the two-group multinomial
classification problem, J.A.S.A. 70, 1975
554 Literatur- und Quellenverzeichnis
Goodman, L.A. (71): The analysis of multi dimensional contingency tables: stepwise procedures
and direct estimation methods for building models for multiple classifications,
Technometrics 13, 1971
Goos, G. (93): Neuronale Netze: Theorie und Praxis, Script zur gleichnamigen Vorlesung an
der Universitat Karlsruhe, Fakultat fUr Informatik
Graf, J.; Nakhaeizadeh, G. (93): Recent Developments in Solving the Credit Scoring Problem,
in: Plantamura, V.; Soucek, B.; Visaggio, G. (Eds.): Logistic and Learning for Qualily
Software Management and Manufacturing, John Wiley & Sons 1993
Graf, J.; Nakhaeizadeh, G. (92): Application of Neural Networks and Symbolic Machine
Learning Aigorithms to Predicting Stock Prices, Arbeitspapier Sudwestdeutsche
Genossenschafts Zentralbank AGI Daimler-Benz AG, Karlsruhe 1992
Greiner; Silver; Becker; Gruninger (88): A review of Machine Learning at AAAI-87, in: Machine
Learning VoI. 31988, S.79
Gross, H. (68): Die Zukunft des Risikos, Dusseldorf, Wien:ECON-Verlag 1968
Grosse, W.; Muller-Lutz, H.L.; Schmidt, R. (91): Versicherungsenzyklopadie, Gabler,
Wiesbaden 1991
Gusbeth, H. (92): Mobilfunk Lexikon, Franzis-Verlag, Munchen 1992
Haan, H.de (84): Die Risikopolitik der internationalen Unternehmen, Ferber, Gief.l.en 1984
Habbema,J. D.; Hermans, J.; van den Broek (74): A stepwise discriminant analysis program
using density estimation, in: Compstat 1974, Physica-Verlag, Wien 1974, S. 101-110
Haberman, S. J. (73): Loglinear models for frequency data: sufficient statistics and likelihood
equations, Ann. Statist. 1 S617 ff.
Haberman, S. J. (74): The analysis of frequency data, Univ. of Chicago Press, Chicago 1973
Haberman, S. J. (78): Analysis of qualitative data, Voi 1 Academic Press New York 1974
Haimes, Y.Y. (98): Risk Modeling, Assessment and Management (Wiley Series in Systems
Engineering), 1998
Haist, F.; Fromm H.J. (89): Qualitat im Unternehmen. Hanser 1989
Hali, G.; Rosenthal, J.; Wade, J. (94): Howto Make Reengineering ReallyWork, in: Harvard
Business Review, VoI. 71, No. 6 (Nov-Dec 1993), S.119-131
Hali, P. (81): On nonparametric multivariate binary discrimination, Biometrica 68, 1981, S. 287-
294
Haller, M. (91): Risiko-Management, in: Grosse, Walter (Hrsg.): Versicherungsenzyklopadie,
Wiesbaden 1991, S. 525 ff.
Hand D. J. (81): Discrimination and Classification. John Wiley&Sons, New York u.a. 1981
Hand D. J. (82): Kernel discriminant analysis. John Wiley&Sons, New York u.a. 1982
Hartung, J. (93): Statistik, 9. Auflage, Oldenbourg 1993
Hartung, J.; Elpelt, B. (92): Multivariate Statistik, 0ldenburg,1992
Hauptmanns, U.; Hettrich, W.; Werner, W. (87): Technische Risiken. Ermittlung und
Beurteilung. Berlin, Heidelberg: Springer 1987
555
Haussler, D. (89): Learning Conjunctive Concepts in Structural Domains. Machine Learning
4, 1989
Haur..ler, W. M. (79): Empirische Ergebnisse zu Diskriminationsverfahren bei
Kreditscoringsystemen in: Zeitschrift fUr Operations Research, Band 23 1979, S. B191-
B210.
Haur..ler, W. M. (81): Methoden der Punktebewertung fUr Kreditscoringsystemen, in: Zeitschrifft
fUr Operations Research, Bd. 25 1981 , S. B79-B94
Haur..ler, W. M. (93): Kreditscoring im Privatkundengeschaft. Ein vergleichender Oberblick mit
Fallbeispielen. Risikomanagement im Kreditgeschi:ift-Kreditscoring: Systematisierte und
rationalisierte KreditwUrdigkeitsprUfung. Vortrag in: Forum, Institut fUr Management GmbH,
Frankfurt 1993, Dokumentation S. 1-23,
Hayes-Roth, F.; Waterman,D.; Lenat, D. (83): Building Expert Systems, Addison Wesley
Publishing Company, London 1983
Hecht-Nielsen, R. (89a): Theory of Backpropagation Neural Networks, in: IJCNN, Washington
1989, S. 593 ff.
Hecht-Nielsen, R. (89b): Neurocomputing, Addison-Wesley 1989
Heil, M. (95): Entstărung betrieblicher Ablaufe, Wiesbaden 1995
Heilmann, H. (89): Entwurfsentscheidungen bei der Gestaltung ei nes
Organisationsinformationssystems, in: Kurbel K.; Mertens P.; Scheer A.-W.(Hrsg):
Interaktive betriebswirtschaftliche Informations- und Steuerungssysteme (Studien zur
Wirschaftsinformatik 3), Berlin u.a.: de Gruyter 1989
Heilmann, W.-R. (92): Riskmanagement der privaten Haushalte; Z. Versicherungswirtschaft
Heft 7, 1992, S. 392 ff.
Heinhold J.; Gaede K.(79): Ingenieur Statistik; Oldenburg Verlag MUnchen, Wien 1979.
Henley, W. E.; Hand D. J. (94): Inference about rejected cases in discriminant analysis, in:
Diday E. (Ed.): New approaches in classification and data analysis, Springer-Verlag 1994.
Henley, W. E. (94): Statistical aspects of credit scoring. Diss. Department of Statistics, The
Open University, 1994
Heno, R. (83): KreditwUrdigkeitsprUfung mit Hilfe von Verfahren der Mustererkennung, Bern I Stuttgart 1983
Herbst, H.; Knolmayer, G. (95): Ansatze zur Klassifikation von Geschi:iftsregeln, in:
Wirtschaftsinformatik 37, 1995 2, S 149ff.
Herrmann, J. (97): Maschinelles Lernen und Wissensbasierte Systeme: Systematische
EinfUhrung und praxisorientierte Fallstudien, Springer, Berlin u.a. 1997
Hewitt, C. (77): Viewing Control Structures and Patterns of Passing Messages, in: Artificial
Intelligence 81977, S. 323 ff.
556 Literatur- und Quellenverzeichnis
HiII, W.; Fehlbaum, R.; Ulrich, P. (94): Organisationslehre Bd. 1, 5. Auflage, Bern-Stuttgart,
1994
HiIIs, M. (67): Discrimination and allocation with Discrete Data, J.R. Statist. Soc., Series C 16
1967, S. 237-235
Hinton, G. E.; Sejnowski, T. J. (86): Learning and Relearning in Boltzmann Machines, in PDP:
Explorations in the Microstructure of Cognition, VoI. 1: Fondations, Rumelhart, D.E.; Mc
Clelland, J.L. and the PDP Research Group, Cambridge (Massachusetts) 1986
Hiromoto, T. (88): Another Hidden Edge- Japanes Management Accounting, in: Harvard
Business Review 10 1988 4, S. 22 ff.
Hoffmann, K. (85): Risk-Management- Neue Wege in der betrieblichen Risikopolitik, 1. Aufl.
Karlsruhe 1985
Hofmann, H.-J. (90): Die Anwendung des CART-Verfahrens zur statistischen Bonitatsanalyse
von Konsumentenkrediten, in: Zeitschrift fOr Betriebswirtschaft, 60. Jg., Nr.9, S. 941-962.
Hooke, A. T. (89): Multiple Splitting of Numerical Variables in Inductive Learning, Turing
Institute Press, Glasgow 1989
Hopfield, J. J. (82): Neural networks and physical systems with emergent collective
comutational abilities, in Proceedings of the National Academy of Science, Voi. 79 1982, S.
2554ff.
Horvath, P.; Gassert, H.; Solaro, D. (91): Controllingkonzeptionen fOr die Zukunft- Trends und
Visionen, Stuttgart 1991
Horvath, P. (90): Strategisches Kostenmanagement, in Horvath, P. (editor),
Strategieunterstlitzung durch das Controlling: revolution im Rechnungswesen?, Stuttgart
1990, S. 175 ff.
Horvath, P. (93): Target Costing. Schaffer-Poeschel Verlag Stuttgart 1993 S. 114 ff.
Hrycej, T. (92): Modular Learning in Neural Networks, John Wiley & Sons 1992
Huber, K. P.; Nakhaeizadeh, G.: Maschinelle Lernverfahren als Unterstlitzung beim
Wissenserwerb von Diagnose-Expertensystemen, in: Puppe, F.; Glinter, A. (Ed.):
Expertensysteme 93. Springer-Verlag Berlin, Heidelberg, New York 1993
Huli, J. (87): Assessind credit risk in a financial insti!utions off-balance shee! commi!men!s, in
FFQA, 4/1989, S489 ff.
Huntington, I.K. (92) Fraud: Prevention and Detection, Lexis Law Pub 1992
Imam, 1. F.; Michalski, R. S.; Kerschberg, L. (93): Discovering Attribute Dependence in
Databases by Integrating Symbolic Learning and Statistical Analysis Techniques. AAAI-93:
Knowledge Discovery in Databases Workshop 1993, S. 264 ff.
Ingerling, R. (80): Das Credit-Scoring System im Konsumentenkreditgschiift, Berlin 1980
Ivakhenko, A. G. (71): Polynomial theory of complex systems. IEEE Trans. Systems, Man,
Cybernetics 1, 1971
Jarmei, H. (94): Vom Risiko-Management zum Risiko-Dialog, in: Hoffmann, M.; AI-Ani, A.
(Hrsg.): Neue Entwicklungen im Management, Heidelberg 1994
557
Jarrow, R. A.; Turnbull, S. M. (95): Pricing Derivatives on Financial Securities Subject to Credit
Risk, in: The Journal of Finance 50, S. 53 ff.
Jones, R.B. (95): Risk-Based Management: A Reliability-Centered Approach, Gulf Publishing
Company, 1995
Karbach, W. (88): Wissensaquisition, Wissenserhebungstechniken, Wissenanalyse und
Wissensreprasentation, Ein Oberblick GMD Bericht Nr.23 September 1988
Karten, W. (78): Aspekte des Risk-Managements, in BFuP, 30. 1978 Nr.4
Karten, W. (93): Risk Management, in: Witlmann, W.: Handwtirterbuch der Betriebswirtschaft,
Munchen 1993, S. 3825 ff.
Katayama, R.; Kajitani, Y.; Kuwata, K.; Nishida, Y. (93): Self generating radial basis function as
neuro-fuzzy model and its application to nonlinear prediction of time series. IEEE Intern.
Conference on Fuzzy Systems, San Francisco 1993
Kessler, M. (80): Risiko-Management der Produkthaftpflich als industrielle Fuhrungsaufgabe.
Bern, Frankfurt a.M.:Lang 1980
Kethers, F. W. (88): Versicherung und Technik, in: Farny, D.; Helden, E. et al.(Eds.):
Handwarterbuch der Versicherung. Karlsruhe:Verlag Versicherungswirtschaft 1988, S.
1259ff.
Keysberg, G. (89): Die Anwendung der Diskriminanzanalyse zur statistischen
Kreeditwurdigkeitsprufung im Konsumentenkreditgeschăft, Diss. Munster 1989
Kieser, A. (94): Fremdorganisation, Selbstorganisation und evolutionares Management, ZFBF
1994, S. 199 ff.
Kim, J.-O.; Curry, J. (77): The Treatment of Missing Data in Multivariate Analysis, in
Sociolocical Methods&Research 6(2) 1977, S.215 ff.
Kindler, H.S. (97): Risiko ubernehmen: Nur wer wagt gewinnt, Wien, Frankfurt 1997
Kinnebrock, W. (92): Neuronale Netze: Grundlagen, Anwendungen, Beispiele, Munchen/Wien
1992.
Kirsch, W. (77): Entscheidungsprozer..e, 3. Bde. , Wiesbaden 1977
Kleinsorge, P. (94): Geschaftsprozesse, in: Masing, W.: Handbuch Qualitatsmanagement, 3.,
grundlich uberarbeitete und erweiterte Auflage, Munchen u.a: Hanser 1994
Klimasauskas, C. C. (92): Applying Neural Networks, in: Trippi, R.R.; Turban, E. (Eds.): Neural
Networks in Finance and Investing, Probus Publishing Company, Chicago 1992 S. 47-72
Knapp, L. (72): Leasing in der Handelsbilanz, in: DB 25. Jg. 1972, S. 541 ff.
Kodratoff, Y. (91): Kodratoff, Y.; Machine Learning-EWSL-91. Proc. of the European
Working Session on Learning, Lecture Notes in Artificiallntelligence, Springer Verlag,
Berlin u.a. 1991
558 Literatur- und Quellenverzeichnis
Kodratoff, Y ; Langley, P. (93): Real World Applications of Machine Learning. Workshop Notes,
European Conference on Machine Learning, Dept. of Medical Cybernetics and AI,
University of Vienna 1993.
Kohonen, T. (84): Self-Organization and Associative Memory. Springer-Verlag, Berlin, 3.
edition 1984
Kohonen, T. (77): Associative Memory: A Systematic Theoretical Approach, Springer 1977
Kohonen, T. (92): Artificial Neural Networks: Models, Paradigms, ar Methods?, in:
Aleksander, 1.; Taylor, J. (Eds.): ICANN '92, Brighton 4, 1992, Bd. 1, S. 3 ff.
Kolarz, G.; Adlassing, K.-P. (86): Problems in establishing the medical expert systems
CADIAG-1 and CADIAC-2 in rheumatologie, J. Med. Syst., val. 10, no.4, 1986, S. 295-405
Kollhofer, D. (89): Moderne Verfahren der Bilanz- und Bonitătsanalyse im
Firmenkundengeschăft der Bayerischen Vereinsbank AG, in: Zeitschrift fOr
betriebswirtschaftliche Forschung 41. Jg (1989), Nr. 2, S. 13 ff.
Koppelmann, U. (88): Beschaffungsmangement und Risikomanagemen!, in: Spinnarke, J.
(Ed.): Handbuch Risk Managemen!, Heidelberg: V.Dekker 1988 (Loseblat!-Ausgabe)
Koreimann, D. S. (76): Me!hoden der Informationsbedarfsanalyse, Berlin, New York 1976
Kosiol, E. (68): EinfOhrung in die Be!riebswirtschaftslehre. Die Un!ernehmung als
wirtschaftliches Aktionszen!rum, Wiesbaden 1968
Krakl, J.; Leins, H.; Nolte-Helwig, U. (91): Die Steuerung van Bonitătsrisiken im
Firmenkundengeschăft, in: Risikomanagemen! in Banken- Konzeplionen und
Steuerungssysteme- Verband offentlicher Banken, Bonn 1991
Krallmann, H.; Feiten L.; Hoyer R.; Kolzer G. (89) Die Kommunikalionsstrukturanalyse (KSA)
zur Konzeption einer betrieblichen Kommunikationsarchitektur, in: Kurbel, K.; Mertens P.;
Scheer, A.-W. (Hrsg): Interaktive be!riebswirtschaftliche Informations- und
Steuerungssysteme (Studien zur Wirschaftsinforma!ik 3), Berlin u.a.: de Gruy!er, 1989
Kratzheller, J.B. (97): Risiko und Riskmanagement aus organisationswissenschaftlicher
Perspektive, Wiesbaden 1997
Krause, C. (93): KreditwOrdigkeitsprOfung mi! neuronalen Nelzen, I DW-Verlag, DOsseldorf
1993.
Kreikebaum, H. (81): S!rategische Unternehmensplanung. Kohlhammer, S!ut!gart, Berlin 1981
Kressler,M. (80): Risiko-Management der Produkthaftpflicht als industrielle FOhrungsaufgabe.
Lang, Bern, Frankfurt a.M. 1980
Krings, K.; Springer, J. (95), Prozer1orien!ierte Organisation und !echnologische UnterstOlzung
fOr Zulieferun!ernehmen, in: Angewandte Arbei!swissenschaft, Nr. 146, 1995, S. 1 ff.
Kroll, M. (97): Finanzierungsalterna!ive Leasing, Dt. Sparkassenverlag, 1997
Krose, B. J. A.; Smagt van der, P. P. (93): An Introduction!o Neural Nelworks. University of
Ams!erdam, Faculty of Ma!hematics & Computer Science , 5. Aufl.
559
Kuncheva, L. L. (90): Fuzzy multi-Ievel classifier for medical applications, Comput. Biol. Med.,
voI. 20, no. 6,1990, S. 421-431
Kupsch, P. (73): Das Risiko im Entscheidungsprozess, Wiesbaden 1973
Kupsch, P. (95): Risikomanagement, in: Corsten, H.; Reir.., M.: Handbuch der
UnternehmensfGhrung, Wiesbaden 1995, S. 530 ff.
Laternser, S. (97): Asset-backet securities (ABS) im Portfoliomanagement, Stuttgart 1997
La France, M. (86): The Knowledge Acuisition Grid: A Method for Training Knowledge
Engineers, in: Boose, J.;Gaines,B. (Eds): AAAI Workshop: Knowledge Acquisition for
Knowledge Based Systems, Banff 1986
Lachenbruch, P. A.; Mickey M. R. (75): Discriminant Analysis, New York 1975
Lachenbruch, P. A.; Mickey M. R. (68): Estimation of error rates in discriminant Analysis,
Technometrics, 10
Lachenbruch, P. A. (75): Discriminant Analysis. Hafner Press, New York 1975
Lachenbruch, P. A.; Goldstein, M. (79): Discriminant Analysis, in: Biometrics 351979, S. 69 ff.
Lando, D. (94): On Cox Processes and Credit Risky Bonds, in: Working Pa per, University of
Copenhagen (12/94)
Lebsanft, E. (91): Den Computer Kredite entscheiden lassen? In: Geldinstitute, o. Jg. (1991),
Nr. 1/2, S. 18 ff.
Le Cun, Y. (86): Learning processes in an asymmetric threshold network, in: Bienenstock, E.;
Fogelman-Soulie, F.; Weisbuch, G. (Eds.): Disordered systems and Biological
Organization, Springer 1986.
Le Cun, Y.; Denker, J. S.; Solia, S. A. (90): Optimal Brain Damage, in: Touretzky, D.S. (Ed.):
Advances in Neurallnformation Processing Systems (NIPS) II, San Mateo 1992, S. 598-
605.
Lee, S. K.(77): On the asymptotic variances of u terms in loglinear models of multidimensional
contingencytables, J.Amer. Statis. Ass. 721977, S. 412-417
Leker, J. (93): Fraktionierende Fruhdiagnose van Unternehmensrisiken, Koln 1993
Leker, J. (94): Beurteilung van Ausfallrisiken im Firmenkundengeschăft, in: Bankarchiv, 1994,
S.599ff.
Lesmo, L..; Saitta, L.; Toraso, P. (82): Learning of fuzzy production rules for medical
diagnosis, in: Gupta, M. M.; Sanchez, E (Eds.): Approximate Reasoning in Decision
Analysis, North-Holland, New York 1982, S. 181-198
Lindackers, K. H. (84): Methoden und Modelle der Risiko- und Sicherheitsforschung, in:
Lange, S. (Ed.): Ermittlung und Bewertung industrieller Risiken. Springer. Berlin u.a. 1984
Lippmann, R. P. (87): An Introduction to Computing with Neural Nets, IEEE ASSP Magazine,
April 1987 Volume 4 NO.2.
Little, W. A. (74): The Existence of Persistent States in the Brain. Math. Bioscience, VoI. 86, S.
864ff.
560 Literatur- und Quellenverzeichnis
Uttle, R. J. A; Rubin, D. B. (87): Statistical analysis with missing data. New York: John Wiley
and Sons 1987
Loistl, O.; Betz, 1. (94): Chaostheorie: zur Theorie nichtlinearer dynamischer Systeme,
R.Oldenburg Verlag, Munchen 1994
Luneborg, K. (81) Konstruktion und Test statistischer Verfahren im Rahmen der
Kreditwurdigkeitsprufung anhand der Jahresabschliisse kleinerer und mittlerer
Unternehmen, Diss. Bochum 1981
Mag, W. (81): Risiko und Ungewissheit, in: Albers, W. (Ed.), HandwOrterbuch der
Wirtschaftswissen-schaft, Stuttgart 1981, S. 478ff.
Marchand, M.; Golea M.; Rujan, P. (80): A Convergence Theorem for Sequential Learning in
Two Layer Perceptrons. Europhysics Letters 11 , S. 487ff.
Mason, W. M.; Fienberg, S. E. (85): Cohort Analysis in Social Research, New York 1985
Matheus, C. J. (91): The Need for Constructive Induction, in Proceedings of the Eighth
International Workshop of Machine Learning, (ML91)
Matheus, C. J.; Rendell, L. A. (89): Constructive Induction on decision trees, in Proceedings of
the Eleventh International Joint Conference on Artificial Intelligence, Detroit 1989
Matusita, K. (54): On Estimation by the Minimum Distance Method, in: Ann, insI. Stal.Math, Voi
7, S 67ff.
Matusita, K. (55): Decision Rules Based on the Distance for Problems of Fit, Two Samples and
Estimation, in: Ann, insI. Stal.Math, Voi 26, S 631ff.
Maurer, T. (94): Einsatz von Neuronalen Ne!zwerken fOr die Prognose DM/US-Dollar
Technische Kursanalyse versus Fundamentalanalyse, Diplomarbeit an der Universităt
Karlsruhe 1994
Mc Nurlin, B. C. (79): What Informations do Managers need? in: EDP Analyzer 17(1979) 6, S.
1 ff.
McLachlan, G. J. (92): Discriminant Analysis and Statistical Pattern Recognition, New York
1992
McLachlan, G. J.; Byth, K. (79): Expected error rates for Logistic regression versus normal
discriminant analyses, Biom.J. 21 1979, S. 47ff.
Meffert, H. (86): Marketing. Grundlagen der Absatzpolitik, 7. Aufl., Wiesbaden 1986
Mehr, R. 1.; Hedges, B. A. (63): Risk-Management in the Business Enterprises. Homewood,
Irvin u.a.1963
Meyna, A. (82): EinfOhrung in die Sicherheitstheorie. Hanser, Munchen, Wien 1982
Mezard, M.; Nadal, J.P. (89): Learning in Feedforward Layered Networks: The Tiling Aigorithm.
Journal of Physics A 22, S. 2191 ff.
Michalski, R. S. (86): Understanding the nature of learning : Issues and research directions, in:
Machine Learning: An AI Approach, VoI. 2, 3-25,1986
561
Miller, J. (93): Measuring and aligning information systems with the organization. A case study,
in: Information & Management, 1993, S. 217-228
Miller, M. (94): Neuronale Netze fOr Finanzdienstleister, Universităt Mannheim, Dissertation.
Mingers, J. (89a): An Empirical Comparison of Pruning Methods for Decision Tree Induction.
Machine Learning 4 1989
Mingers, J. (89b): An Empirical Comparison of Selection Measures for Decision Tree
Induction. Machine Learning 31989
Molak, V. (96): Fundamentals of Risk Analysis and Risk Management, CRC Press, 1996
Moxter, A. (78): KreditwOrdigkeitsbeurteiiung und Eigenkapital, in: Die Bank o. Jg. (1978), Nr. 7
Moxter, A. (93): Saldierungs- und Abzinsungsprobleme bei DrohverlustrOckstellungen; in: BB
1993 Heft 35/36 S. 2481ff.
Moxter, A. (97): Zur Abgrenzung von RisikorOcksteliungen und (kOnftig grundsătzlich
unzulăssigen) VerlustrOckstellungen, in: DB, Heft 30,1997
Mucha, H. J. (92): Clusteranalyse mit Mikrocomputern. Akademie Verlag, Berlin 1992
MOller, W. (93): Risiko und UngewiP..heit, in: Witlmann, W.: Handworterbuch der
Betriebswirtschaft, Stultgart 1993, S. 3813 ff.
Mugler, J. (78): Die Praxis des Risk Managements in der Unternehmung, BFuP 30 (1978),
S.295-307
Murray-Smith, R. (92): A fractal radial basis function neural net for modelling, interna.
Conference on Automation, Robotics and Computer Vision, Singapore 1992
Nakhaeizadeh, G. (92a): Inductive Expert Systems and their Applications in Statistics, in:
Faulbaum, F. (Ed.), SoftStat 91. Advances in statistical Software, Proc. ofthe Sixth
Conference on the Scientific Use of statistical Software, Gustav Fischer, Heidelberg 1991,
S.31-38
Nakhaeizadeh, G. (92b): Application of Machine Learning to solving industrial problems, in:
Gritzmann, P. (Ed.) Operations Research 91, S. 560-536
Nakhaeizadeh, G. (93a): Application of Machine Learning in Finance, in: Kirn, S.; Weinhardt, C.
(Eds.) Tagungsband zum Workshop KI-Methoden in der Finanzwirtschaft (17. Fachtagung
fOr KI, Giessen) 1993
Nakhaeizadeh, G.; Graf, J. (93b): Recent Developement in Solving the Credit Scoring Problem,
Daimler-Benz, Ulm 1993
Nakhaeizadeh, G.; Taylor, C. C. (95): Adaptive Learning with Statistical Aigorithms,
erscheint.
Nakhaeizadeh, G. (97): Data Mining, Physica-Verlag, Berlin 1997
Nibletl, T. (87): Constructing decision trees in noisy domains. Sigma Press 1987
Niehaus, H.-J. (87): FrOherkennung von Unternehmensrisiken, Diss. MOnster 1987
562 Literatur- und Quellenverzeichnis
Norris, D.; Pilsworth, B. W.; Baldwin, J. F. (87): Medical Diagnosis From Patient Records-A
Method Using Fuzzy Discrimination and connectivity Analyses, in: Fuzzy Sets and Systems
23, North-Holland 1987, S. 73-87
Oehler, A. (98): Credit Risk und Value-at-Risk Alternativen. Herausforderungen fUr das Risk -
Management, Schăffer - Poeschel, Stuttgart 1998
Oppl-Jirsa, V. (85): Risk Management in Klein und Mittelbetrieben. Wien: Service Fachverlag
an der Wirtschafts-Universităt, Wien 1985.
Qsterle, H.; Brenner, W.; Hilbers, K. (92): UnternehmensfUhrung und Informationssysteme.
Teubner1992
Qsterle, H. (93): Ein Modell fUr den Proze[!,entwurf, Institutsbericht IM 2000/CCCRIS/8, Institut
fUr Wirtschaftsinformatik, Hochschule St. Gallen 1993
Qsterle, H. (95): Business Engineering- Proze[!,- und Sytementwicklung. Berlin: Springer 1995
Ott, C.H. (86): Die Beurteilung gewerblicher Kreditnehmer aus betriebswirtschaftlicher Sicht,
Koln, Sindelfingen 1986
Pagallo, G.; Haussler, D. (90): Boolean feature discovery in empiricallearning. Machine
learning, 5, S. 71 ff.
Pagallo, G. (89): Learning DNF by decision trees, in: Sidharan (Ed.), Proceedings of the
Eleventh International Joint Conference on Artificiallntelligence, Morgan Kaufmann
Publishers, San Mateo 1989, S. 83 ff.
Parker, D. (85): Learning Logic, Technical report TR-87 Center for Computational Research in
Economics and Management Science, MIT, Cambridge, MA 1985.
Parzen, E. (62): "On Estimation of a probability density function and mode", Ann. Math.
Statist.,VoI.33, S.:1065ff.
Peterson, D.W. (70): Some convergence properies of a nearest neighbour decision rule, IEEE
Trans.lnform.Theorie IT-16, 26-31.
Poddig, T. (92): KOnstiiche Intelligenz und Entscheidungstheorie, Deutscher Universităts
Verlag, Wiesbaden 1992
Pomberger G. (90): Methodik der Softwareentwicklung, in: Kurbel, K; Strunz, H.: Handbuch
Witschaftsinformatik, Poeschel, Stuttgart 1990
Pomberger, G.; Blaschek, G. (93): Software Engineering. Prototyping und objektorientierte
Software-Entwicklung. Hanser Verlag, MOnchen/Wien 1993
POmpin, C. (73): Information und Marketing, St. Gallen 1973
Quinlan, J. R. (79): Discovering rules from large collections of examples: a case study, in
Michie, D. editior, Expert systems in the Microelectronic age. Edinburgh University Press,
Edinburgh 1979
Quinlan, J. R. (93): C4.5 Programs for Machine Learning. San Mateo 1993
Quinlan, J. R. (86a): Induction of Decision Trees, in: Machine Learning, vol.1 nO.1, 1986, S. 81-
106
QUinlan, J. R. (86b): Induction of decision trees. Machine Learning, 1, S. 81 ff.
QUinlan, J. R. (87): Generating production rules from decision trees, in: Proceedings of the
International Joint Conference on Artificiallntelligence, S 304 ff., Milano 1987
563
Quinlan, J. R. (87): Simplifiying Decision Trees, International Journal Man-Machine Studies 27
Quinlan, J. R. (88): Simplifying decision trees, in Gains, B.; Boose, J.; editiors, Knowledge
Acquisition for Knowledge-Based Systems S. 239ff. Academic Press, London 1988
QUinlan, J. R. (89): Learning relations: comparison of a symbolic and a connectionist approach.
Technical Report 346, University Sydney 1989
Quinlan, J. R. (90): Learning logical definitions from relations. Machine Learning, 5, S. 239 ff.
Quinlan, J. R. (92): C4.5, in Programs for Machine Learning. Morgan Kaufmann 1992
Rehkugler, H.; Schindler, V. (89): Entscheidungstheorie, 4. Aufl., Munchen 1989
Rehkugler, H.; Schmidt-von Rhein, A. (93): Kreditwurdigkeitsanalyse und -prognose fOr
Privatkundenkredite mittels statistischer Methoden und Kunstlicher Neuronaler Netze, -
Eine empirisch-vergleichende Studie. Bamberger Betriebswirtschaftliche Beitrage Nr.
93/1993, Universitat Bamberg, Bamberg 1993.
Rehkugler, H.; Poddig, T.(92a): Neuronale Netze im Bankbetrieb, in: Die Bank, 7/1992, S.
413ff.
Rehkugler, H.; Poddig, T. (92b): K1assifikation von Jahresabschlussen mittels Multilayer
Perceptrons, in Bamberger Betriebswirtschaftliche Beitrage, Nr. 87/1992, Bamberg 1992.
Rehkugler, H.; Zimmermann H.G. (Ed.) (94): Neuronale Netze in der Okonomie -Grundlagen
und finanzwirtschaftliche Anwendungen, Vahlen, Munchen 1994
Rehkugler, H.; Poddig, T. (94): Kurzfristige Wechselkursprognosen mit Kunstlichen
Neuronalen Netzwerken, in: Bol, G.; Nakhaeizadeh, G.; Vollmer, K.-H. (Eds.):
Finanzmarktanwendungen neuronaler Netze und okonomischer Verfahren, Physica-Verlag,
Heidelberg 1994.
Reinartz T.P.; Wirth, R. (95): The Need for a Task Model for Knowledge Discovery in
Databases; in MLnet Familiarization Workshops April,95: Statistics, Machine Learning an
Knowledge Discovery in Databases; Heraklion, Crete, Greece
Rendell, L. A.; Cho, H. (90): Empirical Learning as a Function of Concept Character.
Machine Learning 5 1990
Rendell, L. A. (89): A general framework of induction and a study of selective induction.
Machine Learning I
Reuter, A; Welch, F. (93): Wie sich Kreditrisiken fruhzeitig erkennen lassen, in:
Betriebswirtschaftliche Blatter, 42. Jg. 1993
Richter, M. M; Wendel, O. (90): Lernende Systeme, Teil1. Kaiserslaurtern 1990
Richter, M. M (90): Konnektionismus. Vorlesungsmanuscript Kaiserslaurtern 1990
564 Literatur- und Quellenverzeichnis
Rissland , E. L.; Soloway, E. M. (81): Constrained example generation: A testbed for
studying issues in learning. Proc. of the 7th International Joint Conferrence on Artificial
Intelligence 1981, S. 182ff.
Rohlfs, C. (78): Die Schadensverhotung im Risk-Management-Konzept, in Zeitschrift fUr die
ggesamte Versicherungswissenschaft, Karlsruhe 67 (1978) 1/2 S.115ff.
Rolfes, B.; Schierenbeck, H.; Schuller, S. (97): Risikomanagement in Kreditinstituten. Beitrage
zum Munsteraner Top - Management - Seminar, F.Knapp, Frankfurt a.M. !997
Rohwer, R. (91 a): Description and training of neural network dynamics, in: Pasemann, F.;
Doebner, H.; (Ed.), Neurodynamics, Proceedings ofthe 9th SummerWorkshop, Clausthal,
Germany. World Scientific 1991
Rohwer, R. (91 b): Neural Networks for time-varying data, in: Murtagh, F.; editor, Neural
Networks for Statistical and Economic Data, S. 59 ff. Statistical Office of the European
Communities, Luxembourg 1991
Rojas, R. (93): Theorie der neuronalen Nelze, Springer-Verlag 1993
Rosenblatt, M. (56): "Remarks on some nonparametric estimates of a densily function", Ann.
Math. Statis!.,VoI.27 S.:832ff.
Rosenblatt, F. (58): The perceptron: a probabilistic model for information storage and
organization in the brain, in: Psychological Review 65, S. 386-408.
Rosenblatt, F. (62): Principles of Neurodynamics. New York: Spartan Books 1962.
Rosenhagen, K.; Schwarze, J. (93): Einsalzmoglichkeiten von Expertensystemen in der
Kreditwurdigkeitsprufung, in:Kirn, S.; Weinhardt, C. (Eds.): Tagungsband zum Workshop
KI-Methoden in der Finanzwirtschaft (17. Fachtagung fUr KI, Giessen) 1993
Roskar, E.; Kononenko, 1.; Bratko, 1. (84): Experiments in automatic learning of medical
diagnostic rules. Technical Report, Josef Stefan Institute, Ljubiljana 1984
Rumelhart, D. E.; Hinton, G. E.; Williams, R. J. (86): Learning Intenal Representations by Error
Propagation, in: Rumelhart, D.E. und McClelland, J.L. (1986): PDP: Explorations in the
Microstructure of Cognition, VoI. 1 Foundations, Cambridge 1986 S.318-364
Sanchez, E.; Gouvernet, J.; Bartolin, T.; Vovan, L. (82): Linguistic approach in fuzzy logic ofthe
W. H. O. classification of dyslipoproteinemias, in: Yagger, R. R. (Ed.): Fuzzy Set ans
Possibility Theory-Recent Developements, Pergamon, New York 1982, S. 582ff.
Sauerwein (94): Strategisches Risiko Management in der bundesdeutschen Industrie, Europ
Verlag der Wissenschaften, Frankfurt a.M. 1994
Schiemenz B.; Seiwert L. (79): Ziele und Zielbeziehungen in der Unternehmung in: ZfB
49(1979)7, S581 ff.
Schiffmann, W.; Joost, M.; Werner, R. (94): Optimization of the Backpropagation Aigorithm for
Training Multilayer Perzeptrons, Universily of Koblenz, Institute of Physics, Technical
Report, Rheinau 1, 56075 Koblenz
Schimank, C. (90): Strategische Entscheidungsunterstutzung durch prozef1orientierte
Kosteniformation, in Horvath, P. (Ed), Strategieunterstiitzung durch das Controlling.
Revolution im Rechnungswesen, Stuttgart 1990, S.227ff.
Schimpe, H.; Weber, R. (92): Wissensbasierte Datenanalyse mit Fuzzy Logik. Intelligente
Software Technologien 4/92, Oldenbourg-Verlag 1992
Schinle, M. (86): Risiko Management ei ner mittelgrof1en Unternehmung: Ein
Oberlebenskonzept. Diss. St. Gallen 1986
565
Schlangen, G. (84): Die Systematik unternehmerischer Sicherungsmaf1nahmen, Munster 1984
Schlimmer, J. C.; Fischer, D. (86): A Case Study of Incremental Concept Induction, in: AAAI
86: Proc. of the 6th National Workshop on Artificial Intelligence. Morgan Kaufmann
Publishers, Los Altos, CA. 1986
Schlimmer, J. C. (87a): Learning and Representation Change in: AAAI: Proc. of the 6th
National Workshop on Artificial Intelligence. Morgan Kaufmann Publishers, Los Altos, CA.
1987
Schlimmer, J. C. (87b): Incremental Adjustment of representations for Learning in: Langley, P.:
Proc. of the 4th International Workshop on Machinel Learning. Morgan Kaufmann
Publishers, Los Altos, CA. 1987
Schmidt-von Rhein, A.; Rehkugler H. (94): KNN zur Kreditwurdigkeitsprufung bei
Privatkundenkrediten, in: Rehkugler, H. ; Zimmermann H.G. (Eds.): Neuronale Netze in der
bkonomie Grundlagen und finanzwirtschaftliche Anwendungen, Vahlen, Munchen 1994,
S.491 - 545
Schmoll A. (94): Theorie und Praxis der Kreditprufung unter besonderer Berucksichtigung der
Klein und Mlttelbetriebe (1), in bBA 3/83, S.94 ff.
Schmoll, G. A. (88): Mehr Sicherheit fUr Ihr Unternehmen dank systematischem und effizietem
Risiko-Management. Loseblatt-Sammlung. Zurich:WEKA-Verlag 1988
Schneider, D. (89): Erste Schritte zur Theorie der Bilanzanalyse, in: Die Wirtschaftsprufung, S.
633 ff.
Schoneburg, E.; Hansen, N.; Gawelcyk, A. (90): Neuronale Netze: EinfUhrung, Oberblick und
Anwendungsmoglichkeiten, Munchen 1990
Schulte, M. (94): Integration der Betriebskosten in das Risikomanagement von Kreditinstituten,
Gabler 1994
Schulte-Zurhausen, M. (95): Organisation, Munchen 1995
Schumann, M.; Lohrbach, T.; Bahrs, P. (92): Versuche zur Kreditwurdigkeitsprognose mit
kunstlichen Neuronalen Netzen, Arbeitspapier der Georg-August-Universitat-Găttingen,
Abteilung Wirtschaftsinformatik II, Nr. 2, Universitat Gottingen, Gottingen 1992
Schurmann, J. (77): Polynomklassifikatoren fUr die Zeichenerkennung, Oldenbourg Munchen
1977
566 Literatur- und Quellenverzeichnis
Schwarze, J. (95): Komplexitatsreduktion durch hierarchische Oekomposition, in: WISU 1995,
S. 679 ff.
Schwarze, J.; Rosenhagen, K. (93): Expertensysteme in der Kredilwurdigkeitsprufung, in:
WiSt-Wirtschaftswissenschaftliches Studium, 22. Jg. 1993
Scoti P. O.; Vogt, R. C. (83): Knowledge Oriented Learning, in: Proceedings IJCAI-83, S. 432-
435
Seidenschwarz (91): Target Costing. Ein japaischer Ansatz fUr das Kostenmanagement, in:
Controlling Heft 4, Juli/August 1991
Seitz, J.; Stickel, E. (92): Consumer Loan Analysis Using Neural Nelworks, in: Preliminary
Proceedings: BANKAI Workshop on Adaptive Intelligent Systems, S.W.I.F.T., La Hulpe
1992
Sietsma, J.; Oow, R. (88): Neural Net Pruning- Why and How. IEEE International Conference
on Neural Nelworks (San Oiego 1988), VoI. 1, S. 779ff.
Sietsma, J.; Oow, R. (91): Creating Artificial Neural Nelworks that Generalize in: Neural
Nelworks 4(1) S. 67-79
Simon, H. A. (83): Why should machi nes learn? In: Michalski, Carbonell, Mitchell (83):
Machine Learning: An Artificiallntelligence Approach, VoI. 1 S 25-37, Palo Alto 1983
Siowinski, R.; Zopounidis C. (95): Application of the Rough Set Approach to Evaluation of
Bankruptcy Risk, in: Intelligent Systems in Accounting, Finance and Management VoI. 4
1995, S. 27ff.
Smith, A. E. (94): X-bar and R controll chart interpretation using neural computing, international
Journal of Production Research 32
Smolensky , P. ; Mozer, M. (89): Skeletonization: A Technique for trimming the Fat from a
Nelwork via Relevance Assessment, in: Touretzky, O.S. (Eds.) Advances in Neural
Information Processing Systems 1 S.107-115, San Mateo 1989
Snedecor, W.; Cochran, W. G. ( 80): Statistical Methods (7th edition). Iowa State University
Press, Iowa 1980
Srinivasan V.; Kim, Y. H. (87): Credit granting:A comparative analysis of classification
procedures. Journal of Finance 1992, S. 665ff.
Staehle, W. H. (90): Management. 6. Aufl., Munchen 1990
Starke, W. (85): Neue Systeme zur Bonitatsprognose von Kreditnehmern, in: Krummel, H.J.;
Rudolph, B. (Eds.): Innovationen im Kreditmanagement, Frankfurt 1985
Stein v. J. H.; Ziegler, W. (84): The prognosis ans surveillance of risks from commercial credit
borrowers. Journal of Banking and Finance, S. 249ff.
Steurer, E. (93): Chaos theoretische Ansatze zur Prognose der Enlwicklung von
Wechselkursprognosen, Oiplomarbeit an der Universitat Karlsruhe 1993
Stork, O., Hassibi, B. (93): Second order derivatives for network pruning: Optimal Brain
Surgeon, in: Sejnowski, T.J.; Hinton, G.E.; Touretzky, D.S. (Eds.): Advances in Neural
Information Processing Systems 5, San Mateo 1993, S. 164-171.
567
Streiferdt, L. (73): Grundlage und Probleme der betriebswirtschaftlichen Risikotheorie. Gabler,
Wiesbaden 1973.
Suchting, J. (78): Finanzmanagement 2. Auflage. Wiesbaden 1978
Sutton, R. S. (84): Temporal Credit Assignment in Reinforcement Learning, Diss. University of
Massachusetts 1984
Tacke, H. R. (98): Leasing, Schăffer Verlag, Stuttgart, 1998
Thomas, K (85): Aussagen quantitativer Kreditanalysen, in: Innovationen im
Kreditmanagement, S. 633 ff.
Titterington, D. M. (81): Comparison of dscrimination techiques applied to a complex data set of
head injured patients (with discussion). J. Royal Statist. Soc. A, 144
Toutenburg, H. (92): Lineare Modelle, Heidelberg 1992
Utgoff, P. E.; Brodley, C. E. (90): An Incremental Method for Finding Multivariate Splits for
Decision Trees, in: Porter, B.; Mooney, R. (Ed.): Machine Learning. Proc. ofthe 7th
International Conference, Morgan Kaufmann Publishers, San Mateo 1990
Utgoff, P. E. (94): An improved algorithm for incremental induction of decision trees: In Machine
Learning Proc. 11, international Conferrence 1993.
Utgoff, P. E. (89): Incrementallearning of decis ion trees. Machine Learning 4, 161-186
Van Horn (77): Financial Management and Policy, 5. Auflage, London 77
Van Ness, J. (80): On the dominance of non-parametric Sayes rule discriminat algorithms in
high dimensions, Pattern Recognition 12, S.355-368
Van Way, C.; Murphy, J.; Dunn, E.; Elderding, S. (81): A feasibilitiy study of computer aided
diagnostics in appendicitis, Surgery Gynecology and Obstetrics, vo. 155, 1982, S. 685-688
Simpson, P. K (90): Artificial Neural Networks: Foundations, Paradigms, 'Applications and
Implementations New York 1990
Vogler, M.; Gundert, M. (98): EinfOhrung von Risikomanagementsystemen, in: DS, Heft 48,
1998
Vollmar, F. (78): Begriff und Wesen des Risikos in der integrierten Unternehmensplanung,
Munchen 1978
Wagner, G.; Lang R.(73): Statistische Auswertung von MeP..- und Prufergebnissen; Deutsche
Gesellschaft fOr Qualităt e.v. Berlin, Frankfurt 1973
Wagner, G. R. (Hrsg.) (92): Okonomische Risiken und Umweltschutz, Munchen 1992
Watanabe, H.; Yakowenko, W. J.; Yong-Mi, K; Jiro, A.; Toshikazu, T. (94): Application ofa
Fuzzy Disikrimination Analysis for Diagnosis of Valvular Heart Disease; in IEEE
Transactions on Fuzzy Systems, VoI. 2, No. 4 (11/94)
568 Literatur- und Quellenverzeichnis
Wedderburn, R. W. M. (76): On the existence and unigueness of the maximum Iikelihood
estimates for certain generalized linear models, Biometrics 63, S. 27-32
Weibel, P.F. (73): Die Aussagefăhigkeit von Kriterien zur Bonitătsbeurteiiung im Kreditgeschăft
der Banken, -Eine empirische Untersuchung, Paul Haupt, Bem 1973
Weigend, A.; Rumelhart, D.; Huberman, B. (91): Generalization by Weight Elimination with
Application to Forecasting, in: Lippmann, R.; Moody, J. (Eds.): Advances in Neural
Information Processing 3, San Mateo 1991, S. 425-464
Welbank, M. (83): A Review of Knowledge Acquisition Techniques for Expert Systems, British
Telecommunications 1983
Welbank, M. (87): Knowledge Acquisition: A survey and British Telecom experience, 1.
European Knowledge Acquisition Workshop, Reading 1987
Werbos, P. (74): Beyond regression: new tools for prediction and analysis in the behavioral
sciences, Ph.D. thesis, Harvard Universily, Cambridge, MA. 1974
Westphalen, F. G. v. (79): Der Leasingvertrag, Koln 1979, S. 25
White, H. (89a): Learning in Artificial Neural Nelworks: A Statistical perspective, in: Neural
Computation, VoI. 1, S. 425ff.
White, H. (89b): Some Asymptotic Results for Leaming in Single Hidden-Layer Feedforward
Nelwork Models, in: Journal of the American Statistical Association: S. 1003ff.
Widrow, B.; Hoff, M. E. (60): Adaptive switchiing circuits, in: Institute of Radio Engineers,
Westem Electronic Show and Convention, Convention Record, New York 1960, S. 96 ff.,
Nachdruck in: Neurocomputing- foundations of research, Anderson, J. A.; Rosenfeld, E.
(Eds.), Cambridge, MA 1988, S. 126 ff.
Wilber, R. (91): Kredilwurdigkeitsanalyse im Konsumentenkreditgeschăft auf der Basis
Neuronaler Netze, in: ZfB, 12/91, S. 1377 ff.
Wischermann, B. (91): Produzentenhaftung und Risikobewăltigung, Munchen 1991
Yoshikawa, T.; Innes, J.; Mitchell, F. (90): Cost Tables: A Foundation of Japanese Cost
Management, in: Journal of Cost Management 4 (1990) Fali, S. 30 ff.
ZeII, A.; Mamier, G.; Vogt, M. (95): SNNS Stutlgart Neural Network Simulator User Manual
Version 4.0. Report No. 6/95, institut fOr parallele und verteilte Rechnersysteme, Universităt
Stutlgart 1995
ZeII, A. (94): Simulation neuronaler Netze, Addison-Wesley 1994
Zellmer, G. (85): Subjektive Wahrscheinlichkeiten und Moglichkeiten ihrer Berucksichtigung im
EntscheidungsprozeB mitlels unscharfer Relationen, in: Forschungsinformationen der
Sektion Leitung, Informationsverarbeitung und Statistik der Hochschule fOr Okonomie,
Berlin, 101985
Zellmer, G. (90): Risiko-Management, Vlg. Wirtschaft, Berlin 1990
Zellweger, B. (87): Kredilwurdigkeitsprufung in Theorie und Praxis, Bem, Stutlgart 1987
Zimmermann, K.-J., Mitsumoto, M, (82): Comparison of Fuzzy Reasing Methods, in: Fuzzy
Sets and Systems 8 1982, S. 253-285
Zimmermann, H. G. (94): Neuronale Nelze als EntscheidungskalkOI, in: Rehkugler, H.;
Zimmermann H.G. (Eds.): Neuronale Nelze in der Okonomie Grundlagen und
finanzwirtschaftliche Anwendungen, Vahlen, Munchen 1994, S. 1 - 87
569