3. konferenz für sozial- und wirtschaftsdaten, 11./12. mai 2006

9
Rheinisch-Westfälisches Institut für Wirtschaftsforschung 1 12. Mai 2006 Marcus Tamm 3. Konferenz für Sozial- und Wirtschaftsdaten, 11./12. Mai 2006 Benchmarking der aktiven Arbeitsmarktpolitik auf regionaler Ebene Marcus Tamm RWI Essen und Ruhr-Universität Bochum

Upload: rafael-reed

Post on 02-Jan-2016

18 views

Category:

Documents


2 download

DESCRIPTION

3. Konferenz für Sozial- und Wirtschaftsdaten, 11./12. Mai 2006. Benchmarking der aktiven Arbeitsmarktpolitik auf regionaler Ebene Marcus Tamm RWI Essen und Ruhr-Universität Bochum. Benchmarking der Arbeitsmarktpolitik. Überblick über Präsentation Evaluationsauftrag und Ziele Vorgehensweise - PowerPoint PPT Presentation

TRANSCRIPT

Page 1: 3. Konferenz für Sozial- und Wirtschaftsdaten, 11./12. Mai 2006

Rh

ein

isch

-We

stfä

lisch

es

Inst

itut

für

Wirt

sch

aft

sfo

rsch

un

g

112. Mai 2006Marcus Tamm

3. Konferenz für Sozial- und Wirtschaftsdaten, 11./12. Mai 2006

Benchmarking der aktiven Arbeitsmarktpolitik auf regionaler

Ebene

Marcus TammRWI Essen und Ruhr-Universität Bochum

Page 2: 3. Konferenz für Sozial- und Wirtschaftsdaten, 11./12. Mai 2006

Rh

ein

isch

-We

stfä

lisch

es

Inst

itut

für

Wirt

sch

aft

sfo

rsch

un

g

212. Mai 2006Marcus Tamm

Benchmarking der Arbeitsmarktpolitik

Überblick über Präsentation

1. Evaluationsauftrag und Ziele

2. Vorgehensweise

3. Ergebnisse

4. Schlussfolgerungen

Page 3: 3. Konferenz für Sozial- und Wirtschaftsdaten, 11./12. Mai 2006

Rh

ein

isch

-We

stfä

lisch

es

Inst

itut

für

Wirt

sch

aft

sfo

rsch

un

g

312. Mai 2006Marcus Tamm

1. Evaluationsauftrag und Ziele

Benchmarking ist Teil der „Hartz-Evaluation Modul 1f: Verbesserung der beschäftigungspolitischen Rahmenbedingungen und Makrowirkung der aktiven Arbeitsmarktpolitik“

Benchmarking stammt aus BWL: Vergleich des Abschneidens (Performance) unterschiedlicher Organisationseinheiten gegenüber eines Standards (Benchmark)

Ziele: • Ermittlung der Gesamtperformance einer Organisationseinheit

• Ermittlung möglicher Ursachen hierfür

• Basis für Lernprozesse

Ziele des Benchmarking der aktiven Arbeitsmarktpolitik: • Ermittlung von Unterschieden in Performance zwischen Agenturen

• Aufzeigen von möglichen Ursachen hierfür

• Überprüfung der Sensitivität der ermittelten Ergebnisse

Page 4: 3. Konferenz für Sozial- und Wirtschaftsdaten, 11./12. Mai 2006

Rh

ein

isch

-We

stfä

lisch

es

Inst

itut

für

Wirt

sch

aft

sfo

rsch

un

g

412. Mai 2006Marcus Tamm

2. Vorgehensweise

Daten: Bestands- und Stromgrößen des Arbeitsmarktes, regionale Kontextvariablen sowie eigene Befragung aller Agenturen

Vorgehensweise:• Schritt 1: Entwicklung eines Verbundindikators zur Messung von

Performance und Sensitivitätsanalyse

• Schritt 2: Untersuchung des Einflusses regionaler Kontextvariablen auf Performancemaß

• Schritt 3: Untersuchung des Zusammenhanges zwischen aktiver Arbeitsmarktpolitik und Performancemaß (gegeben regionaler Kontext)

• Schritt 4: Untersuchung des Zusammenhanges zwischen Effizienzunterschieden und Organisationsstrukturen

Wichtig: Benchmarking ist ein rein deskriptives Instrument Vorsicht bei strukturellen Schlussfolgerungen dringend geboten

Page 5: 3. Konferenz für Sozial- und Wirtschaftsdaten, 11./12. Mai 2006

Rh

ein

isch

-We

stfä

lisch

es

Inst

itut

für

Wirt

sch

aft

sfo

rsch

un

g

512. Mai 2006Marcus Tamm

3. Ergebnisse

Schritt 1: Verbundindikator als Performancemaß• Ausgangspunkt: 61 Einzelindikatoren der lokalen Arbeitsmarkt-

situation (Bestands- und Stromgrößen; gesamt und getrennt für Männer, Frauen, Jüngere)

• Diese sind teilweise sehr hoch miteinander korreliert Reduktion sinnvoll und ohne nennenswerten Informationsverlust möglich Reduktion auf sechs Indikatoren

• Festlegung der Benchmark: beobachtbare Ober- bzw. Untergrenze

• Bestimmung des Performancemaßes mit Hilfe von Radar-Charts SMOP-Werte (reagiert nicht sehr sensitiv auf Anordnung der Indikatoren)

• Ergibt erstes Ranking der 176 Agenturbezirke (Berlin vereint) dieses weicht vom Ranking anhand der Arbeitslosenquoten ab

• SMOP-Werte sind abhängige Variablen in nachfolgender stochastischer Effizienzgrenzenanalyse (Efficiency Frontier Analysis)

Page 6: 3. Konferenz für Sozial- und Wirtschaftsdaten, 11./12. Mai 2006

Rh

ein

isch

-We

stfä

lisch

es

Inst

itut

für

Wirt

sch

aft

sfo

rsch

un

g

612. Mai 2006Marcus Tamm

3. Ergebnisse

Schritt 2: Einfluss regionaler Kontextvariablen• EFA: (Panel-) Regressionsmodell mit aus zwei Komponenten

bestehendem Störterm; eine der beiden Komponenten kann als Ineffizienz interpretiert werden

• EFA setzt Gültigkeit spezieller Verteilungsannahmen über Störterm voraus; Sensitivitätstest anhand eines „normalen“ random-effects Panelmodells

• Regionale Kontextvariablen (z.B. Kurzarbeiter, Branchenstruktur der Beschäftigung, Betriebsgrößenstruktur, Ost/West, Regionaldirektionen etc.) erweisen sich als signifikante und im Zeitablauf recht stabile Erklärungsfaktoren der Performance

• Typisierung der Agenturbezirke wurde nicht verwendet, da diese primär aus der Unterbeschäftigungsquote abgeleitet wird

• Kontrolle um regionale Kontextvariablen verändert Ranking der Agenturen teilweise sehr deutlich

• Berücksichtigung der „Ausgangssituation“ für arbeitsmarktpolitischen Instrumenteneinsatz ist also sehr wichtig

Page 7: 3. Konferenz für Sozial- und Wirtschaftsdaten, 11./12. Mai 2006

Rh

ein

isch

-We

stfä

lisch

es

Inst

itut

für

Wirt

sch

aft

sfo

rsch

un

g

712. Mai 2006Marcus Tamm

3. Ergebnisse

Schritt 3: Zusammenhang zwischen Politikeinsatz und Performance (gegeben regionaler Kontext)• Abbildung des Politikeinsatzes durch Pro-Kopf-Ausgaben für aktive

Arbeitsmarktpolitik sowie Ausgabenanteile für (i) Einzelmaßnahmen bzw. (ii) Maßnahmegruppen (Humankapitalmaßnahmen, Sub-ventionen 1. AM, Subventionen 2. AM, Jugendmaßnahmen und Sonstiges)

• Einfluss regionaler Kontextvariablen ändert sich kaum

• Zusammenhang zwischen Politikeinsatz und Performance unter-scheidet sich deutlich zwischen den Zeiträumen vor und ab 2003

• Nach 2003: Signifikant positive Assoziation zwischen Subventionen 1. AM und Performance für alle Bevölkerungsgruppen (v.a. durch Existenzgründungsförderung getrieben)

• Jugendmaßnahmen nur mit Performancemaß für unter 25-jährige positiv assoziiert; uneinheitliches Bild für andere Maßnahmegruppen

• Höhe der Pro-Kopf-Ausgaben ist für beide Zeiträume positiv mit Performance korreliert (auch für alle Bevölkerungsgruppen)

Page 8: 3. Konferenz für Sozial- und Wirtschaftsdaten, 11./12. Mai 2006

Rh

ein

isch

-We

stfä

lisch

es

Inst

itut

für

Wirt

sch

aft

sfo

rsch

un

g

812. Mai 2006Marcus Tamm

3. Ergebnisse

Schritt 4: Effizienzunterschiede und Organisationsstruktur• Untersuchung des Zusammenhanges zwischen Performance und

Merkmalen der Organisationsstruktur bedingt auf regionalen Kontext und Einsatz der Arbeitsmarktpolitik

• Problem: Hohe Antwortverweigerungsrate in Agenturbefragung

• Organisationsstrukturmerkmale: Anzahl AN- und AG-Kunden, Handlungsspielraum der Agenturen, Einfluss der Regionaldirektion, Zusammenarbeit mit anderen Akteuren des lokalen Arbeitsmarktes

• Diese sind insgesamt nur sehr schwach mit Effizienzunterschieden assoziiert

• Nach 2003: Effizienz höher in Agenturen mit guter Betreuungs-relation im AN-Bereich; stärkere Fachaufsicht der Regionaldirektion geht ebenfalls mit höherer Effizienz einher

• Aufgrund der wenigen Beobachtungen sind diese Ergebnisse aber nur sehr eingeschränkt interpretierbar

Page 9: 3. Konferenz für Sozial- und Wirtschaftsdaten, 11./12. Mai 2006

Rh

ein

isch

-We

stfä

lisch

es

Inst

itut

für

Wirt

sch

aft

sfo

rsch

un

g

912. Mai 2006Marcus Tamm

4. Schlussfolgerungen

Benchmarking kann als Instrument zum Vergleich der Performance einzelner Agenturen dienen

Wichtig: Kontrolle um regionale Kontextfaktoren Basis für weiterführende Prozessanalysen in Agenturen Probleme:

• Ergebnisse können sehr sensitiv auf unterschiedliche Annahmen reagieren

• Kausale Schlussfolgerungen nur eingeschränkt möglich

• Breite Datenbasis notwendig

Für Lernprozess: Benchmarking als kontinuierlicher Prozess statt punktueller Einzeluntersuchungen

Hierfür: Aufbau einer geeigneten Datenbasis (Monitoringsystem) notwendig