Nachhaltige Forschung in
Wachstumsbereichen Band I
20
09
/2
01
0
Ergebnisse des Projektes Forschungsassistenzan der Beuth Hochschule für Technik Berlin
Impressum
Nachhaltige Forschung in Wachstumsbereichen
Band I
Herausgegeben von
Prof. Dr. Gudrun Görlitz
Beuth Hochschule für Technik Berlin
Luxemburger Str. 10
13353 Berlin
www.beuth-hochschule.de
Redaktionelle Bearbeitung
Nina Gräbner
Satz, Layout und Titelgestaltung
Markus Weiß | www.typogo.de
Druck
© 2011 Logos Verlag Berlin GmbH
Gubener Straße 47, 10243 Berlin
ISBN 978-3-8325-2749-5
Nachhaltige Forschung
in Wachstumsbereichen
Band I
Ergebnisse des Projektes Forschungsassistenz an der Beuth Hochschule für Technik Berlin
Die Beuth Hochschule für Technik Berlin leistet einen aner-
kannten Beitrag zur Reduzierung des Fachkräftemangels an
Ingenieurinnen und Ingenieuren. Eine praxisbezogene Lehre
in akkreditierten Studiengängen sichert gut auf den Arbeits-
markt vorbereitete Absolventinnen und Absolventen. Für
Hochschulabsolventinnen und -absolventen, denen es auf-
grund mangelnder Praxiserfahrung noch nicht gelungen ist,
sich fest im regionalen Arbeitsmarkt zu etablieren, bietet das
Projekt Forschungsassistenz die Möglichkeit zur Qualifika-
tion. Regionale Unternehmen erhalten gleichzeitig die
Chance, innovative F&E-Projekte gemeinsam mit der Beuth
Hochschule zu bearbeiten.
Im vorliegenden Bericht präsentieren die jungen Wissen-
schaftlerinnen und Wissenschaftler ihre Ergebnisse der 18-
monatigen Forschungstätigkeiten an der Beuth Hochschule.
Die Themen kommen aus den Berliner Wachstumsbereichen
und beschäftigen sich zum Beispiel mit der Analyse von Trink-
wasser, der berührungslosen Erfassung von archäologischen
Objekten oder der Weiterentwicklung eines Sprachsynthese-
systems.
Das Qualifizierungsprojekt Forschungsassistenz ist mittler-
weile in die sechste Runde gegangen und kann mühelos an
die Dynamik der vergangenen Jahre anknüpfen. Die Zusam-
menarbeit mit den kooperierenden Unternehmen ist inten -
siviert worden: Jede Forschungsassistentin und jeder
Forschungsassistent absolviert während seiner Arbeit an der
Beuth Hochschule mindestens ein Praktikum im Unterneh-
men. Davon profitieren alle Seiten und sichern eine passge-
naue Qualifikation für eine erfolgreiche Übernahme der
Forschungsassistentin, des Forschungsassistenten. Zum Bei-
spiel ist Josephine Reiss, deren wissenschaftlicher Beitrag in
der vorliegenden Publikation veröffentlicht ist, im Anschluss
an ihr Projekt Managerin beim Kooperationspartner, dem
Institut für Produktqualität, geworden. Die Forschungsassis-
tentinnen und -assistenten aus der Förderrunde Forschungs-
assistenz V haben die Beuth Hochschule nach dem erfolg -
reichen Projektabschluss mittlerweile mehrheitlich verlassen
und arbeiten nun fest bei den Unternehmen.
Die gestaffelte Einstellung und die damit verbundenen ver-
setzten Laufzeiten der Forschungsprojekte haben sich als
sehr gewinnbringend erwiesen, da jüngere von erfahreneren
Forschungsassistentinnen und -assistenten lernen können.
Ihnen allen und natürlich auch den betreuenden Professorin-
nen und Professoren sowie den Mitarbeiterinnen und Mitar-
beitern der Kooperationspartner sei an dieser Stelle für ihr
Engagement gedankt. Ein besonderer Dank geht wiederum an
die Berliner Senatsverwaltung für Wirtschaft, Technologie und
Frauen für die zuverlässige Unterstützung und gute Zusam-
menarbeit. Das Projekt Forschungsassistenz wird bis 2013
von der Berliner Senatsverwaltung für Wirtschaft, Technologie
und Frauen und dem Europäischen Sozialfonds gefördert. Die
Beuth Hochschule erweist sich damit als leistungsstarker
Partner der Wirtschaft und ermöglicht zahlreiche neue Ko -
operationsprojekte.
Vorwort
5
Forschung in Wachstumsbereichen mit Forschungsassistenz
Prof. Dr.-Ing.
Reinhard Thümer
Präsident
Prof. Dr. Gudrun Görlitz
Vizepräsidentin für Forschung
und Entwicklung
Inhaltsverzeichnis
Fachbereich II Mathematik - Physik - Chemie
Berechnung von Schallfeldern in Arbeitsräumen (SIMOSA) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Dr. Norbert Gorenflo, Prof. Dr. Martin Ochmann
Fachbereich III Bauingenieur- und Geoinformationswesen
Optische 3D Messtechnik für die berührungslose, detaillierte Erfassung von Objektoberflächen in Archäologie
und Denkmalpflege . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Martin Floth, Prof. Dipl.-Ing. Michael Breuer
Fachbereich IV Architektur und Gebäudetechnik
Entwicklung eines Zertifizierungssystems „Nachhaltige Immobilien für den Mittelstand“ in Deutschland . . . . . . . . . . 19
Dr. Charlotte Hagner, Prof. Kai Kummert
Fachbereich V Life Sciences and Technology
Entwicklung von PCR Verfahren zum schnellen und einfachen Nachweis von Parasiten und anderen
Krankheitserregern in Trink- und Brauchwässern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Dipl.-Ing (FH) Josephine Reiss, Prof. Dr. Herbert Weber
Methoden zur Identifizierung von posttranslationalen Modifikationen in Proteinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Dipl.-Ing. (FH) Shireen Weise, Prof. Dr.-Ing. Roza Maria Kamp
Fachbereich VI Informatik und Medien
Weiterentwicklung eines Sprachsynthesesystems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
Dipl.-Ing. Andreas Hilbert, Prof. Dr. Hansjörg Mixdorff
Nutzerdaten und Nutzerprofile in Lernraumsystemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Dipl.-Inf. FH Benjamin Wolf, Prof. Dr. Agathe Merceron
Fachbereich VIII Maschinenbau, Verfahrens- und Umwelttechnik
Bionical Morphological Computation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Marcus Siewert M.Eng., Prof. Dr.-Ing. Hans-Dieter Kleinschrodt
Kavitierende Strömung in Diesel-Einspritzsystemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
Matthias Voß, M.Eng., Prof. Dr.-Ing. Peter Bartsch
Arbeitsgebiete der Forschungsassistent/innen als Übersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Inhaltsverzeichnis
7
Berechnung von Schallfeldern in Arbeitsräumen (SIMOSA)
8
1. Einleitung
Zum Zwecke der vorausschauenden Planung und Einrich-
tung lärmoptimierter Arbeitsräume im Rahmen einer Simula-
tion ist es erforderlich, den Raum mitsamt seiner Einrichtung
sowie interessierenden Schallquellen zu modellieren und
das sich ausbildende Schallfeld an vorgegebenen Stellen zu
berechnen. Das Problem der Berechnung ist hierbei noch
immer nicht befriedigend gelöst.
Das gängige Verfahren zur kommerziellen Berechnung von
Schallfeldern ist das Ray-Tracing-Verfahren, welches im Rah-
men der Computergrafik auch zur Berechnung realistischer
Licht- und Schatteneffekte benutzt wird. Dieses Verfahren
beruht auf der Annahme der Ausbreitung der betrachteten
Wellen in Form gerader Strahlen. Zur Berechnung des Wel-
lenfelds in einem vorgegebenen Raumpunkt IP werden von
jeder der vorhandenen Strahlenquellen Strahlen in alle mög-
liche Richtungen betrachtet und deren Verlauf verfolgt,
wobei sämtliche Reflexionen an den vorhandenen Oberflä-
chen berücksichtigt werden. Die interessierende Größe
(z.B. Intensität oder Schalldruckpegel) im Punkt IP ergibt
sich nun einfach aus der Stärke und Anzahl der den Punkt IP
erreichenden Strahlen. Abbildung 1 zeigt die Funktionsweise
des Verfahrens am Beispiel der Berechnung eines Schall-
felds im Freien. Im Immissionspunkt IP wird z.B. der Schall-
druckpegel berechnet.
Ausgefeilte Ray-Tracing-Methoden haben sich für praktische
raumakustische Berechnungen im Rahmen einfacherer Geo-
metrien bewährt, wie sie z.B. in Auditorien oder Konzerthal-
len vorliegen. Bei der Berechnung von Schallfeldern in
Arbeitsräumen liefert Ray-Tracing aber zu ungenaue Ergeb-
nisse, da die zu niedrigeren Frequenzen gehörenden Anteile
des Wellenfelds wegen der in einem solchen Raum auftre-
tenden Beugungseffekte durch Ray-Tracing-Verfahren nicht
adäquat berücksichtigt werden können.
Daher wurden erste Versuche zur Behandlung raumakusti-
scher Probleme mit Hilfe eines direkten BEM-Verfahrens
(BEM – Boundary Element Method) unternommen. Als Grund-
lage diente die schon früher von H. Brick und dem 2. Autor
in der Programmierumgebung MATLAB entwickelte BEM-
Toolbox BEMLAB [Bri 03], welche stückweise konstante An-
satzfunktionen benutzt. Im Rahmen der in der vorliegenden
Arbeit vorgestellten Untersuchungen wurde BEMLAB um ein
ebenfalls in MATLAB programmiertes vorgeschaltetes Fron-
tend erweitert, welches die interaktive Eingabe eines einge-
richteten Raumes sowie die automatische Triangulierung
der Raumflächen und die Definition von (Impedanz-)Randbe-
dingungen ermöglicht.
Berechnung von Schallfeldern in Arbeitsräumen (SIMOSA)Dr. Norbert Gorenflo, Prof. Dr. Martin OchmannKooperationspartner: Acouplan GmbH
Es werden akustische Innenraumprobleme mit im Rauminneren vorgegebenen Schallquellen betrachtet. Für komplizier-
tere Räume wie zum Beispiel eingerichtete Arbeitsräume sind die sonst für raumakustische Berechnungen erfolgreich an-
gewandten Ray-Tracing-Methoden aufgrund der mangelhaften Berücksichtigung von Beugungseffekten zu ungenau.
Daher wird ein BEM-Verfahren zur Lösung der Helmholtzgleichung unter geeigneten Impedanzrandbedingungen unter-
sucht. Numerische Resultate werden vorgestellt.
We consider interior acoustic problems with prescribed interior sources. For more complicated geometries, arising e.g.
from furnished working rooms, ray-tracing methods, which are usually employed for practical computations, give no accu-
rate results. This is because these methods cannot model diffraction effects correctly. Therefore we treat the interior prob-
lem by a BEM method. Numerical results for various impedance boundary conditions are presented.
Abb. 1: Veranschaulichung des Ray-Tracing-Verfahrens an Hand von Reflexionen an zwei Häusern.⋅⋅⋅⋅⋅⋅ Direkte Verbindung − − Eine Reflexion− ⋅ − ⋅ Zwei Reflexionen.
Fachbereich II Mathematik - Physik - Chemie
9
Kooperationspartner für das hier vorgestellte Projekt ist das
Akustikbüro „Acouplan GmbH“. Von Seiten Acouplans wur-
den praktische Aspekte der Berechnung von Schallfeldern in
Arbeitsräumen erläutert und insbesondere auch beispielhaft
erklärt, warum sich dieses Problem durch bereits existie-
rende kommerzielle Programme zur Schallfeldberechnung
nicht befriedigend behandeln lässt.
Im folgenden Abschnitt wird der mathematisch-physikali-
sche Rahmen erläutert, in dem die hier betrachteten Innen-
raumprobleme behandelt werden und in Abschnitt 3 werden
exemplarisch numerische Berechnungen zur schalldämpfen-
den Wirkung einer Mauer in einem Modellraum präsentiert.
Abschnitt 4 enthält eine Übersicht über während der Bear-
beitung des hier vorgestellten Projekts gehaltene Fachvor-
träge, an denen die Autoren beteiligt waren.
2. Mathematische und physikalische Grundlagen
Die verwendete BEM-Toolbox BEMLAB gestattet die Lösung
von Innenraumproblemen für die homogene Helmholtzglei-
chung unter inhomogenen Dirichlet-, Neumann- oder Impe-
danzrandbedingungen. Die Behandlung von Schallquellen in
einem Raum Ω wird wie folgt auf die Lösung der homogenen
Helmholtzgleichung zurückgeführt, wobei o.B.d.A. nur eine
Quelle betrachtet wird.
Zu lösen ist das Randwertproblem
(1)

(2)
Hierbei bezeichnet δ die Delta-„Funktion“; q ist die Quell-
stärke im Punkt y ∈ Ω und p ist der gesuchte Schalldruck.
Die sogenannte Wellenzahl k ist proportional zur Frequenz νder vom Punkt y ausgehenden Welle: k=2πν/c; hierbei ist c
die Schallgeschwindigkeit. Da die Singularitätenfunktion
(x,y) ⇀ 1/(4π) e-ik|x-y|/|x-y|, i:= √( −1), Lösung von (1) mit q =
−1 ist, gilt für die Lösung p von (1), (2) nun p(x) = p*(x) −qg(x,y), wobei

und p* Lösung eines Randwertproblems für die homogene
Helmholtzgleichung ist:

Für die Funktion g wurde nicht die komplexwertige Singula-
ritätenfunktion selbst, sondern deren Realteil genommen,
da dies für die Rechnungen ökonomischer ist.
In den durchgeführten Rechnungen wurde die Schallge-
schwindigkeit c mit c=343 m/s und die Dichte ρ der Luft mit
ρ =1.21 kg/m3 berücksichtigt. Die Zeitabhängigkeit ist durch
den Faktor eickt gegeben (nicht durch e–ickt ), d.h. für die Lö-
sung p von (1), (2) ist der zeitliche Druckverlauf gegeben
durch eickt p(x). Schalldruckpegel Lp und Schallleistungspe-
gel LW wurden wie folgt berechnet:
W ist hierbei die von der Quelle abgestrahlte Schallleistung.
Die Raumflächen wurden als lokal reagierend angenommen,
das bedeutet, dass die Wandimpedanzen Z nicht vom Ein-
fallswinkel einer auftreffenden Welle abhängen und so die
Randbedingung (2) überhaupt sinnvoll ist. Um vorgegebene
Absorptionskoeffizienten für die Raumflächen berücksichti-
gen zu können, wurde die Formel von Paris [Kut 09, (2.42)]
benutzt, welche von folgendem Zusammenhang zwischen
spezifischer Impedanz ζ = Z/(ρc) = |ζ|eiµ und mittlerem Ab-
sorptionskoeffizienten α ausgeht:
(3)
Da ζ durch α gemäß (3) nicht eindeutig bestimmt ist (α ist
reell und ζ komplex), müssen im konkreten Anwendungsfall
neben den Absorptionskoeffizienten α noch weitere Eigen-
schaften der Raumflächen bekannt sein, um wohldefinierte
Koeffizientenfunktionen a und b in (2) zu erhalten.
3. BEM-Berechnungen für einen Modellraum
Im Folgenden wird der in Abbildung 2 dargestellte quader-
förmige Modellraum mit einer eingezogenen Mauer betrach-
tet. Der Raum hat die Abmessungen 4m, 3m und 2m und
enthält im Punkt y=(0.925,1.5,1)T eine Punktquelle der Fre-
quenz 500 Hz. Für die Quellstärke q in (1) wurde q=1 ge-
wählt, dies entspricht einem Schallleistungspegel der Quelle
von LW � 79.82 dB. Der Schalldruck wurde jeweils in Feld-
punkten auf der Strecke 0m < x1 < 4m, x2=1.5m, x3=1 m be-
rechnet. Der Abstand der Feldpunkte beträgt 0.1 m, der erste
Feldpunkt liegt bei x1=0.1 m und der letzte bei x1=3.9 m.
Für alle hier präsentierten BEM-Berechnungen wurden drei-
eckige Randelemente verwendet. Als Knotenpunktabstand
wurde 0.1 m gewählt. Damit erhält man etwa 12 000 Rand-
elemente, siehe Abbildung 3.
Zur Validierung der BEM-Berechnung wurde der Modellraum
zunächst ohne die in Abbildung 2 gezeigte Mauer betrach-
tet. Alle Raumwände wurden als schallhart angenommen,
das entspricht in (2) der homogenen Neumann-Randbedin-
gung a≡0 und b≡1. In diesem Fall lässt sich der Schalldruck
im Quader als dreidimensionale Fourierreihe (Entwicklung
nach Eigenschwingungen) analytisch darstellen. Abbildung
4 zeigt den Vergleich dieser exakten Lösung mit der BEM-Lö-
sung.
Abbildung 5 zeigt Schalldruckpegel für die komplette Konfi-
guration in Abbildung 2, d.h. inklusive der eingezogenen
Mauer. Hierbei wurden die spezifischen Impedanzen ζM, ζR,
ζB und ζS für die einzelnen Raumflächen mit den gemäß (3)
zugehörigen Absorptionskoeffizienten αM, αR, αB und αSwie folgt gewählt:
Für die gesamte Mauerfläche:
ζM = 32.5 bzw. ζM = 7.14 (αM = 0.2 bzw. αM = 0.6) ,
für die Raumrückwand x2=3m:
ζR = 71.5 bzw. ζR = 7.14 (αR = 0.1 bzw. αR = 0.6) ,
für den Raumboden x3=0m: ζB = 32.5 (αB = 0.2) ,
für alle sonstigen Flächen: ζS = 71.5 (αS = 0.1) .
Jeder dieser Werte für die spezifischen Impedanzen entspricht
gerade der größten reellen Lösung ζ von (3) für den zugehö-
rigen Absorptionskoeffizienten. Die unterschiedlich starken
Dämpfungen hinter der Mauer sind gut erkennbar.
Zur näherungsweisen Berechnung des Schalldruckpegels in
annähernd kubischen Räumen wie dem hier betrachteten
Modellraum wird in der Praxis folgende einfache Formel be-
nutzt [Fas 03, (4.39)]:
Berechnung von Schallfeldern in Arbeitsräumen (SIMOSA)
10
Abb. 2: Grundriss des verwendeten Modellraums der Größe 4m x 3m x2m. Quelle (•) und Feldpunkte (x) liegen auf halber Höhe (x3=1m). Dieeingezogene Mauer reicht vom Boden bis zur Decke, ist 0.3 m breit (1.85 m ≤ x1 ≤ 2.15 m) und 2 m lang.
Abb. 5: Schalldruckpegel des Raums von Abbildung 2 mit Mauer bei 500Hz für unterschiedliche Absorptionskoeffizienten, berechnet mit BEM.- - - - : αM = αB = 0.2, αR = αS = 0.1.⋅⋅⋅⋅⋅⋅ : αM = 0.6, αB = 0.2, αR = αS = 0.1.⎯ : αM = 0.6, αB = 0.2, αR = 0.6, αS = 0.1.
Abb. 3: Modellraum von Abbildung 2 mit dreieckigen Randelementen.Der Knotenpunktabstand beträgt 0.1 m.
Abb. 4: Real- und Imaginärteil des Schalldrucks für den Modellraumohne Mauer für schallharte Wände bei 500 Hz.
(4)
Hierbei steht r für den Abstand von der Quelle in m und A für
die so genannte äquivalente Absorptionsfläche in m2. Die
äquivalente Absorptionsfläche ist die Summe der mit den
Absorptionskoeffizienten gewichteten Raumflächen.
In den Abbildungen 6 und 7 sind zwei der in Abbildung 5
vorgestellten BEM-Lösungen (gestrichelte und gepunktete
Kurve) der jeweils entsprechenden Näherung gemäß Formel
(4) gegenübergestellt. Während die Näherung nach (4) im
Fall von Abbildung 6 eine akzeptable obere Abschätzung für
den Schalldruckpegel hinter der Mauer liefert, ist sie bei der
größeren Dämpfung im Fall von Abbildung 7 etwas zu pessi-
mistisch.
4. Vorträge und Veröffentlichungen
Im September 2009 waren die Autoren auf der „Internatio-
nal Conference on Theoretical and Computational Acous-
tics“ (ICTCA 2009) in Dresden mit den Vorträgen [Gor 09]
und [Pis 09] vertreten. In diesen Vorträgen wurde auf das
Modellproblem der Beugung akustischer Wellen an einem
unendlich langen Spalt in einem unendlich ausgedehnten
und unendlich dünnen schallharten ebenen Schirm einge-
gangen. Äquivalent dazu ist das Problem der Beugung an
einem unendlich langen und unendlich dünnen schallwei-
chen Streifen. Ähnliche Probleme wurden in der Raumakus-
tik bereits früher als Modelle betrachtet, etwa für den
Einfluss absorbierender Streifen in einer Raumwand [Mec
01]. Mit [Gor 09] wurde eine vom ersten Autor bereits früher
entwickelte neue Methode zur Lösung des betrachteten
Spaltproblems vorgestellt. Mit [Pis 09] wurden mit dieser
Methode erzielte neue numerische Ergebnisse präsentiert.
Ebenfalls im September 2009 hatte der erste Autor eine Ein-
ladung zu einem Forschungsaufenthalt am „Center for
Functional Analysis and Applications“ (CEAF) des „Instituto
Superior Técnico“ (IST) in Lissabon wahrgenommen und
dort über früher von ihm erzielte Ergebnisse zur Beugung an
einem unendlich langen Streifen und an einer kreisförmigen
Scheibe vorgetragen.
Im März 2010 wurde der Inhalt der Abschnitte 2 und 3 der
vorliegenden Arbeit auf der DAGA 2010, der 36. Jahresta-
gung der Deutschen Gesellschaft für Akustik (DEGA), vorge-
stellt [Gor 10].
5. Zusammenfassung und Ausblick
Um bei raumakustischen Berechnungen Beugungseffekte
besser berücksichtigen zu können, wurde eine Berechnung
durch ein BEM-Verfahren an Stelle von Ray-Tracing imple-
mentiert. In der vorliegenden Arbeit wurde als anschauliches
Anwendungsbeispiel ein Modellraum mit einer eingezoge-
nen Mauer betrachtet. Für unterschiedlich stark schallabsor-
bierende Raumflächen wurde die sich hinter der Mauer
ergebende Dämpfung untersucht. Die resultierenden BEM-
Lösungen wurden mit den Lösungen aus einer einfachen Nä-
herungsformel verglichen.
Momentan wird die Schallfeldberechnung noch mit einem
relativ einfachen BEM-Verfahren durchgeführt. Für eine
lärmoptimierte Planung von Arbeitsräumen mit entspre-
chend vielen Programmdurchläufen ist die Rechenzeit insbe-
sondere bei höheren Frequenzen noch zu lang. In einem
nächsten Schritt könnte das derzeitig verwendete Berech-
nungsmodul BEMLAB durch ein schnelleres Berechnungs-
Fachbereich II Mathematik - Physik - Chemie
11
Abb. 6: Schalldruckpegel des Raums von Abb. 2 mit Mauer bei 500 Hzfür αM = αB = 0.2, αR = αS = 0.1.- - - - : BEM-Lösung.⎯ : Näherung nach (4).
Abb. 7: Schalldruckpegel des Raums von Abbildung 2 mit Mauer bei 500 Hz für αM = 0.6, αB = 0.2, αR = αS = 0.1.⋅⋅⋅⋅⋅⋅ : BEM-Lösung.⎯ : Näherung nach (4).
modul ersetzt werden, etwa durch eines, welches auf der
neueren schnellen Multipol-Methode (FMM – Fast Multipole
Method) basiert. Es könnte auch der Versuch unternommen
werden, ein hybrides Berechnungsverfahren zu entwickeln,
welches für die hohen Frequenzen das klassische Ray-Tra-
cing-Verfahren verwendet und nur für die problematischen
niedrigeren Frequenzen ein BEM-Verfahren. Im Übergangs-
bereich beider Verfahren lassen sich die beiden Methoden
möglicherweise in geschickter Weise kombinieren.
Es sei noch angemerkt, dass derzeit auch Bemühungen un-
ternommen werden, die bei der Beugung von Schallwellen
auftretenden Effekte alleine durch geeignete Modifizierun-
gen von Ray-Tracing-artigen Verfahren in den Griff zu bekom-
men, ohne auf BEM- oder FEM-Verfahren zurückzugreifen
(siehe etwa [Ste 10] und dortige Literaturangaben). Inwie-
weit solche Untersuchungen tatsächlich zur erfolgreichen
Berechnung von Schallfeldern in Räumen mit komplizierte-
rer Geometrie genutzt werden können, wird die Zukunft zei-
gen.
Literatur
[Bri 03] Brick, Haike; Ochmann, Martin: Eine BEM-Tool-
box zur Berechnung der Schallabstrahlung
schwingender Strukturen vor Hindernissen und
über absorbierendem Boden, Tagungsband
DAGA, S. 542 – 543, Aachen, 2003.
[Fas 03] Fasold, Wolfgang; Veres, Eva: Schallschutz und
Raumakustik in der Praxis, 2. Auflage, HUSS-
Medien GmbH Berlin, 2003.
[Gor 09] Gorenflo, Norbert: Explicit representations of
solutions for the diffraction by a slit, Procee-
dings ICTCA 2009, Dresden.
[Gor 10] Gorenflo, Norbert; Brick, Haike; Ochmann, Mar-
tin: Randelementeverfahren für akustische In-
nenraumprobleme, Tagungsband DAGA 2010,
S. 411 – 412, Berlin, 2010.
[Kut 09] Kuttruff, Heinrich: Room Acoustics, Fifth Edi-
tion, Spon Press, 2009.
[Mec 01] Mechel, Fridolin P.: Panel Absorber, Journal of
Sound and Vibration, Vol. 248 (1), S. 43 – 70,
2001.
[Pis 09] Piscoya, Rafael; Gorenflo, Norbert; Ochmann,
Martin: Benchmarking for the numerical pre-
diction of sound transmission through slits,
plates and shells, Proceedings ICTCA 2009,
Dresden.
[Ste 10] Stephenson, Uwe M.: Some further experi-
ments with the beam diffraction model based
on the uncertainty relation – is it valid also with
double diffraction?, Tagungsband DAGA 2010,
Berlin, S. 217 – 218, Berlin, 2010.
Kontakt
Prof. Dr. Martin Ochmann
Beuth Hochschule für Technik Berlin
Fachbereich II Mathematik - Physik - Chemie
Luxemburger Straße 10
13353 Berlin
Tel.: (030) 45 04 - 29 31
E-Mail: [email protected]
Dr. Norbert Gorenflo
Beuth Hochschule für Technik Berlin
Fachbereich II Mathematik - Physik - Chemie
Luxemburger Straße 10
13353 Berlin
Tel.: (030) 45 04 - 22 67
E-Mail: [email protected]
Kooperationspartner
Acouplan GmbH
Bundesallee 156
10715 Berlin
Tel.: (030) 52 00 57 10
E-Mail: [email protected]
Berechnung von Schallfeldern in Arbeitsräumen (SIMOSA)
12
1. Einleitung
Die in diesem Beitrag beschriebenen Untersuchungen stüt-
zen sich auf die Erfassung historischer Schmuckelemente
von Bauten und archäologischer Fundstücke mit Methoden
der optischen 3D-Messtechnik. Dabei werden zwei Schwer-
punkte gesetzt: Zum einen soll eine geschlossene Prozess-
kette von der Objektvermessung über die Modellierung bis
hin zur virtuellen Visualisierung und realen Reproduktion
von Einzelstücken bzw. Kleinserien entwickelt werden. Der
zweite Schwerpunkt liegt auf der Wirtschaftlichkeitsanalyse
der einzelnen Prozessierungsschritte. Dabei gilt es, die Pro-
zesskette zu optimieren, um Kosten einzusparen. Außerdem
soll gezeigt werden, dass sich die Daten – über die bisheri-
gen Anwendungen hinaus – vielfältig nutzen lassen. So sol-
len neue Produkte (z.B. Kleinserien bestimmter Exponate für
den Museumsshop, realitätsnahe Modelle zur Präsentation
im Internet etc.) aus den digitalisierten Daten entwickelt
werden. Auf diese Weise kann Mehrwert geschaffen und ein
günstigeres Kosten-Nutzenverhältnis erreicht werden.
2. Aufnahmeprinzip
Zur Aufnahme der Objekte wird ein Streifenlichtscanner
der Firma Polygon Technology GmbH (www.polygon-
technology.de) verwendet. Das Aufnahmeprinzip soll im Fol-
genden kurz dargestellt werden. Der Streifenlichtprojektor
projiziert ein definiertes Streifenlichtmuster in drei Frequen-
zen auf das Objekt, welches dann simultan von zwei CCD-
Kameras aus unterschiedlichen Richtungen erfasst wird.
Durch die vorherige Kalibrierung des gesamten Messsystems
können korrespondierende, von beiden Kameras erfasste
Punkte, durch Triangulation im übergeordneten Objektkoor-
dinatensystem sehr genau berechnet werden. Die Messge-
nauigkeit hängt dabei vor allem von der Größe des Messbe-
reichs ab. Ist dieser klein, so lassen sich Genauigkeiten am
Objekt in Größenordnungen von 0,1 mm bis 0,01 mm erzielen.
Bei jeder Aufnahme entsteht so eine Punktewolke. Das Ob-
jekt wird anschließend von weiteren Standpunkten aus er-
fasst. Die daraus entstandenen Punktewolken werden
entweder automatisch, bei der Aufnahme mit Drehtisch oder
interaktiv durch Angabe von Startwerten in Form von identi-
schen Punkten zueinander registriert. Die so entstandene
Gesamtpunktewolke wird in einem automatischen Prozess
trianguliert und liefert ein hochgenaues 3D-Modell. Darüber
hinaus sind auch Texturaufnahmen möglich, die nach der
Dreiecksvermaschung halbautomatisch auf das Objekt auf-
gebracht werden können [Akc 07, S. 35–46], [Güh 02,
S. 14–82].
3. Nutzungsmöglichkeiten und Beispiele
In diesem Abschnitt werden Beispiele zur Nutzung der
optischen 3D-Messtechnik, unterteilt in drei Bereiche,
vorgestellt. Hierbei wird in wissenschaftliche Anwendungs-
bereiche und Einsatz zu Visualisierungszwecken unterschie-
den. Im Besonderen wird auf das Thema Anwendungen für
das Internet eingegangen.
3.1 Wissenschaftliche Anwendungsbereiche
Ein Anwendungsprojekt im wissenschaftlichen Bereich ist
beispielsweise der Aufbau eines virtuellen Archivs, d.h.
einer Datenbank, in der dreidimensionale Objekte erfasst
werden. Dies kann man sich in kleinem Rahmen bei einzel-
nen Sammlungen vorstellen, um dadurch die Archivierung,
Dokumentation und Recherche zu verbessern. Eine andere
Motivation besteht darin, gedruckte Kataloge durch ver-
Fachbereich III Bauingenieur- und Geoinformationswesen
13
Optische 3D Messtechnik für die berührungslose, detaillierte Erfassungvon Objektoberflächen in Archäologie und DenkmalpflegeMartin Floth, Michael BreuerKooperationspartner: Lupos3D GbR
In Archäologie und Denkmalpflege gibt es eine erhöhte Nachfrage zum Einsatz optischer 3D-Messtechnik zur Reproduk-
tion und zur Dokumentation [Sch 09, S. 35]. Doch aufgrund der geometrischen Komplexität und der Einzigartigkeit der Ob-
jekte ist eine Kostenrechnung für die 3D-Erfassung und Weiterverarbeitung mit hohen Risiken behaftet. Einsparpotenziale
können durch eine Prozessoptimierung aufgedeckt werden. Weiteres Ziel ist es, den Einsatz der innovativen Technologie
optische 3D-Messtechnik in diesem Bereich zu fördern.
There is an increased demand for the use of optical 3D measurement technology for reproduction and documentation in
archaeology and the preservation of historical monuments [Sch 09, p. 35]. But due to the geometric complexity as well as
the uniqueness of the objects, the calculation of the cost of 3D-capturing and processing still poses high risks. Savings po-
tential could be determined by process-optimisation. Another goal is to advance the application of optical 3D- measuring
techniques in this field.
gleichbare digitale Medien abzulösen. Ein Grund dafür ist,
dass die Möglichkeiten digitaler Publikationen denen von
Printmedien weit überlegen sind. Belege hierfür liefern aktu-
elle internationale Bestrebungen auf diesem Gebiet, wie z.B.
das europäische Verbundprojekt 3D-Coform oder die ar-
chäologische Sammlung Carnuntum des Landes Nieder-
österreich (www.3d-coform.eu, www.carnuntum-db.at), in
denen ein virtuelles Archiv für Kunstgegenstände und an-
dere archäologische Fundstücke aufgebaut wird. Sie zeigen
den Nutzen der optischen 3D-Messtechnik für dieses An-
wendungsgebiet.
Virtuelle Sammlungen, ob im großen oder kleinen Rahmen,
werden vor allem Forschern die Suche nach Vergleichsobjek-
ten erleichtern. Diese Datenbanken sollten intelligent sein
und gespeicherte Objekte selbstständig finden und ver-
knüpfen können. Abfragen, wie die Angabe von Epoche,
Objektart, Fundort und spezielle Eingrenzungen wie Größe,
Farbe und Form müssen möglich sein. Die Datenbank muss
alle gespeicherten Exponate liefern können, die einer sol-
chen Abfrage entsprechen.
Die Dreidimensionalität bietet große Vorteile gegenüber der
heute noch üblichen Dokumentation mit Fotos und beschrei-
benden Text. Der texturierte, detailgetreue 3D-Datensatz er-
laubt dem Wissenschaftler zu jedem Zeitpunkt, die Objekte
von allen Seiten zu betrachten. Bei fotografischer Dokumen-
tation von Objekten wünscht man sich im Nachhinein oft ein
weiteres Bild aus einer anderen Perspektive [Sch 09, S. 36].
Ferner bieten die 3D-Datensätze die Möglichkeit, mit Hilfe
von anwenderfreundlichen, frei verfügbaren Viewern (z.B.
Adobe Reader 8.1 von Adobe: www.adobe.com, Deep Viewer
von Right Hemisphere: www.righthemisphere.com) interak-
tiv Informationen abzufragen. Abbildung 1 zeigt einen Hori-
zontalschnitt durch eine antike Kleinfigur. Maße können an
beliebigen Positionen leicht abgegriffen werden. Außerdem
ist es möglich, Kommentare direkt am Modell zu platzieren
und die Anzeigemodi per Knopfdruck zu ändern.
Mit umfangreicher kommerzieller 3D-Software (z.B. Lupo -
Scan von Lupos3D: www.lupos3d.de, RapidForm von INUS
Technology: www.rapidform.com) können auch Soll-Ist Verglei-
che, d.h. der Vergleich von Kopie und Original vorgenommen
oder 3D-Daten in Bezug auf eine Ebene, Zylinder oder Kugel
berechnet werden; siehe dazu Abbildung 2. Zur Veranschauli-
chung des Abstandes jedes einzelnen Punktes zum Regelkör-
per, erhält jeder Punkt eine Farbe in Bezug zum Abstand.
3.2 Einsatz zu Visualisierungszwecken
Die Visualisierung von 3D-Objekten bietet besonders Mu-
seen eine neue Möglichkeit der Werbung. Besucher können
schon auf der Internetseite des Museums sehr einfach und
intuitiv Objekte interaktiv in 3D betrachten, drehen und ver-
stehen. Die neue Präsentationstechnik soll Interesse we-
cken, das Museum zu besuchen und nicht, wie vielleicht
befürchtet werden kann, den Museumsbesuch ersetzen. Im
Museum können 3D-Animationen zum Verständnis beitra-
gen und dem Museumsbesucher Zusammenhänge – auch in
Bezug zur vierten Dimension, der Zeit – darstellen. Virtuelle
3D-Objekte lassen sich mit speziellen Verfahren, auch be-
kannt aus 3D-Kinofilmen (Avatar, Ice Age und Alice im Wun-
derland) in 3D darstellen und von allen Perspektiven
betrachten. „Vasen, historische Speere oder gar ganze Tem-
pel können dreidimensional animiert werden. Museumsbe-
sucher werden damit in einigen Jahren römische Amphoren
am Bildschirm drehen oder um Tempel herumfliegen kön-
nen.“ [Frau 09]. Die ersten Ansätze sind schon gemacht. Ein
gutes Beispiel liefert das Virtual Hampson Museum in Ar-
kansas/USA (www.hampsonmuseum.cast.uark.edu). Die
Aufnahme von Objekten in 3D ermöglicht außerdem die
Herstellung von geometrisch exakten Kopien. Diese können
beliebig skaliert werden. Die einfachste Variante, reale 3D-
Objekte herzustellen, bieten 3D-Drucker. Diese sind zur Her-
stellung von sehr kleinen Objekten (Zentimeterbereich) bis
Optische 3D Messtechnik für die berührungslose, detaillierte Erfassung von Objektoberflächen in Archäologie und Denkmalpflege
14
Abb. 1: Anwenderfreundliche Darstellung einer antiken Kleinfigur mitder Software Deep Viewer (Original im archäologischen Landesmuseumim Paulikloster, Brandenburg)
Abb. 2 Berechnung mit LupoScan links: Engelskopf (Abb. 3) in Bezug zueinem Zylinder rechts: Darstellung als Abwicklung (Original im archäolo-gischen Landesmuseum im Paulikloster, Brandenburg)
zu Objekten mittlerer Größe (25cm x 20cm x 35cm) sehr gut
geeignet. Mit den neuesten 3D-Druckern sind auch farbige
3D-Drucke möglich. Somit können auch texturierte Modelle
gedruckt werden [Z Cor 10].
Mit CNC-Fräsmaschinen ist eine Erhöhung der Genauigkeit,
der Qualität des Materials und der Flexibilität in der Größe
möglich. Ein sehr gutes Beispiel ist die Kopie der Statue von
Konstantin dem Großen [Sch 07].
3.3 Anwendungen für das Internet
Die meisten Institute, Firmen und Museen präsentieren sich
mittlerweile im Internet und nutzen die Möglichkeiten der
Werbung, des Austauschens und Präsentierens von Ergeb-
nissen und der Veröffentlichung. Das Internet wird im Be-
reich Archäologie, Denkmalpflege und Bauforschung fast
ausschließlich in 2D, also mit Bildern und Beschreibungen
genutzt. Nur wenige Beispiele z.B. das Hampson Museum
(s.o.) arbeiten mit der dritten und sogar mit der vierten
Dimension – der Zeit.
Alle dreidimensional erfassten Objekte lassen sich, wie im
bereits erwähnten Virtual Hampson Museum zu sehen, mit
Animationen oder Adobe 3D PDF beeindruckend hochaufge-
löst und mit Textur versehen darstellen. Um die Performance
beim Drehen, Bewegen, Zoomen und Messen auf einem
hohen Niveau zu halten, liegt die Auflösung meist nicht bei
100 Prozent, sondern wird deutlich reduziert, um das Daten-
volumen zu begrenzen. Höher aufgelöste Daten sollten zu-
sätzlich als Download im VRML/OBJ/STL-Format angeboten
werden. Frei verfügbare 3D-Viewer sind weit verbreitet. Die
Bekanntesten (VRML-View, GLC-Player, Mesh-Lab, BS Con-
tact, Deep View) bieten erfahrungsgemäß mehr Optionen als
einfaches Betrachten des Objektes.
Als Beispiel für weitere Möglichkeiten der Präsentation im
Internet soll die Internetseite des Forschungsprojektes die-
nen. Sie wird in Kürze veröffentlicht werden und wird über
folgende Adressen erreichbar sein: (www.beuth-hoch-
schule.de/forschungsassistenz > Forschungsassistenz V
> Fachbereich III) und (www.lupos3d.de).
4.0 Prozesskette und Wirtschaftlichkeitsanalyse
4.1 Entwicklung und Test einer Prozesskette
Der Zeitaufwand von der Aufnahme bis zum Endprodukt ist
zwar variabel und muss in Abhängigkeit vom Objekt immer
individuell abgeschätzt werden. Dennoch ist eine gewisse
Standardisierung möglich, indem zur Vereinfachung der ge-
samte Prozess in folgende Arbeitsschritte unterteilt wird:
· Planung (Objektanalyse, Aufnahmeplanung)
· Datenerfassung
3D-Datenerfassung
Vorregistrierung
Texturaufnahme
· Datenbearbeitung
Registrierung
Triangulierung
Optimierung
Texturierung
· Extras
Herstellung von Repliken (3D Druck, Fräsen)
Video oder Interaktive Animation
Internetpräsentation
Die Datenerfassung ist unterteilt in Geometriedatenerfas-
sung (3D-Datenerfassung), Vorregistrierung und Texturauf-
nahme, wobei letzteres schon bei der 3D-Datenerfassung
einen großen Zeitanteil einnimmt. Die Datenbearbeitung ist
in Registrierung, Triangulierung, Optimierung und Texturie-
rung unterteilt. Wobei der größte Zeitanteil der Registrie-
rung schon bei der 3D-Datenerfassung erfolgt, da die
Vorregistrierung fast immer parallel zur Geometriedatener-
fassung entsteht, um Löcher (noch nicht erfasste Bereiche)
in der Punktewolke zu vermeiden. Die Herstellung einer Tex-
tur ist optional. Unter dem Punkt Extras, werden die Zeiten
für Herstellung der verschiedenen Ergebnisse aufgeführt.
Das können sein: Anfertigung von Kopien, Animationen und
Internetpräsentation. Bei der Herstellung von Repliken
durch 3D-Druck oder Fräsen sind die Zeiten abhängig vom
Volumen und der Komplexität der Objekte. Die Vorausset-
zungen an die Daten zum Drucken und Fräsen, werden durch
die verwendete Software meist automatisch erfüllt. Es wer-
den so genannte „wasserdichte“ Modelle erwartet. Die Her-
stellung von Kopien mit CNC-Fräsen wird in der Regel von
Fachleuten durchgeführt, da hierfür Spezialwissen in der
Maschinenprogrammierung erforderlich ist. Der 3D-Druck
dagegen ist vergleichsweise einfach zu realisieren. Man be-
nötigt hierfür allerdings einen speziellen 3D-Drucker.
Die Erstellung von Videos oder interaktiven Animationen
kann so unterschiedlich gestaltet sein, dass auch hier sehr
schwer pauschal Zeiten angegeben werden können. Anima-
tionen reichen von einfachen Videos, in denen sich das Ob-
jekt nur um die eigene Achse dreht, bis hin zu kleinen
minutenlangen Filmen mit Hintergrundbild, Musik, Sprache
und Handlungsabläufen. Der Aufwand lohnt sich aber in den
meisten Fällen, da durch Animationen mit Bewegung, Zoom,
Sound und anderen Hilfsmitteln, Interesse geweckt und die
Aufmerksamkeit auf das Wesentliche gelenkt werden kann.
Das Format Adobe 3D PDF erlaubt ein sehr schnelles und
einfaches Einbinden von 3D-Objekten in das Internet. Dies
ist innerhalb weniger Minuten zu realisieren. Auch das Be-
Fachbereich III Bauingenieur- und Geoinformationswesen
15
reitstellen von hochaufgelösten Objekten zum Download
stellt kein Problem dar.
4.2 Zeitaufwand für die einzelnen Arbeitsschritte
Der benötigte Zeitaufwand wurde anhand von drei konkre-
ten Beispielen untersucht. Die Ergebnisse sind in Tabelle 1
dargestellt. Die drei Objekte stehen exemplarisch für jeweils
eine bestimmte Objektklasse, die sich in Größe, Material,
Auflösung und Komplexität unterscheiden. Diese Klassifizie-
rung ist entscheidend für die Berechnung des Zeitaufwan-
des. Durch Objektgröße und Auflösung kann grob eine
Aussage zum Zeitaufwand gemacht werden. Es bleibt den-
noch festzuhalten, dass auch Material, Oberflächeneigen-
schaften und Komplexität wichtige Faktoren sind, die den
Aufwand erheblich beeinflussen können. Bei der Berech-
nung des Zeitaufwandes ist auch die Vorbereitung des
Messsystems, also der Aufbau und die Kalibrierung hinzu -
zurechnen. Der Aufbau und die Kalibrierung des Streifen -
licht scanners der Firma Polygon Technology GmbH
(www.polygon-technology.de) ist mit circa einer Stunde zu
veranschlagen. Bei der Aufnahme mehrerer Objekte mit der
gleichen Auflösung ist eine Wiederholung der Kalibrierung
nicht notwendig. In diesem Fall relativiert sich der Zeitauf-
wand mit der Anzahl der aufzunehmenden Objekte. Im Fol-
genden werden die Zeiten ohne diese Vorbereitungszeit
angegeben.
Als erstes und einfachstes Beispiel ist ein etwa faustgroßer
Engelskopf aus Stein aus dem 10. bis 11. Jahrhundert im Ar-
chäologischen Landesmuseum im Paulikloster in Branden-
burg aufgenommen worden; siehe Abbildung 3. Die schnelle
Aufnahme und Bearbeitungszeit, wie Tabelle 1 zu entneh-
men ist, resultieren aus der Objektbeschaffenheit und der
Anforderung an die Auflösung. Bei diesem Objekt gibt es
keine Hinterschneidungen oder filigranen Objektteile; au-
ßerdem war nur eine Genauigkeit im Bereich eines Zehntel-
millimeter gefordert.
Das zweite Beispiel, die Büste des Namensgebers der Beuth
Hochschule für Technik Berlin, Peter Christian Wilhelm Beuth
(1781 – 1853) ist lebensgroß (Abb. 4). Schon wegen der Größe
kam es hier zu einem deutlich erhöhten Zeitaufwand bei der
Aufnahme und der Nachbearbeitung. Am Haaransatz und an
den Ohren kam es zu Hinterschneidungen, welche die Auf-
nahme und Nachbearbeitung darüber hinaus erschwerten.
Die Zeiten der Triangulierung und Optimierung lassen sich
etwas relativieren, da hier oft automatische Prozesse ge-
nutzt werden konnten. Jedoch mussten die Ergebnisse über-
prüft und die Parameter mehrfach angepasst werden.
Der betende Knabe (Abb. 5) ist das komplexeste und größte
Objekt in dieser Reihe (1,40 m hoch). Der Aufnahmeprozess
gestaltete sich kompliziert, nicht nur wegen der Größe son-
dern auch aufgrund der vielen Hinterschnitte und filigranen
Objektteile (Finger, Füße). Deren Modellierung machte einen
erheblichen Teil an Mehrarbeit besonders in der Nachbe -
arbeitung aus. Hinzu kam die schwierige Texturierung, die
selbst mit dem leistungsfähigen Texturwerkzeug von
QTSculpture-Software (Polygon Technology GmbH s.o.)
sehr viel Mühe, Zeit und Erfahrung erforderte.
Optische 3D Messtechnik für die berührungslose, detaillierte Erfassung von Objektoberflächen in Archäologie und Denkmalpflege
16
Abb. 3: Engelskopf, 10. – 11. Jahrhundert (Original im archäologischenLandesmuseum im Paulikloster, Brandenburg)
Abb. 4: Lebensgroße Büste von P.C.W. Beuth (Original in der BeuthHochschule für Technik Berlin)
5.0 Fazit und Ausblick
Die in der Industrie bereits seit langem etablierte optische
3D-Messtechnik bietet auch dem Bereich Museen, Archäolo-
gie, Denkmalpflege und Bauforschung neue Möglichkeiten.
Einige davon wurden in dem hier vorgestellten Forschungs-
projekt über eine Zeit von vierzehn Monaten untersucht,
indem geeignete Objekte der Archäologie und Denkmal-
pflege exemplarisch erfasst wurden. Anhand der Beispiele
wurden Prozessketten entwickelt und optimiert, um qualifi-
zierte und besser quantifizierbare Aussagen zum Zeitauf-
wand und später auch zu den Kosten ableiten zu können. In
Zukunft sollte untersucht werden, wie sich die dargestellten
Prozessketten weiter optimieren lassen. Dazu ist es notwen-
dig, die einzelnen prozessbestimmten Faktoren noch detail-
lierter zu beschreiben und ihren Einfluss auf den Gesamt-
prozess zu bewerten. Im Rahmen des hier dargestellten
Forschungsprojektes war dies nur grob möglich, sodass eine
Verfeinerung der Analyse wünschenswert wäre. Darüber hi-
naus sollte ein Vergleich mit anderen 3D-Messsystemen an-
gestellt werden.
6. Dank
Besonderer Dank gilt dem archäologischen Landesmuseum
im Paulikloster, Brandenburg, für die Möglichkeit der Erfas-
sung exemplarischer Objekte, dem Europäischen Sozialfonds
für die Förderung des Projektes und der Firma LUPOS3D für
die engagierte Zusammenarbeit.
Literatur
[Akc 07] Akca, D. u.a.: Performance evaluation of a
coded structured light system for cultural heri-
tage applications, In: Beraldin, Remondino,
Shortis (Hrsg.): Videometrics IX, Proc. of SPIE-
IS&T Electronic Imaging , 2007.
Online:
www.photogrammetry.ethz.ch/general/
persons/devrim/2007US_Akca_etal_
Videometrics.pdf [31.3.2010].
[Fra 09] Fraunhofer-Gesellschaft: Der dreidimensionale
Museumskatalog, Archäologie, 2009. Online:
www.archaeologie-online.de/magazin/nach-
richten/view/der-dreidimensionale-museums-
katalog [31.3.2010].
[Güh 02] Gühring, J.: 3D-Erfassung und Objektrekon-
struktion mittels Streifenprojektion, Disserta-
tion eingereicht bei der Fakultät für Bau
ingenieur- und Vermessungswesen der
Universität Stuttgart, 2002.
Online:
elib.uni-stuttgart.de/opus/volltexte/2006/
2715/pdf/Guehring_diss.pdf [31.3.2010].
[Sch 09] Schaich, M.: 3D-Scanning-Technologien in der
Bau- und Kunstdenkmalpflege und der Archäo-
Fachbereich III Bauingenieur- und Geoinformationswesen
17
Tab. 1: Zeitaufwand
Abb. 5: Kopie des betenden Knaben vom Südwestkirchhof Stahnsdorf
Zeitaufwand mit Vertretern
verschiedener Objektklassen
Engelskopf Beuth Büste Betender Knabe
3D Datenerfassung/
Vorregistrierung
1 h 2 h 4,5 h
Texturaufnahme 0,5 h - 3,5 h
Registrierung/Triangulierung 5 min 2 h 4 h
Optimierung 0 h 4 h 4 h
Texturierung 1 h - 9 h
Gesamtzeit 2,5 h 8 h 25 h
logischen Feld- und Objektdokumentation, In:
Faulstich, Hahn-Weishaupt (Hrsg.): Dokumen-
tation und Innovation bei der Erfassung von
Kulturgütern. Schriften des Bundesverbands
freiberuflicher Kulturwissenschaftler Band 2,
S. 35 – 46, 2009.
[Sch 07] Schaich, M.: Case Study Das „Konstantin-Pro-
jekt“. 3D-HighTech-Verfahren in der Archäolo-
gie. 3D-Scanning, 3D-Modellierung,
3D-Rekonstruktion, 3DReproduktion, 2007.
Online: www.arctron.de/3D-Vermessung/ 3D-
Laserscanning/Beispiele/Konstantin/Presse-
ArcTron3D.pdf [31.3.2010].
[Z Cor 10] Z Corporation: Funktionsweise des 3D-Drucks.
Die Vision, die Innovation und die Technologien
hinter dem Tintenstrahl-3D-Druckverfahren,
2010.
Online: www.zprinter.de [31.3.2010].
Abbildungsnachweis
Abb. 1 – 5: Verfasser.
Kontakt
Prof. Dipl.-Ing. Michael Breuer
Beuth Hochschule für Technik Berlin
Fachbereich III Bauingenieur- und Geoinformationswesen
Luxemburger Straße 10
13353 Berlin
Tel.: (030) 45 04 - 51 44
E-Mail: [email protected]
M.Sc. Dipl.-Ing Martin Floth
TU Bergakademie Freiberg
Institut für Markscheidewesen und Geodäsie
Akademiestraße 6
09599 Freiberg
Tel.: (0 37 31) 39 - 28 02/36 01
E-Mail: [email protected]
Kooperationspartner
Firma Lupos3D GbR
Geschäftsführung Olaf Prümm, Mustapha Doghaili,
Michael Pospis̆
Tel.: (030) 46 307 - 320
E-Mail: [email protected]
Optische 3D Messtechnik für die berührungslose, detaillierte Erfassung von Objektoberflächen in Archäologie und Denkmalpflege
18
1. Ausgangssituation und Zielsetzung
Im Jahr 2009 wurde vom Deutschen Rat für Nachhaltigkeit,
im Auftrag der Bundesregierung, ein Peer Review über die
nationalen Nachhaltigkeitsstrategien veröffentlicht. Darin be-
scheinigen die Experten der Regierung, Deutschland sei im
20. Jhrd. einer der Pioniere für eine ökologische Entwicklung
der Gesellschaft, z.B. im Bereich Recycling oder Luftqualität,
gewesen. Heute bestimmen vor allem der Klimawandel und
globale Umweltprobleme die politischen Diskussionen. Ins-
gesamt zeichne sich Deutschland durch eine hohe institutio-
nelle Kompetenz im Bereich Nachhaltigkeit aus (Stigson,
Babu, Bordewijk, O‘Donnell, Haavisto, Morgan, Osborn 2009).
Seit einigen Jahren werden Nachhaltigkeitsstrategien in
immer zahlreicheren Wirtschaftssektoren entwickelt. Auch in
der Immobilienwirtschaft gewinnt dieses Thema zunehmend
an Bedeutung. Die steigende Anzahl von Gebäuden, die mit
Gütesiegeln der Deutschen Gesellschaft für nachhaltiges
Bauen (DGNB), LEED (USA) oder BREEAM (Großbritannien)
ausgestattet sind, belegt diese Entwicklung. Eine Analyse
nachhaltiger Immobilien und Akteure zeigt, dass überwie-
gend große Konzerne und Organisationen Projekte im Sinne
von Leuchtturmprojekten durchgeführt haben. Nachhaltige
Vorhaben des Mittelstandes sind die Ausnahme. Nachhaltig-
keit jedoch kann nur dann gesamtwirtschaftliche Wirkung
erzielen, wenn es nicht wie Herrschaftswissen behandelt
wird. Zudem verträgt sie nach Auffassung der Forscher keine
Monopolstrukturen. Es ist erforderlich, wie das Bundesmi-
nisterium für Verkehr, Bau und Stadtentwicklung am
15.04.2010 bekannt gegeben hat, dass nachhaltige Bewer-
tungssysteme im Wettbewerb stehen.
2. Aufgabenstellung
Nachdem sich auf dem internationalen Immobilienmarkt,
neben unbedeutenderen Labeln, vor allem die Zertifizie-
rungssysteme LEED und BREEAM durchgesetzt haben,
wurde in den letzten Jahren auch in Deutschland die Ent-
wicklung eines Standards für nachhaltige Immobilien for-
ciert. Dabei federführend war die Deutsche Gesellschaft für
Nachhaltiges Bauen (DGNB), die einen sehr detaillierten An-
forderungskatalog für nachhaltige Gebäude definierte, der
jedoch für kleinere und mittlere Bauvorhaben zu umfang-
reich und kostenaufwendig ist.
Ziel dieses Forschungsvorhabens ist es, ein neues, verein-
fachtes Zertifizierungssystem für die deutsche, mittelständi-
sche Bauwirtschaft zu entwickeln. Als Kooperationspartner
aus der Wirtschaft wurde dazu die Zertifizierung Bau e.V.
gewonnen, die als Tochter des Zentralverbandes des Deut-
schen Baugewerbes, vor allem die Interessen des mittel-
ständischen Bauwesens vertritt.
Grundlage des neu zu entwickelnden Zertifizierungsverfah-
rens ist das klassische „Drei-Säulen-Modell“ der Nachhaltig-
keit das auf der internationalen Konferenz „Erdgipfel“ in Rio
de Janeiro 1992 erstmalig in dieser Form formuliert wurde.
Im Rahmen der Ökologischen Nachhaltigkeit sollen die na-
türlichen Ressourcen geschützt und die natürliche Umwelt
für nachfolgende Generationen erhalten werden. Ökono-
misch nachhaltig ist ein Wirtschaftssystem, das eine dauer-
haft tragfähige Grundlage für Erwerb und Wohlstand
darstellt. Soziale Nachhaltigkeit beinhaltet eine gesell-
schaftliche Entwicklung, die die Partizipation aller Mitglieder
der Gemeinschaft ermöglicht (Bundesregierung 2008).
Fachbereich IV Architektur und Gebäudetechnik
19
Entwicklung eines Zertifizierungssystems „Nachhaltige Immobilien fürden Mittelstand“ in DeutschlandDr. Charlotte Hagner, Prof. Kai KummertKooperationspartner: Zertifizierung Bau e.V., Dr.-Ing. Martin Ponick
Neben immer zahlreicheren Wirtschaftssektoren, gewinnen Nachhaltigkeitsstrategien in den letzten Jahren auch in der Im-
mobilienwirtschaft zunehmend an Bedeutung. So wurde auch in Deutschland die Entwicklung eines Standards für nach-
haltige Immobilien forciert. Ziel dieses Forschungsvorhabens ist es, ein neues, vereinfachtes Zertifizierungssystem für die
deutsche, mittelständische Bauwirtschaft zu entwickeln. Dabei werden ökologische, ökonomische und soziokulturelle
sowie funktionale bzw. technische Aspekte und Standortmerkmale berücksichtigt. Neben dem Schutz der Umwelt, stehen
die Senkung der Lebenshaltungskosten einer Immobilie, der Gesundheitsschutz der Gebäudenutzer, die Behaglichkeit,
Nutzerzufriedenheit und ein menschengerechtes Umfeld im Zentrum der Gebäudebewertung.
Sustainable Development is an important topic in the economic development of the world. Since some years the real es-
tate sector develops standards for sustainable buildings too. In this project the scientists worked on the development of a
german certificate for sustainable buildings set up by small firms and businesses. The qualitiy criteria contain the ecology,
the economy, user’s health and contentment as well as a „green“ environment of the location.
3. Ergebnisse
Zur Entwicklung eines Zertifizierungssystems für Nachhal-
tige Immobilien der mittelständischen Bauwirtschaft wurde
die Struktur des Bewertungsverfahrens des Bundesministe-
riums für Verkehr, Bau und Stadtentwicklung (BMVBS) über-
nommen. Dabei werden bei der Realisierung einer Immobilie
ökologische, ökonomische, soziale, funktionale und techni-
sche Aspekte sowie Standortmerkmale berücksichtigt (Gra-
fik 1).
Neben dem Schutz der Umwelt, stehen die Senkung der Le-
benshaltungskosten einer Immobilie, bei hoher ökonomi-
scher Effizienz, der Gesundheitsschutz der Gebäudenutzer,
die Behaglichkeit, Nutzerzufriedenheit und ein menschenge-
rechtes Umfeld im Zentrum der Gebäudebewertung.
Die Qualitätskategorien werden durch 33 Kriteriensteck-
briefe beschrieben, die sowohl quantifizierbare Messgrößen
als auch qualitative Kennzahlen beinhalten. In Tabelle 1 sind
beispielhaft die in der ökologischen Qualität berücksichtig-
ten Kriterien dargestellt. Darüberhinaus werden die Berech-
nungsverfahren zur Erfassung der CO2-Äquivalentemissio-
nen einer Immobilie abgebildet (Tabelle 2). Wichtig ist die
Unterscheidung zwischen obligatorischen und freiwilligen
Kriterien. Obligatorische Kriterien müssen in dem Vorhaben
berücksichtigt werden, sonst wird ein Projekt vorerst nicht
anerkannt. Gleiches gilt, falls ein obligatorisches Kriterium
null Punkte erzielt.
Innerhalb der quantitativen bzw. qualitativen Kriterien kön-
nen je nach Erfüllungsgrad unterschiedlich hohe Punktzah-
len erreicht werden. Die CO2-Äquivalentemissionen werden
z.B. gemäß folgender Berechnungsmethode erfasst.
Insgesamt gilt der Zertifizierungsprozess bei Erreichen von
65% der maximalen Punktzahl als bestanden. Eine Quali-
tätskategorie fließt je nach Gewichtung in das Gesamtergeb-
nis ein. Dabei haben die ökologische Qualität (30%), die
ökonomische (20%) und soziokulturelle Qualität (20%) die
höchsten Prioritäten.
In Grafik 2 wird beispielhaft das Ergebnis eines Zertifizie-
rungsprozesses visualisiert dargestellt. Das „Spinnennetz“
symbolisiert die 33, im Zertifizierungsprozess überprüften,
Qualitätskriterien. Dabei entspricht der grüne Bereich dem
Erfüllungsgrad des einzelnen Kriteriums. Diese Art der Dar-
stellung könnte auch ein Teil der Zertifizierungsurkunde
werden.
4. Nutzen
Marktfähige Zertifizierungssysteme für nachhaltige Immobi-
lien lassen sich auf einem wachsenden Zukunftsmarkt gut
verkaufen. Im Marktsegment nachhaltiger Schulbau bei-
spielsweise ist in den nächsten Jahren eine große Nachfrage
zu erwarten, da gemäß des Koalitionsvertrages der CDU,
Entwicklung eines Zertifizierungssystems „Nachhaltige Immobilien für den Mittelstand“ in Deutschland
20
Grafik 1: Qualitätskategorien für Nachhaltiges BauenQuelle: www.nachhaltigesbauen.de, 2010.
Kriterium für nachhaltige Immobilien Obliga-torisches Kriterium
Maximal erreich-
bare Punktzahl
Ökologische QualitätCO2 - Äquivalentemissionen ja 40
Schädigung der Ozonschicht 20
Beitrag zu troposphärischer Ozonbildung 20
Eutrophierung von Ökosystemen 20
Vermeidung kleinräumiger Umwelt-verschmutzung
ja 40
Holz aus nachhaltiger Waldbewirtschaftung 20
Nicht erneuerbarer Primärenergieverbrauch ja 50
Gesamtprimärenergieverbrauch und Nutzung erneuerbarer Energien
ja 40
Nutzung der Ressource Wasser ja 30
Flächennutzung 30
Tabelle 1: Ökologische Qualität – aus dem Kriterienkatalog für Nachhal-tige Immobilien-Neubau Bürogebäude – Auszug aus dem gesamten Kriterienkatalog. Quelle: eigene Darstellung.
Kriterium Treibhauspotenzial
Beitrag eines Stoffes an der Klimaerwärmung als GWP-Wert (Global Warming Potential) relativ zum Treibhauspotenzial von Kohlendioxid (CO2 – Äquivalent)
Kennzahlerziel-
bare Punkte
er-reichte Punkt
e
a.Treibhauspotenzial verbauter Materialien in der Herstellung, gemäß DIN EN ISO 14040 und 14044:
-Bauteile gemäß DIN 276 gliedern
-Mengenermittlung der in den Kostengruppen 300 und 400 aufge-führten Bauteile
-Verknüpfung mit den entsprechenden Daten über ökologische Auswirkungen von Baumaterialien in der Software „LEGEP – Kosten-planung“
b.Treibhauspotenzial verbauter Materialien in der Instandsetzung, gemäß DIN EN ISO 14040 und 14044:
-Berechnen für Bauteile mit einer Nutzungsdauer von 50 Jahre (Nutzungsdauern sind in dem Leitfaden für Nachhaltiges Bauen des BMVBS definiert)
c. Treibhauspotenzial verbauter Materialien im Rückbau, gemäß DIN EN ISO 14040 und 14044:
-Entsprechende Daten können mit der Software „LEGEP – Lebens-zykluskosten“ berechnet werden
CO2 – Äquivalente/m2
Nettogrundfläche
x Jahr =
a + b + c
36
52
10
5
10
Bewertungsmaßstab: 10 Checklistenpunkte = 30 Punkte für das Kriterium
Tabelle 2: Berechnung der CO2 – Äquivalentemissionen einer Immobilie.Quelle: eigene Darstellung
CSU und FDP im Jahr 2009 die Ausgaben des Bundes für Bil-
dung und Forschung bis 2013 um insgesamt 12 Mrd. Euro
steigen werden. Durch die Entwicklung von marktfähigen
Zertifikaten für den nachhaltigen Bau und die Bewirtschaf-
tung von Gebäuden trägt das Projekt wesentlich dazu bei,
nachhaltiges Wirtschaften in der Bau- und Immobilienbran-
che zu stärken und leistet damit auch ein wichtigen Beitrag
zum Klimaschutz und den Zielen der Bundesregierung zur
Reduktion von CO2-Äquivalentemissionen.
5. Zusammenarbeit mit dem Kooperationspartner
Die Zusammenarbeit mit dem Kooperationspartner Zertifi-
zierung Bau e.V. war sehr konstruktiv. In direkter Zusam-
menarbeit mit der Geschäftsführung fand ein regelmäßiger
Informationsaustausch statt. Gemeinsame Meetings wurden
einmal monatlich veranstaltet.
Quellen
Bundesregierung:
Fortschrittsbericht 2008 zur nationalen Nachhaltigkeitsstra-
tegie. Für ein nachhaltiges Deutschland, Berlin 2008.
B. Stigson, S.P. Babu, J. Bordewijk, P. O‘Donnell, P. Haavisto,
J. Morgan, D.Osborn:
Peer Review der deutschen Nachhaltigkeitspolitik, Berlin
2009.
www.nachhaltigesbauen.de, Oktober 2010
Konferenzteilnahme
Consense, Internationaler Kongress und Fachausstellung für
Nachhaltiges Bauen, Stuttgart 22/23.06.2010.
Veröffentlichungen
Hagner, C.; Kummert, K.:
„Nachhaltigkeit im Bau- und Immobilienmanagement – geht
das?“, Immobilienzeitung, Ausgabe 9/2010, IZ Immobilien
Zeitung Verlagsgesellschaft, Wiesbaden, 3.03.2010.
Kummert, K.; Hagner, C.; Dittmar, A.:
„Nachhaltigkeit im Immobilien- und Facility Management –
ein Bewertungsmodell“, Tagungsband Facility Management
Kongress 2010, Mesago Messe Frankfurt GmbH, Stuttgart
2010, eingereicht Dez. 2009.
Kontakt
Prof. Kai Kummert
Beuth Hochschule für Technik Berlin
Fachbereich IV Architektur und Gebäudetechnik
Luxemburger Straße 10
13353 Berlin
Tel.: (030) 45 04 - 52 08
E-Mail: [email protected]
Kooperationspartner
Firma Zertifizierung Bau e.V.
Geschäftsführung: Dipl.-Ing. Gerhard Winkler
Kooperationspartner: Dr.-Ing. Martin Ponick
Tel.: (030) 20 31 41 22
E-Mail: [email protected]
Fachbereich IV Architektur und Gebäudetechnik
21
Grafik 2: Visualisiertes Ergebnis eines Zertifizierungsprozesses – beispielhaft. Quelle: eigene Darstellung.
1. Einleitung
Im Rahmen des Forschungsvorhabens wurden zunächst
Kenntnisse über die Trink- und Brauchwasseranalysen ge-
wonnen. Für unzählige Mikroorganismen bietet Trink- und
Brauchwasser optimale Umweltbedingungen, können sich
entsprechend optimal vermehren und dies kann zu Infekti-
onskrankheiten führen. In Trinkwasserlaboren werden routi-
nemäßig bestimmte Analyseverfahren laut Trinkwasser-
verordnung 2001 angewendet. Die Routineverfahren sind
ausnahmslos kulturelle Nachweismethoden, deren Durch-
führung eine Bebrütung über 24 – 48 Stunden erfordert, so
dass Ergebnisse erst nach mehreren Tagen vorliegen. In der
Fachliteratur existieren Publikationen von Schnelltests für
den Nachweis einzelner relevanter Parameter für die Trink-
wasseranalyse. Es fehlen jedoch ganzheitliche Ansätze, die
das Gesamtspektrum in Form von Schnelltests erfassen. Ziel
dieser Forschungsarbeit ist somit die Entwicklung eines
Schnellnachweissystems auf der Grundlage der PCR.
Diese Forschungsarbeit beschränkt sich vorerst auf eine
Auswahl von vier der relevantesten Trinkwasserparametern
(E. coli, Legionella spp., Legionella pneumophila, Clostri-
dium perfringens). Im ersten Teil der Forschungsarbeit
wurde ein einheitliches DNA-Extraktionsverfahren erarbei-
tet. In den darauffolgenden Projektphasen wurden beste-
hende PCR-Systeme aus der Literatur adaptiert, optimiert
und sollen anschließend in einem „ready-to-use“ Format zu-
sammen gefügt werden. Parallel erfolgte zudem die Validie-
rung der einzelnen PCR-Systeme.
2. PCR Grundlagen
Die Idee einer schnellen Nachweismethode für die Reinheit
von Wasser kann mit Hilfe der DNA-Analytik umgesetzt wer-
den. Das Verfahren PCR (Polymerase Kettenreaktion) erklärt
sich anhand der Namensgebung:
· Die DNA-Polymerase ist ein Enzym und ermöglicht die
chemische Verknüpfung von einzelnen DNA-Bausteinen
(Nukleotiden) zu Desoxyribonukleinsäure (DNA).
· CHAIN = Kette
Demnach ist die Polymerasekettenreaktion eine gezielte
DNA – Vervielfältigung in vitro.
DNA ist die Grundlage vieler molekularbiologischer Metho-
den. Desoxyribonukleinsäure besteht zu gleichen Teilen aus
Desoxyribose, einem Kohlenstoffring mit fünf C-Atomen (C5
Zucker), Phosphorsäure und vier verschiedenen organischen
Basen. Diese vier organischen Basen sind die beiden Purin-
basen Adenin und Guanin sowie die beiden Pyrimidinbasen
Cytosin und Thymin. Aus diesen insgesamt 4 Molekülen
(„Nukleotide“) ist die DNA aufgebaut, so dass der DNA-
Strang ein Polynukleotid darstellt. Jeweils 2 Nukleotide sind
über die Phosphatgruppe des einen Nukleotids mit dem
dritten C-Atom der Riboseeinheit des nächsten Desoxyribo-
Entwicklung von PCR Verfahren zum schnellen und einfachen Nachweis von Parasiten und anderen Krankheitserregern in Trink- und Brauchwässern
22
Entwicklung von PCR Verfahren zum schnellen und einfachen Nachweisvon Parasiten und anderen Krankheitserregern in Trink- und Brauch-wässernDipl.-Ing(FH) Josephine Reiss, Prof. Dr. Herbert WeberKooperationspartner: ifp, Institut für Produktqualität
Die Trinkwasserversorgung der Weltbevölkerung ist außerordentlich wichtig. Hierbei spielt u.a. die Gefährdung einer Ver-
unreinigung mit Mikroorganismen eine wesentliche Rolle, da Bakterien und Parasiten Infektionskrankheiten verursachen
können und somit für die Gesundheit des Menschen von großer Bedeutung sind. Die etablierten traditionellen Nachweis-
methoden sind langwierig und Ergebnisse liegen oftmals erst nach mehreren Tagen vor. Die Entwicklung von innovativen,
molekularbiologischen Nachweissystemen nach dem Prinzip der Polymerase Kettenreaktion (PCR) sollen Trinkwasserana-
lysen deutlich verkürzen und vereinfachen. Mittels der real-time PCR-Analyse wird die DNA von Bakterien und Parasiten
schnell und spezifisch detektiert. Zudem können die Analyten einzeln oder in einer multiplex real-time PCR nachgewiesen
werden.
World population’s supply with drinking water is extremely important as the microbiological conditions play a crucial role.
Infectional deseases caused by bacteria and parasites play a crucial role for the human health nowadays. The established,
traditional detection methods are time-intensive as results are only available after several days. The development of inno-
vative, molecular biological detection systems based on the technology of the Polymerase-Chain-Reaction (PCR) is to
shorten and simplify drinking water analysis significantly. By using the PCR-analysis, the DNA of bacteria and parasites
can be detected rapidly and specifically, and parameters can be analysed in a single-plex as well as multiplex PCR.
semoleküls verknüpft. Die Enden der jDNA-Stränge werden
nach den jeweiligen freien Gruppen der Desoxyribose be-
nannt: das Ende, an dem das dritte C-Atom freiliegt, wird
3´Ende genannt und die Kette wird mit einer freien Hydroxyl-
gruppe abgeschlossen. Am sogenannten 5´Ende, an wel-
chem das fünfte C-Atom des Desoxyribose-Moleküls
freiliegt, liegt eine freie Phosphatgruppe vor (siehe Abbil-
dung. 1) (Knippers, 2001 S. 9 ff ).
2.1 Prinzip der PCR
Die Polymerase Kettenreaktion, kurz PCR (polymerase chain
reaktion) ist eine Methode, welche die DNA-Vervielfältigung
(Amplifikation) in vitro ermöglicht. Das Grundprinzip beruht
auf der natürlichen DNA-Synthese, die in jeder lebenden
Zelle stattfindet. Die entscheidende Substanz hierbei ist das
Enzym Polymerase, sie ermöglicht die Synthese neuer DNA-
Stränge. Ein klassischer PCR-Zyklus ist in drei Teilschritte
untergliedert:
Denaturierung: Auftrennung der DNA-Doppelstränge in
zwei Einzelstränge
Annealing: Anlagerung der sogenannten Primer, Detek-
tion der Zielsequenz
Elongation: Aufbau von neuen komplementären DNA-
Strängen, jeweils zu den Einzelsträngen aus Denaturie-
rung (Verdopplung)
Diese drei Schritte finden bei unterschiedlichen Temperatu-
ren statt und bilden zusammen einen PCR Zyklus, in jedem
Zyklus findet eine theoretische Verdopplung der Ausgangs
DNA statt. Die Zyklen werden parameterabhängig ca. 30 bis
45 mal wiederholt, um genügend DNA Kopien für eine ein-
deutige Detektion zu amplifizieren. (Richter, 2003 S. 150 ff )
3. DNA Extraktion
Für die Durchführung einer Wasseranalyse mittels PCR ist es
notwendig, die gesamte DNA aus einer Wasserprobe zu ge-
winnen. Somit wird für die Analyse eines Probenvolumens
von 100 ml Wasser eine Filtration durchgeführt.
Die Gesamtheit der in der Wasserproben enthaltenen Mikro-
organismen wird auf dem Filter aufgefangen (siehe Abbil-
dung 2).
Als nächster Schritt muss die Zellwand aufgespalten wer-
den. Dies erfolgt enzymatisch, wobei abhängig von den Zell-
eigenschaften der Mikroorganismen unterschiedliche
Enzyme zum Einsatz kommen. Anschließend werden die auf-
geschlossenen Zellen bzw. die freie DNA gewaschen, d.h.
mit einem speziellen Waschpuffer gespült, um mögliche In-
hibitoren zu entfernen. Die freigesetzte DNA wird anschlie-
ßend in ein PCR-Reaktionsgefäß überführt. Für die PCR
Fachbereich V Life Sciences and Technology
23
Abb. 1: Schematische Darstellung der PCR
Abb. 2: Filtration
Analyse werden 12,5 μl von dem DNA-Extrakt mit 12,5 μl
MasterMix zusammengefügt und die DNA - Fragmente in
einem PCR Cycler amplifiziert.
Die Auswertung erfolgt nach ca. 2 Stunden in real-time
(siehe Abbildung 3)
Die real-time PCR mit Sonden ermöglicht sowohl eine online
Verfolgung der Amplifikation als auch eine genaue, quanti-
tative Aussage über die Templatemenge in Anwesenheit
eines Standards. Als Sonden werden Oligonukleotide mit
Fluorophor markierten Enden bezeichnet. Die markierten
Oligonukleotide sind komplementär zu einer Basensequenz
auf dem Amplikon, und geben dadurch bei Anwesenheit des
gewünschten Amplikons ein Signal. Es existieren unter-
schiedliche real-time PCR Systeme, die u.a. auf der Grund-
lage des Fluorescence Resonance Energy Transfer (FRET)
basieren. FRET funktioniert unter der Anwesenheit zweier
Fluorophor Moleküle: einem Reporter und einem Quencher.
Bei einer Anregung mit kurzwelligem Licht emittiert das Re-
porterfluorophor höherwelliges Licht mit einer bestimmten
Wellenlänge. In Anwesenheit eines Quenchers wird die
Emission auf diesen übertragen, was zu einer Emission bei
einer anderen Wellenlänge führt. Dieses Signal wird aufge-
zeichnet und graphisch dargestellt (siehe Abbildung 3). Der
Anstieg der Fluoreszenzkurve beschreibt die Amplifikation
der Ziel - DNA, was einem positiven Befund entspricht.
Für die unterschiedlichen Parameter werden verschiedene
Fluorophore eingesetzt, die Ergebnisse können dann an-
hand der unterschiedlichen Wellenlängen von einander ge-
trennt beurteilt werden.
4. Weiterentwicklung
Die bis hierhin erzielten Ergebnisse ermöglichen eine Verein-
fachung der Trinkwasseranalyse. Allerdings sind für die Ana-
lyse eines ganzheitlichen Spektrums für die Wasserunter-
suchung und eine letztendlich Vereinigung aller Parameter
in einem Testsystem noch Weiterentwicklungen erforderlich.
Ein weiterer wichtiger Forschungsgegenstand ist die Unter-
scheidung von lebenden und toten Zellen. Handelt es sich
bei den in der Probe enthaltenen Keimen um tote Mikroor-
gansimen, so sind diese nicht pathogen. Trotzdem wird die
DNA toter Zellen amplifiziert werden und liefert ein positives
Signal in der PCR. Auf der Grundlage einer bereits veröffent-
lichten Arbeit soll das bestehende System um diese Mög-
lichkeit ergänzt werden. Erste Testreihen hierzu sind bereits
analysiert worden.
5. Zusammenfassung
Die Entwicklung einer einheitlichen Probenextraktion sowie
die Zusammenfassung von mehreren Analysen ermöglicht
eine schnelle und einfache Wasseruntersuchung. Die Vali-
dierung der Einzelsysteme ist noch nicht endgültig abge-
schlossen und ausgewertet. Um die Spezifität zu ermitteln,
wurden die einzelnen Systeme auf Kreuzreaktionen gegen
diverse Fremdparameter getestet. Die diagnostische Spezifi-
tät und Sensitivität werden derzeit ebenfalls anhand von
einem ausführlichen Validierungsplan ermittelt. Dies erfolgt
über einen ausführlichen Vergleich mit den traditionellen
Nachweismethoden.
Aufgrund der guten Zusammenarbeit mit dem Kooperations-
unternehmen ist einem erfolgreichen Projektabschluss posi-
tiv entgegen zu blicken.
Literatur
Richter, G.: Praktische Biochemie, Grundlagen und Techniken
[Buch], Georg Thieme Verlag, Stuttgart, 2003.
Knippers, Rolf: Molekulare Genetik, Georg Thieme Verlag,
S. 9ff, 23–24, Stuttgart, 2001.
Kontakt
Prof. Dr. Herbert Weber
Beuth Hochschule für Technik Berlin
Fachbereich IV Fachbereich III Bauingenieur- und
Geoinformationswesen
Luxemburger Straße 10
Tel.: (030) 45 04 - 28 35
E-Mail: [email protected]
Kooperationspartner
ifp, Institut für Produktqualität
Teltowkanalstr. 2
12247 Berlin
Tel.: (030) 76 68 0
E-Mail: info@produktqualität.com
Entwicklung von PCR Verfahren zum schnellen und einfachen Nachweis von Parasiten und anderen Krankheitserregern in Trink- und Brauchwässern
24
Abb. 3: Amplifikation plot
1. Einleitung
1.1 Proteine und Proteomik
Proteine gehören zu den Grundbausteinen aller Zellen. Sie
spielen bei nahezu allen biologischen Prozessen eine wich-
tige Rolle und vermitteln lebensnotwendige Funktionen
einer Zelle. Die Gesamtheit aller Proteine einer Zelle, einer
Organelle oder eines Gewebes zu einem bestimmten Zeit-
punkt, bilden das Proteom. Im Gegensatz zum Genom ist
das Proteom dynamisch und verändert sich ständig. Diese
Änderungen werden über komplexe Regulationsprozesse
gesteuert und können durch äußere Umwelteinflüsse wie
z.B. Krankheiten, Stress oder Medikamente erheblich beein-
flusst werden. Mittels Proteomik können Veränderungen im
Proteom festgestellt werden und zur Aufklärung von Krank-
heiten beitragen [Lot 06; Sch 01].
Zusammensetzung und Aufbau eines Proteoms sind im ge-
netischen Code verschlüsselt. In den ca. 25.000 menschli-
chen Genen ist die Basis für wahrscheinlich über eine
Million unterschiedlicher Proteinmoleküle angelegt, wobei
aus einem Gen oft mehrere Proteine entstehen können. Dies
geht auf unterschiedliche Prozessierung der mRNA, enzyma-
tische Spaltung der nativen Polypeptidkette in mehrere Un-
tereinheiten oder posttranslationale Modifikationen zurück.
Letzteres bedeutet, dass Proteine nach der Proteinbiosyn-
these (Translation) durch Anhängen von funktionellen Grup-
pen weiter in ihrer Struktur und Funktion verändert werden.
Zu der wichtigsten und bekanntesten posttranslationalen
Modifikation gehört neben der Glykosylierung und der
Acetylierung auch die Phosphorylierung [Dun 00; Blo 04].
1.2 Phosphoproteomik
Die reversible Phosphorylierung ist eine der wichtigsten und
am besten untersuchten posttranslationalen Modifikatio-
nen. Phosphorylierung bedeutet, dass eine oder mehrere
Phosphatgruppen mittels Enzymen (Kinasen) auf ein Protein
übertragen werden. Die Bindung der Phosphatgruppe an
eine Aminosäure ist reversibel. Es wird angenommen, dass
etwa ein Drittel der zellulären Proteine phosphoryliert vor-
liegt [Blo 04]. Die Phosphorylierung von Proteinen ermög-
licht den Zellen individuelle Reaktionen und Adaptionen auf
eine Vielzahl sich verändernder Umweltbedingungen, wie z.
B. osmotischen und oxidativen Stress [Kis 01], UV-Strahlung
[Luo 01], Nährstoffmangel [Dea 00] und Wachstumsfaktoren
[Dou 97].
Werden diese Phosphorylierungsprozesse gestört, kann es
zu schweren Krankheiten, wie Alzheimer [Ran 02], Krebs
[Whi 98] oder Diabetes [Ori 09] kommen. In der Phosphopro-
teomforschung werden daher Methoden entwickelt, mit
deren Hilfe Phosphorylierungsstellen an Proteinen bei ver-
schiedenen Krankheiten lokalisiert werden können. Aller-
dings werden Proteine oft nur in sehr geringem Anteil
modifiziert, so dass zunächst die Komplexität der Proteine
einer Probe reduziert werden muss. Voraussetzung hierfür
ist, einen Weg zu finden, mit dem Phosphoproteine schnell
und spezifisch aus dem Proteom angereichert und analy-
siert werden können.
1.3 Zielsetzung
Während des Forschungsprojektes wurden die Grundsteine
für eine neue Methode gelegt, mit deren Hilfe phosphory-
lierte Proteine identifiziert und angereichert werden können.
Die Anreicherung erfolgte mittels chemischer Kopplung.
Hierbei wurden neue Ansätze zu den bereits publizierten ge-
testet und optimiert. Ziel war es, Phosphoproteine zu akti-
Fachbereich V Life Sciences and Technology
25
Methoden zur Identifizierung von posttranslationalen Modifikationen inProteinenDipl.-Ing. (FH) Shireen Weise, Prof. Dr.-Ing. Roza Maria KampKooperationspartner: Proteome Factory AG
Es wurde eine neue Methode zur Identifizierung und Anreicherung von posttranslational phosphorylierten Proteinen ent-
wickelt, die als Biomarker für klinische und diagnostische Zwecke anwendbar sind. Im ersten Schritt erfolgte die Abspal-
tung der Phosphatgruppen über β-Eliminierung und die Anlagerung von DTT. Nach anschließender Modifizierung mit
Biotin können Proteine über Avidin-Affinitätschromatografie angereichert werden. Alle Reaktionsschritte wurden optimiert
und mittels Massenspektrometrie analysiert.
A new method has been developed for the identification and enrichment of posttranslationally phosphorylated proteins,
which are important biomarkers for clinical and diagnostic applications. In a first step the phosphate groups were re-
moved using β-elimination followed by coupling with DTT. Subsequent reaction with biotin enables enrichment by affinity
chromatography using avidin. All steps have been optimised and analysed by mass spectrometry.
vieren und anschließend über eine Säule spezifisch von
unphosphorylierten Proteinen durch Wechselwirkungen mit
der Säule zu trennen. Alle Reaktionsschritte wurden mittels
Massenspektrometrie überprüft und optimiert. Die chemi-
sche Modifizierung phosphorylierter Proteine hat außerdem
den Vorteil, dass sich die Phosphoproteine besser mittels
Massenspektrometrie analysieren lassen. Da die Phosphat-
gruppe labil ist und es während des Messvorgangs sehr oft
zum Verlust der Phosphatgruppen kommt, gewährleistet die
chemische Modifizierung einen zuverlässigen Nachweis.
1.4 Anreicherung von Phosphoproteinen mittels chemi-
scher Kopplung
Um Phosphoproteine anzureichern wurden die phosphory-
lierten Aminosäuren Phosphoserin, Phosphotyrosin und
Phosphothreonin chemisch modifiziert (Abbildung 1). Da die
Phosphatgruppe unter alkalischen Bedingungen labil ist,
wird diese mittels β-Eliminierung abgespalten und durch ein
neues Molekül, wie Biotin, ersetzt. Die Phosphoproteine mit
Biotin zu modifizieren hat den Vorteil, dass sie sich mit Hilfe
von Avidin-Affinitätschromatografie aus komplexen Proben
anreichern lassen. Die angereicherten Proteine werden dann
mittels Gelelektrophorese aufgetrennt, danach aus dem Gel
ausgestochen und nach einem enzymatischen Verdau mittels
Massenspektrometrie analysiert [Oda 01, Gos 01, Ada 01].
Eine detaillierte chemische Reaktion kann der Abbildung 2
entnommen werden. Sie zeigt, wie es im alkalischen Barium-
hydroxid-Milieu (Ba(OH)2) zur β-Eliminierung des Phosphat -
restes an Phosphoserin, Phosphotyrosin oder Phospho -
threonin kommt. Die neugeformte Doppelbindung zwischen
den α und β C-Atomen wird auch Michael-Akzeptor genannt
und reagiert mit dem Nukleophil 1,4-Dithiothreitol (DTT),
Diese Reaktion wird auch Michael-Addition genannt und
führt dazu, dass in einem weiteren Schritt Biotin als Anrei-
cherungsreagenz an das Protein gekoppelt wird. Für die Ver-
suche wurde ein Biotinmaleimid-Reagenz verwendet, da die
Maleimidgruppe an die eingeführte reaktive Thiolgruppe
des DTT binden kann. Die hohe Affinität von Biotin zu Avidin
wird am Ende für die selektive Anreicherung der Phospho-
proteine ausgenutzt. Monomeres Avidin, ein Glykoprotein
aus Hühnereiweiß, ist dabei an eine Säule immobilisiert,
bindet biotinylierte Proteine und trennt diese durch mehr-
maliges Waschen von unbiotinylierten Proteinen.
Die Messungen zur Kontrolle der einzelnen Reaktions-
schritte wurden mit Hilfe der Kooperationsfirma Proteome
Factory AG durchgeführt. Da sich während der chemischen
Reaktionen die Masse der Phosphoproteine um definierte
Werte ändert, wurde durch Aufnahme von Massenspektren
mit dem nanoHPLC gekoppelten Finnigan LTQ-FT Massen-
spektrometer der Firma ThermoFisher (Bremen) die erfolg-
reiche Modifizierung nachgewiesen. Die theoretischen
Massenänderungen sind in Tabelle 1 dargestellt.
Methoden zur Identifizierung von posttranslationalen Modifikationen in Proteinen
26
Abb. 1: Schematische Darstellung der Anreicherung von phosphorylier-ten Proteinen. Bei der β-Eliminierung werden Phosphatgruppen abge-spalten wodurch die Modifizierung der Phosphoproteine mit Biotinermöglicht wird. Das Biotin bindet dann an eine Avidin-Säule, so dassnur die phosphorylierten Proteine aus dem Proteom angereichert werden.
Reaktionsschritt Massenänderung [Da]
ß-Eliminierung -79,97
DTT-Addition + 154,01
Biotin-Addition + 451,19
Tab. 1: Massenänderung während der chemischen Modifizierung
Abb. 2: β-Eliminierung: in Ba(OH)2-Milieu werden die Phosphatgruppen von phosphorylierten Aminosäuren abgespalten. Michael-Addition: die Dop-pelbindung zwischen den α- und β-C-Atomen reagiert mit dem Nukleophil DTT, wodurch eine Thiolgruppe eingeführt wird. Modifizierung: an dieThiolgruppe wird Biotin gebunden und das Protein kann darüber angereichert werden.
Zur Etablierung der Methode wurde zunächst mit dem syn-
thetisch hergestellten Standardphosphopeptid „DIG-
SpESpTEDQAMEDIK“ gearbeitet. Dieses Peptid weist zwei
Phosphorylierungsstellen auf, die in der Sequenz mit einem
kleinen „p“ gekennzeichnet sind. Später wurden zusätzlich
Versuche mit den Phosphoproteinen α- und β-Casein durch-
geführt.
2. Ergebnisse mit dem Standardphosphopeptid
Die Optimierung grundlegender Reaktionsbedingungen
wurde mit dem Standardphosphopeptid „DIGSpESpTEDQA-
MEDIK“ durchgeführt, welches man auch bei einem trypti-
schen Verdau von α-Casein erhält. Das Peptid hat eine
monoisotopische Masse von 1926,68 Da, wobei in der ESI-
Massenspektrometrie die 2-fach protonierte Masse von
964,34 Da gemessen wird. Optimierunsversuche wurden mit
dem Peptid hinsichtlich Reaktionszeit, Reaktionstemperatur
und DTT-Konzentration durchgeführt. Danach erfolgte die
Biotinylierung des Peptids und anschließend die Anreiche-
rung über Avidin-Affinitätschromatografie.
2.1 Optimierung der Reaktionszeit
Das Standardphosphopeptid wurde für die β-Eliminierung
zunächst in MilliQ-Wasser gelöst und mit gesättigter
Ba(OH)2-Lösung versetzt, so dass die Lösung einen pH von
14 aufwies. Danach erfolgte eine Inkubation bei 37 °C und
anschließend, als zweiter Reaktionsschritt, die Zugabe von
DTT, welches ebenfalls bei 37 °C inkubierte. Rückstellproben
wurden zum Stoppen der Reaktion mit Trifluoressigsäure
(TFA) auf einen pH von 2 eingestellt und massenspektrome-
trisch analysiert.
Im ersten Versuch wurde untersucht, wie lan ge die Reaktio-
nen der β-Eliminierung und DTT-Addition durchgeführt wer-
den müssen, um ein zufriedenstellendes Ergebnis zu
erzielen. Es wurde getestet, ob je Reaktionsschritt 30 Minu-
ten bzw. 60 Minuten Reaktionszeit optimal sind. In Tabelle 2
ist der Einfluss der Reaktionszeit gezeigt. Dargestellt sind
hier die extrahierten Ionen-Chromatogramme und Massen-
peaks des Phosphopeptides nach der β-Eliminierung und
nach der DTT-Addition mit dazugehörigen Intensitäten der
Massenpeaks. Die Ionenchromatogramme zeigen die zeitab-
hängige Elution der Peptide während der HPLC, die dem
Massenspektrometer vorgeschaltet ist. Die selektive Mas-
sentrennung des Massenspektrometers wird im Massen-
spektrum dargestellt. Die Intensität der Massenspektren ist
ein Maß für die vorhandene Menge an Peptid in der Probe.
Die Intensitäten zeigen, dass eine Reaktionszeit von 30 Mi-
Fachbereich V Life Sciences and Technology
27
2-fach protonierte
Masse [Da] und Schema des
Peptids
30 Minuten 60 Minuten
Extrahierte Ionenchromato-
grammeMassenspektrum Intensität
Extrahierte Ionenchromato-
grammeMassenspektrum Intensität
-Eli
min
ati
on
964,34
1,45*104 - - -
866,37- - - 8,69*105
na
ch
DT
T-A
dd
itio
n
964,34
4,45*103 - - -
866,37- - - 6,99*104
1020,38
- - - 1,84*105
0 50Time (min)
0
50
10028.2
865 870m/z
0
50
100866.37
866.87
867.37
867.87
0 50Time (min)
0
50
10028.2
866m/z
0
50
100866.37
867.37
Tab. 2: Vergleich der Reaktionszeiten 30 und 60 Minuten während der β-Eliminierung und DTT-Addition
nuten nicht ausreichend ist, um die jeweiligen Reaktions-
schritte durchzuführen. Nach 30 Minuten konnte das phos-
phorylierte Peptid mit einer Intensität von 1,45*104 wieder -
gefunden werden, während das gewünschte unphosphory-
lierte Peptid nicht gefunden wurde. Auch nach weiteren 30
Minuten Reaktionszeit mit DTT, konnten keine Massen des
dephosphorylierten Peptides bzw. des DTT-modifizierten
Peptides gefunden werden. Lediglich die phosphorylierte
Variante fand sich mit einer schwachen Intensität von
4,45*103 wieder. Dies spricht für eine unzureichende Reakti-
onszeit, um die Phosphatgruppen abzuspalten und DTT an
das Peptid zu koppeln.
Ein besseres Ergebnis konnte bei einer Reaktionszeit von 60
Minuten erzielt werden. Nach der ersten 60-minütigen Reak-
tionszeit in Bariumhydroxydlösung wurde die Masse für das
phosphorylierte Peptid nicht mehr gefunden, dafür jedoch
mit einer hohen Intensität von 8,69*105 das gewünschte
β-eliminierte Peptid ohne Phosphatgruppen. Die Versuche
zeigen, dass 60 Minuten Reaktionszeit für die Phosphat-
gruppenabspaltung während der β-Eliminierung optimal
sind. Auch der zweite Reaktionsschritt, die Addition von DTT,
verlief bei einer Reaktionszeit von 60 Minuten günstiger als
bei 30 Minuten. Die Intensität des β-eliminierten Phospho-
peptids ist um ein Zehntel gesunken, dafür konnte eine
hohe Intensität von über 105 für das DTT-modifizierte Peptid
ermittelt werden. Dies zeigt, dass die DTT-Addition mit 60
Minuten bei 37 °C erfolgreich war und der größte Teil von
β-eliminierten Peptiden mit DTT modifiziert wurde.
2.2 Optimierung der Reaktionstemperatur
Die Versuche zur Optimierung der Reaktionszeit wurden
nach Oda [Oda 01] bei 37 °C durchgeführt. Da laut Goshe
[Gos 01] eine Reaktionstemperatur von 55 °C einen positiven
Einfluss auf die Reaktion haben soll, wurde ein vergleichen-
der Versuch durchgeführt. Als Reaktionszeit wurden für die-
sen Versuch 60 Minuten gewählt. Die Ergebnisse sind in
Tabelle 3 aufgelistet.
Die Intensitäten der Massenpeaks zeigen, dass eine Reakti-
onstemperatur von 37 °C günstiger ist, als eine Temperatur
von 55 °C. Das bei 37 °C inkubierte Peptid zeigte eine hö-
here Massenintensität für das β-eliminierte Peptid, sowie
für das DTT-modifizierten Peptid. Das DTT-modifizierten
Peptid konnte bei einer Reaktionstemperatur von 55 °C nicht
gefunden werden. Die Ergebnisse zeigen, dass eine Durch-
führung des Versuches bei 37 °C die Reaktion positiv beein-
flusst.
2.3 Optimierung der DTT-Konzentration
Ein wesentlicher Faktor, der vor der Biotinylierung optimiert
werden musste, war die einzusetzende Menge an DTT. Es
wurde getestet wie hoch der Überschuss an DTT gegenüber
den phosphorylierten Aminosäuren im Standardphospho-
peptid sein muss, um ein optimales Resultat zu erhalten.
Die Durchführung erfolgte bei einer Reaktionstemperatur
von 37 °C und einer Reaktionszeit von je 60 Minuten wäh-
rend der β-Eliminierung sowie der DTT-Addition. Die Daten
der massenspektrometrischen Analyse kann man der Tabelle
Methoden zur Identifizierung von posttranslationalen Modifikationen in Proteinen
28
2-fach protonierte Masse [Da] und
Schema des Peptids
37 °C 55 °C
Extrahierte Ionenchromato-
grammeMassenspektrum Intensität
Extrahierte Ionenchromato-
grammeMassenspektrum Intensität
na
ch
-Elim
ina
tio
n
964,34
- - - - - -
866,378,46*103 4,98*104
na
ch
DT
T-A
dd
itio
n
964,34
- - - - - -
866,378,26*102 4,80*104
1020,38
1,65*105 - - -
0 50Time (min)
0
50
10027.6
866 868m/z
0
50
100866.37
866.87
867.38
867.88
0 50Time (min)
0
50
10027.7
866 868m/z
0
50
100866.37
867.37
0 50Time (min)
0
50
10027.6
866 868m/z
0
50
100866.37
867.37
0 50Time (min)
0
50
10027.6
865m/z
0
50
100866.37
867.37
Tab. 3: Vergleich der Reaktionstemperaturen von 37 °C und 55 °C während der β-Eliminierung und DTT-Addition
4 entnehmen. Es wurde sowohl nach der Masse mit der 2-fa-
chen DTT-Anlagerung, als auch nach der Masse von nur
einer DTT-Anlagerung an das Peptid gesucht.
Die Ergebnisse der Messungen zeigen, dass ein sehr hoher
Überschuss an DTT notwendig war, um zu gewährleisten,
dass sich 2 DTT-Moleküle an die beiden freien Bindungsstel-
len nach der Dephosphorylierung anlagern. Die Tabelle 4
zeigt weiterhin, dass bei geringen DTT-Überschüssen (20-
bzw. 200-fach) kein Peptid mit 2 DTT-Molekülen gefunden
wurde, sondern nur das Peptid mit einer DTT-Anlagerung.
Erst ab einem 500-fachen DTT-Überschuss konnte eine
schwache Intensität von 3,91*103 für die Anlagerung von 2
DTT-Molekülen an das Peptid ermittelt werden. Die gemes-
sene Intensität für die Addition von nur einem DTT-Molekül
lag jedoch um den Faktor 102 höher, weshalb in einem weite-
ren Versuch ein 15.000-facher Überschuss gewählt wurde.
Mit diesem hohen Überschuss an DTT konnte das beste Er-
gebnis erzielt werden. Es wurden in etwa dieselben Intensi-
täten für das Peptid mit der einfachen und zweifachen
Anlagerung von DTT gefunden.
Der Versuch zeigt, dass DTT in sehr hohem Überschuss vor-
liegen muss, damit es zur Anlagerung von zwei DTT-Molekü-
len an die beiden freien Bindungsstellen des Phospho-
peptides kommt. Ein Problem, was sich daraus ergibt, ist
der notwendige Überschuss an Biotin, welches im weiteren
Versuchsablauf dazugegeben werden muss. Da das Biotin
sowohl an freies, wie gebundenes DTT bindet, muss über-
schüssiges DTT vor diesem Reaktionsschritt aus dem Probe-
ansatz entfernt werden.
2.4 Biotinylierung
Die Biotinylierung des Standardphosphopeptids erfolgte
nach der Modifizierung mit DTT. Um störendes, frei vorlie-
gendes DTT aus der Probe zu entfernen, wurde vor der Bioti-
nylierung ein Entsalzungsschritt über eine C18-Säule
vorgenommen. Peptide banden dabei an das unpolare C18-
Säulenmaterial, wurden mit polarem Lösungsmittel (0,1 %
TFA) mehrmals gewaschen, um DTT zu entfernen und da-
nach mit einem unpolarem Lösungsmittel (0,1 % TFA in Ace-
tonitril) von der Säule eluiert. Das Eluat wurde lyophilisiert
und das Peptid in 10 mM HEPES-Puffer resuspendiert. Biotin
wurde in DMSO gelöst, anschließend zu dem Peptid gege-
ben und 2 Stunden bei 37 °C geschüttelt. Die erfolgreiche
Biotinanlagerung wurde massenspektrometrisch analysiert
und ist in Tabelle 5 dargestellt.
Dass die Biotinylierung erfolgreich war, kann man in erster
Linie daran erkennen, dass die Massen des einfach und 2-
fach biotinylierten Peptides mit hohen Intensitäten von über
105 detektiert wurden. Für das 2-fach mit DTT modifizierte
Peptid wurde keine Masse mehr gefunden. Dies zeigt, dass
an alle 2-fach DTT-modifizierten Peptide Biotin binden
konnte. Weiterhin kann Tabelle 5 entnommen werden, dass
auch das Peptid mit der einfachen DTT-Modifizierung in der
Probe vorhanden war. Daraus lässt sich schließen, dass die
Biotinylierung von mehrfach DTT-modifizierten Peptiden
schneller verläuft, als die Biotin-Addition an nur einfach DTT-
modifizierte Peptide.
2.5 Anreicherung biotinylierter Peptide
Das biotinylierte Standardphosphopeptid wurde in einem
weiteren Versuch über eine Avidin-Säule angereichert. Das
Pepid wurde in Avidin-Puffer (200 mM Natriumphosphatpuf-
fer pH 7,2 % CHAPS, 150 mM NaCl) aufgenommen und auf
die äquilibrierte Avidin-Säule aufgetragen. Zur Bindung bio-
tinylierter Peptide an die Säule, wurde diese bei 4 °C für 45
Minuten geschüttelt. Danach wurden überschüssige und un-
gebundene, nicht phosphorylierte Peptide durch mehrmali-
ges Waschen mit Avidin-Puffer und Wasser entfernt. Die
Elution gebundener Peptide von der Säule erfolgte mit 0,1 %
TFA in Acetonitril.
Die Intensitäten der Massenpeaks nach massenspektrome-
trischer Analyse sind in Tabelle 6 zusammengefasst. Gezeigt
sind hier die Intensitäten vor und nach der Anreicherung
biotinylierter Peptide. Die Daten sind sowohl für das 2-fach
biotinylierte Peptid, als auch für das einfach biotinylierte
Peptid dargestellt. Beide Varianten ließen sich nach der An-
reicherung im Eluat nachweisen, was beweist, dass die An-
reicherung erfolgreich war.
Fachbereich V Life Sciences and Technology
29
Intensität der 2-fach protonierten Masse
943,37 Da 1020,38 Da
DTT -Über-
schuss
20-fach 3,11*105 -
200-fach 2,46*106 -
500-fach 5,06*105 3,91*103
15000-fach 4,10*106 1,99*106
Tab. 4: Vergleich des Einflusses von verschiedenen DTT-Konzentrationen.
analysierte Moleküle und Molekülmasse
943,37 Da 1020,38 Da 779,65 Da 981,38 Da
Intensität 4,04*106 - 7,18*105 2,14*105
Extrahierte Ionenchromato-
gramme-
Massenspektrum -
Tab. 5: Ergebnisse nach der Biotinylierung, DTT-modifizierte Peptide wur-den über ihre 2-fach protonierte Massen detektiert, biotinylierte Peptideüber ihre 3-fach protonierte Masse.
Aus den Massenintensitäten ist jedoch auch erkennbar, dass
man während des Anreicherungsprozesses einen Verlust an
biotinylierten Peptiden zu verzeichnen hatte. Dabei fällt auf,
dass der Verlust an einfach biotinylierten Peptiden höher
war als der Verlust an 2-fach biotinylierten Peptiden. Die In-
tensität der Massenpeaks war nach der Anreicherung beim
einfach biotinylierten Peptid um circa das 40-fache geringer
als vor der Anreicherung. Die Intensität des 2-fach biotiny-
lierten war nach Anreicherung nur um das 7-fache geringer.
Dies weist darauf hin, dass Peptide mit mehreren Biotin-
gruppen besser an die Säule binden, da sie eine höhere Affi-
nität zum Avidin besitzen.
Dass es zu einem Verlust an biotinylierten Peptiden während
der Anreicherung kam, könnte an ungebundenem Biotin ge-
legen haben. Frei vorliegendes Biotin konkurriert mit bioti-
nylierten Peptiden um freie Bindungsplätze der Avidin-
Säule. Liegt Biotin in hohem Überschuss vor, belegt es zu
viele Bindungsstellen auf der Säule und verhindert dadurch
die Bindung der Peptide.
Um zu überprüfen, ob zu viel überschüssiges Biotin wäh-
rend der Anreicherung vorlag, wurden die Massenintensitä-
ten von Biotin und dem Biotin-DTT-Komplex vor und nach
der Anreicherung bestimmt. Die Ergebnisse dazu sind in Ta-
belle 7 dargestellt.
Die Tabelle 7 zeigt, dass vor der Avidin-Anreicherung Biotin
frei in der Probe vorlag, denn es ließ sich mit einer Massen-
intensität von über 105 detektieren. Auch überschüssiges
DTT lag vor der Anreicherung in der Probe vor, da Massen
des Biotin-DTT-Komplexes gemessen wurden. Freies DTT
verfügt über zwei reaktive Thiolgruppen, mit denen das Bio-
tinmaleimid reagiert. Wird freies DTT nicht aus dem Ver-
suchsansatz entfernt, muss dementsprechend mehr Biotin
zur Probe zugegeben werden, damit gewährleitet wird, dass
sich Biotin nicht nur an das freie DTT anlagert, sondern auch
an DTT-modifizierte Peptide. Der Biotin-DTT-Komplex hatte
vor der Avidin-Anreicherung eine Massenintensität von über
107 und liegt damit sogar über der Intensität der biotinylier-
ten Peptide (Vergleich Tabelle 6).
Auch nach dem Anreicherungsversuch ließen sich die bei-
den Biotin-Moleküle mit Intensitäten nachweisen, die im
Vergleich zu den gemessenen biotinylierten Peptiden (Ver-
gleich Tabelle 6) höher waren und dafür sprechen, dass auch
sie angereichert wurden.
Die Messergebnisse weisen schließlich darauf hin, dass vor
dem Anreicherungsschritt zu viel an DTT und Biotin in der
Probe vorlag, und dass die beiden Substanzen in ihrer
hohen Konzentration die Anreicherung der biotinylierten
Peptide wahrscheinlich beeinträchtigt haben. Da hohe Mas-
senintensitäten des Biotin-DTT-Komplexes gemessen wur-
den, kann man davon ausgehen, dass überschüssiges DTT
mittels C18-Entsalzung nicht ausreichend aus der Probe ent-
fernt wurden.
In weiteren Versuchen sollte daher ein Weg gefunden wer-
den, zunächst DTT vollständig vor der Biotinylierung aus der
Probe zu entfernen. Wie die Versuche gezeigt haben, ist eine
Entsalzung über C18-Material dafür nicht geeignet. Besser
geeignet wäre eine Dialyse mit einer Membran die eine Aus-
schlussgrenze von maximal 500 Da besitzt, so dass nur DTT
mit einem Molekulargewicht von 154 Da aus der Probe ent-
fernt wird. Wird später auf Proteinebene gearbeitet, kann al-
ternativ auch eine TCA- oder Aceton-Fällung der Proteine
durchgeführt werden.
Ist DTT aus der Probe entfernt, kann Biotin in geringeren
Konzentrationen beim Biotinylierungsschritt eingesetzt wer-
den, die Anreicherung der biotinylierten Peptide wird nicht
mehr gestört und die Ausbeute an angereicherter Phospho-
petiden steigt.
3. Ergebnisse mit den Phosphopeptiden von α-
und β-Casein
Weitere Versuche wurden mit den Phosphoproteinen α- und
β-Casein durchgeführt, die laut der Datenbank UniProt
Knowledgebase (http://www.uniprot.org) 8 bzw. 5 Phospho-
rylierungstellen besitzen. Nach dem die Proteine tryptisch
Methoden zur Identifizierung von posttranslationalen Modifikationen in Proteinen
30
Molekül vor der Avidin-Anreicherung Molekül nach der Avidin-Anreicherung
779,65 Da 981,38 Da 779,65 Da 981,38 Da
Intensität 7,18*105 2,14*105 1,67*104 3,20*104
Extrahierte Ionenchromato-
gramme
Massenspektrum
Tab. 6: Ergebnisse zur Anreicherung der biotinylierten Peptide, die Pep-tide wurden über ihre 3-fach protonierte Masse detektiert.
Molekül vor der Avidin-Anreicherung Molekül nach der Avidin-Anreicherung
Biotin452,19 Da
Biotin-DTT 1057,39 Da
Biotin452,19 Da
Biotin-DTT 1057,39 Da
Intensität 4,94*105 2,18*107 1,68*104 7,33*106
Extrahierte Ionenchromato-
gramme
Massenspektrum
Tab. 7: Überprüfung des freien Biotingehalts vor und nach Anreicherungder Probe, die Moleküle wurden über ihre einfach protonierte Masse de-tektiert.
verdaut wurden, erhielt man phosphorylierte Peptide (in Ta-
belle 8 aufgelistet), sowie unphosphorylierte Peptide.
Mit der Massenspektrometrie konnten nicht alle der in Ta-
belle 8 gezeigten Phosphopeptide analysiert werden, da das
Massenspektrometer hauptsächlich Massen in einem Be-
reich von 400 bis 1500 Da präzise bestimmen konnte. Da
sich die Molekülmasse während der Modifizierung erhöhte,
konnten besonders die großen Phosphopeptide nicht analy-
siert werden.
Der tryptische Verdau der Caseine ergab durch Fehlspaltung
je ein zusätzliches Peptid, welches massenspektrometrisch
analysiert werden konnte, diese sind in Tabelle 8 mit „Fehl“
gekennzeichnet. Mit den Phosphopeptiden der beiden Ca-
seine wurden verschiedene Puffer bei der Biotinylierung und
die Trennung von phosphorylierten Peptiden mittels Avidin-
Anreicherung untersucht und optimiert.
3.1 Optimierung der Biotinylierung mit α-Casein-
Peptiden
Nachdem optimale Reaktionsbedingungen zur β-Eliminie-
rung und DTT-Addition mit Hilfe des Standardphosphopepti-
des ermittelt wurden, wurde der Biotinylierungsschritt mit
phosphorylierten α-Casein-Peptiden optimiert.
Zunächst wurden die Phosphopeptide über Metall-Affinität-
schromatografie angereichert. Diese Anreicherungsmethode
wurde von vorhergehenden Forschungsassistenten, in be-
reits abgeschlossenen Projekten, sehr gut etabliert [Leh 06,
Ste 08]. Angereicherte Phosphopeptide wurden dann che-
misch mit DTT modifiziert und massenspektrometrisch ana-
lysiert. Es sollte anschließend getestet werden, ob für die
Biotinylierung der Peptide HEPES- oder Harnstoff-Puffer
besser geeignet ist. Dazu wurden die Peptide zum einen in
10 mM HEPES-Puffer und zum anderen in Harnstoff-Puffer
(8 M Harnstoff, 5 mM EDTA, 50 mM NaOAc, 5 % Aceton) ge-
löst, mit Biotin versetzt und anschließend 2 Stunden bei
37 °C geschüttelt. Die Ergebnisse der massenspektrometri-
schen Analysen sind in Tabelle 9 zusammengefasst.
Die Intensitäten der Massenpeaks zeigen, dass der Harn-
stoff-Puffer die Biotin-Addition eher begünstigt als der
HEPES-Puffer. Vor dem Biotinylierungsschritt konnten für
die DTT-modifizierten Peptide Massenintensitäten von über
105 detektiert werden. Nach der Biotinylierung konnten
diese Peptide in beiden Puffern nicht mehr gefunden wer-
den, was zeigt, dass sie vollständig biotinyliert wurden.
Die gemessenen Massenintensitäten von den in Harnstoff-
Puffer biotinylierten Peptiden lagen letztlich höher, als die
der Peptide die in HEPES-Puffer biotinyliert wurden. Ein Bio-
tin-markiertes Peptid ließ sich sogar nur nach Modifizierung
in Harnstoff-Puffer nachweisen. Das 2-fach biotinylierte Pep-
tid wurde bei beiden Versuchen nicht gemessen.
Da der Harnstoff-Puffer chaotrope Eigenschaften besitzt,
wird die Löslichkeit von Proteinen erhöht und ihre Denatu-
rierung gefördert. Somit begünstigt er wahrscheinlich eher
die Biotin-Addition, als der HEPES-Puffer.
3.2 Anreicherung biotinylierter Peptide
Die Anreicherung biotinylierter Peptide wurde mit tryptisch
verdautem α- und β-Casein getestet. Von β-Casein wurde
vorher eine Metall-Affinitäts-Anreicherung der Phosphopep-
tide durchgeführt. Die Phosphopeptide von α-Casein wur-
den ohne vorherige Anreicherung biotinyliert, so dass hier
zusätzlich auch unphosphorylierte Peptide in der Probe vor-
handen waren.
Die biotinylierten Peptide wurden, wie unter Kapitel 2.5 be-
schrieben, über eine Avidin-Säule angereichert. Die Massen-
intensitäten wurden vor und nach der Anreicherung
Fachbereich V Life Sciences and Technology
31
Monoiso-topische
Masse [Da]
2-fach protonierte Masse [Da]
Peptid-Sequenz
-Casein
2719,91 1360,95 QMEAESpISpSpSpEEIVPNSpVEQK
1926,68 964,34 DIGSpESpTEDQAMEDIK
1950,94 976,47 YKVPQLEIVPNSpAEER (Fehl)
1659,79 830,89 VPQLEIVPNSpAEER
768,34 385,17 VNELSpK
-Casein
2966,16 1031,41 ELEELNVPGEIVESpLSpSpSpEESITR
2431,04 1216,52 IEKFQSpEEQQQTEDELQDK (Fehl)
2060,82 1483,58 FQSpEEQQQTEDELQDK
Tab. 8: Phosphopeptide von α- und β-Casein nach tryptischem Verdaumit ihren monoisotopischen und 2-fach protonierten Molekülmassen, p-Phosphorylierungsstelle, Fehl-Fehlspaltung.
Masse [Da] Schema des PeptidsIntensität
HEPES-Puffer Harnstoff-Puffer
vor Biotinylierung
943,37 3,83*105 4,01*105
1020,38 2,16*105 2,73*105
858,91 1,06*106 1,46*106
1004,49 5,23*106 4,17*105
nach Biotinylierung
943,37 - -
1020,38 - -
858,91 - -
1004,49 - -
779,65 1,27*105 1,49*105
981,38 - -
723,38 - 5,00*104
820,38 1,60*105 3,09*105
Tab. 9: Vergleich von HEPES- und Harnstoff-Puffer während der Biotiny-lierung von Phosphopeptiden von α-Casein, DTT-modifizierte Peptidewurden über ihre 2-fach protonierte Masse detektiert und biotinyliertePeptide über ihre 3-fach protonierte Masse.
bestimmt. Bei α-Casein wurden zusätzlich zu den Massen
der Phosphopeptide auch die Massen unphosphorylierter
Peptide überprüft. Zu erwarten war hierbei, dass sie nach
der Anreicherung nicht mehr in der Probe gemessen werden,
da sie nicht mit angereichert werden können.
In Tabelle 10 sind die Intensitäten der Massenpeaks aufge-
listet. Die Ergebnisse zeigen, dass nach der Anreicherung
alle biotinylierten Peptide wiedergefunden wurden. Zwei
biotinylierte Peptide von α-Casein, die vor der Anreicherung
nicht in der Probe gemessen wurden, konnten nach der An-
reicherung nachgewiesen werden. Dies zeigt, dass diese
beiden Peptide durch die Anreicherung in der Probe konzen-
triert wurden und danach in größerer Menge vorhanden
waren. Bestätigt wird das auch durch das Fehlen unphos -
pho rylierter α-Casein-Peptide nach der Anreicherung. Wäh-
rend vor der Anreicherung vier unphosphorylierte Peptide
vorhanden waren, ließen sich diese nach der Anreicherung
nicht mehr bestimmen.
Dass es während der Anreicherung zu Verlusten an biotiny-
lierten Peptiden kam, ist wahrscheinlich auf zu hohe Konzen-
tration an DTT und Biotin in der Ausgangsprobe zurück -
zuführen, wie auch schon in Kapitel 2.5 beschrieben.
4. Biotinylierung auf Proteinebene
Dass die Biotinylierung und Anreicherung von Phosphopep-
tiden gut funktioniert, konnte mit den vorherigen Versuchen
gezeigt werden. Um zu überprüfen, ob sich ähnlich gute Er-
gebnisse auch auf Proteinebene erzielen lassen, wurde
hierzu ein Versuch mit unverdautem α-Casein durchgeführt.
Modifizierung und Biotinylierung von α-Casein wurde unter
den gleichen Bedingungen, wie bei den Peptiden durchge-
führt. Auch hier wurde ein vergleichender Versuch zur Bioti-
nylierung in HEPES- und Harnstoff-Puffer gemacht, wobei
sich, wie unter 3.2 schon vermutet, herausstellte, dass
Harnstoff-Puffer bei der Biotinmodifizierung auch auf Pro-
teinebene günstiger war (Ergebnisse dazu sind nicht darge-
stellt). Nach der Biotinylierung in Harnstoff-Puffer wurde das
Protein tryptisch verdaut und massenspektrometrisch analy-
siert.
Tabelle 11 stellt die Ergebnisse der Massenspektrometrie-
Analyse nach dem Biotinylierungsschritt dar. Die ermittelten
Massenintensitäten zeigen, dass eine Biotinylierung auf Pro-
teinebene teilweise funktioniert hat. Massen von nur mit
DTT-modifizierten Peptiden konnten bis auf eine, nicht de-
tektiert werden, da sich Biotin erfolgreich an DTT angelagert
hat. Die Massen für zwei biotinylierte Peptide wurden mit In-
tensitäten von über 104 gemessen. Die beiden anderen bioti-
nylierten Peptide wurden nicht detektiert. Da für diese
beiden Peptide auch keine Massen der DTT-modifizierten
Derivaten gemessen wurde, ist es möglich, dass sie trotz-
dem biotinyliert wurden und erst, wie in Kapitel 3.2 gezeigt,
durch die Avidin-Anreicherung detektierbar wären.
5. Zusammenfassung und Ausblick
Die Ergebnisse zeigen, dass grundlegende Reaktionsbedin-
gungen für die chemische Modifizierung von phosphorylier-
ten Peptiden und ihre anschließende Anreicherung optimiert
wurden.
Methoden zur Identifizierung von posttranslationalen Modifikationen in Proteinen
32
Masse [Da] Schema des Peptids
Massenintensität
Vor der Avidin-Anreicherung
nach der Avidin-Anreicherung
-CaseinPhospho-peptide
779,65 - 1,65*104
981,38 - 7,91*103
723,38 1,81*105 1,46*106
820,38 2,07*105 4,17*105
-Caseinunphosphory-lierte Peptide
669,34 HIQKEDVPSER 4,99*104 -
634,35 YLGYLEQLLR 4,04*104 -
880,47 HQGLPQEVLNENLLR 7,07*103 -
692,86 FFVAPFPEVFGK 1,08*105 -
-Casein
857,02 8,38*105 1,45*105
980,42 2,70*104 1,57*103
Tab. 10: Ergebnisse zur Anreicherung der biotinylierten Phosphopeptidenvon α- und β-Casein, biotinylierte Peptide wurden über ihre 3-fach proto-nierte Masse detektiert und unphosphorylierte Peptide von α-Caseinüber ihre 2-fach protonierte Masse.
Masse [Da] Schema des Peptids IntensitätExtrahierte Ionen-chromatogramme Massenspektrum
943,37 - - -
1020,38 - - -
858,91 4,10*104
1004,49 - - -
779,65 - - -
981,38 - - -
723,38 1,46*104
820,38 2.43*104
Tab. 11: Biotinylierung von unverdautem α-Casein in Harnstoff-Puffer,DTT-modifizierte Peptide wurden über ihre 2-fach protonierte Masse detektiert und biotinylierte Peptide über ihre 3-fach protonierte Masse.
Die Reaktionsbedingungen zur β-Eliminierung und anschlie-
ßender DTT-Addition wurde mit Hilfe des Standardphospho-
peptids „DIGSpESpTEDQAMEDIK“ hinsichtlich Reaktions -
zeit, Reaktionstemperatur und DTT-Überschuss optimiert. Es
wurde gezeigt, dass Biotin sehr gut an das DTT-modifizierte
Peptid bindet und dass das biotinylierte Peptid anschließend
erfolgreich über eine Avidin-Säule angereichert wurde.
Weitere positive Ergebnisse wurden bei der Biotinylierung
und Anreicherung von Phosphopeptiden der Proteine α- und
β-Casein erzielt. Es wurde nachgewiesen, dass sich Phos-
phopeptide von unphosphorylierten Peptiden trennen lassen.
Dass auch auf Proteinebene eine Biotinylierung funktioniert,
wurde am Beispiel von α-Casein gezeigt.
In weiteren Versuchen sollte die Entfernung von DTT vor der
Biotinylierung und die Biotin-Entfernung vor der Anreicherung
mittels Avidin-Affinitätschromatografie der Phosphopeptide
optimiert werden. Anschließend könnte die Anreicherung
phosphorylierter Proteine aus komplexen Proben, wie Hefe-
proteomen und Mausproteomen durchgeführt werden.
Sind die Methoden für komplexe Proben etabliert, kann die
Modifizierung der Phosphoproteine mit Hilfe des Biotin -
gekoppelten MeCAT®-Reagenzes der Proteome Factory AG
erfolgen. Über den Biotinteil des Reagenzes kann die Anrei-
cherung der Phosphoproteine mittels Avidin-Säule erfolgen.
MeCAT® ermöglicht zusätzlich die differentielle Markierung
von Proteinen und Proteingemischen, um Proteome von 2
oder mehr unterschiedlichen Proben quantitativ zu verglei-
chen. Dafür werden die Proben mit leichten bzw. schweren
MeCAT®-Reagenzien markiert und die Proteine über Flüssig-
chromatographie getrennt. Mittels ICP-MS ist dann die Ab-
solutquantifizierung und mittels ESI-MS oder MALDI-MS die
Identifikation der Proteinen möglich.
Literatur
[Ada 01] Adamczyk, M., et al.: Selective analysis of
phosphopeptides within a protein mixture by
chemical modification, reversible biotinylation
and mass spectrometry, Rapid Communications
in Mass Spectrometry 15(16): S. 1481 – 1488,
2001.
[Blo 04] Blom, N.: Prediction of post-translational glyco-
sylation and phosphorylation of Proteins from
the amino acid sequence, Proteomics 4,
S. 1633 – 1649, 2004.
[Dea 00] Dean, D. J. and G. D. Cartee: Calorie restriction
increases insulin-stimulated tyrosine phospho-
rylation of insulin receptor and insulin receptor
substrate-1 in rat skeletal muscle, Acta Physiol
Scand 169, S. 133 – 139, 2000.
[Dou 97] Douville, E. and J. Downward: EGF induced SOS
phosphorylation in PC12 cells involves P90
RSK-2, Oncogene 15, S. 373 – 383, 2000.
[Dun 00] Dunn, M. J.: Genome to Proteome – Advances in
the Practice and Application of Proteomics,
Wiley-VCH, Weinheim, 2000.
[Gos 01] Goshe, M. B., et al.: Phosphoprotein Isotope-
Coded Affinity Tag Approach for Isolating and
Quantitating Phosphopeptides in Proteome-
Wide Analyses, Anal. Chem. 73(11): S. 2578 –
2586, 2001.
[Kis 01] Kishi, H., et al.: Osmotic shock induces G1 ar-
rest through p53 phosphorylation at Ser33 by
activated p38MAPK without phosphorylation at
Ser15 and Ser20, J Biol Chem 276, S. 39115 –
39122, 2001.
[Leh 05] Lehmann, K. and R. M. Kamp: Proteomics- An-
reicherung von Phosphoproteinen,
Forschungsberichte der Technische Fachhoch-
schule Berlin, S. 114 – 116, 2005.
[Lot 06] Lottspeich, F.:Bioanalytik, Spektrum Akademi-
scher Verlag, 2006.
[Luo 01] Luo, Z., et al.: Ultraviolet radiation alters the
phosphorylation of RNA polymerase II large
subunit and accelerates its proteasome-depen-
dent degradation, Mutat Res 486, S. 259 – 274,
2001.
[Oda 01] Oda, Y., et al.: Enrichment analysis of phospho-
rylated proteins as a tool for probing the phos-
phoproteome, Nat Biotech 19(4): S. 379 – 382,
2001.
[Ori 09] Oriente, F., et al.: Overproduction of phospho-
protein enriched in diabetes (PED) induces me-
sangial expansion and upregulates protein
kinase C-β activity and TGF-β1 expression, Dia-
betologia 52(12): S. 2642 – 2652, 2009.
[Ran 02] Rank, K. B., et al.:Direct interaction of soluble
human recombinant tau protein with Aβ 1-42
results in tau aggregation and hyperphosphory-
lation by tau protein kinase II. FEBS Lett. 514
(2 – 3): S. 263 – 268, 2002.
[Sch 01] Schrattenholz, A.: Methoden der Proteomfor-
schung, Spektrum Akademischer Verlag, 2001
[Ste 08] Stephani-Kosin, K. and R. M. Kamp: Proteomics
– Anreicherung von phosphorylierten Protei-
nen. Methoden in der biomedizinischen Ana-
lyse, Forschungsberichte der Technische
Fachhochschule Berlin, S. 67 – 70, 2008.
[Whi 98] White, R. L.: Tumor suppressing pathways, Cell
92(5): S. 591 – 592, 1998.
Fachbereich V Life Sciences and Technology
33
Kontakt
Prof. Dr.-Ing. Roza Maria Kamp
Beuth Hochschule für Technik Berlin
FB V Life Sciences and Technology - Forum Seestraße
Seestraße 64
13347 Berlin
Tel.: (030) 45 04 - 39 23
E-Mail: [email protected]
Kooperationspartner
Proteome Factory AG
Dr.-Ing. Christian Scheler
Magnusstr. 11
12489 Berlin
Tel.: (030) 20 61 - 62 65
Fax: (030) 20 61 - 62 65
E-Mail: [email protected]
Methoden zur Identifizierung von posttranslationalen Modifikationen in Proteinen
34
1. Einleitung
Ein Text-to-Speech(TTS)-System ist ein Softwaresystem, wel-
ches elektronisch vorliegende Texte in gesprochene Sprache
umsetzt. Einsatzgebiete sind zum Beispiel Vorlesesysteme
für Sehbehinderte, Sprechhilfen für Sprechbehinderte oder
automatische Informationssysteme mit Möglichkeiten zur
Audiokommunikation.
Bei der Generierung der Sprachsignale kommen dabei un-
terschiedliche Methoden zur Anwendung, die von der Wie-
dergabe kompletter Aufzeichnungen bis zur vollständig
künstlichen Synthese der Laute reichen. Im Rahmen langjäh-
riger Forschungsarbeit wurde von Prof. Mixdorff ein Text-to-
Speech-Sprachsynthesesystem (TFHTTS) entwickelt,
welches auf der Verkettung von aufgezeichneten Sprachbau-
steinen (Diphon-Synthese) basiert und dessen Kernaspekt
die Generierung von Steuerungsdaten hierfür ist. Im Rah-
men der Forschungsassistenz wurde es gemäß Industrie-
standards verbessert und erweitert.
Das System ist multilingual aufgebaut und wurde für die
Sprachen Deutsch, Englisch, Französisch und Italienisch ein-
gerichtet. Weitere Sprachen lassen sich zukünftig in einfa-
cher Weise durch Erstellen entsprechender Spezifikationen
hinzufügen.
Für die Generierung der Steuerdaten ist zunächst eine lin-
guistische Vorverarbeitung erforderlich, welche eine phone-
tische Transkription des vorliegenden Textes erzeugt.
Aufbauend auf dieser mit Transkription werden zunächst die
Dauern der einzelnen Laute (Phoneme) sowohl über Regeln,
als auch über ein künstliches neuronales Netz berechnet.
Abschließend wird die Sprachmelodie (Grundfrequenzkon-
tur) algorithmisch über ein Intonationsmodell bestimmt und
die Ausgabe über das freie Sprachsynthesesystem MBROLA
(Dut96) realisiert.
Zur Umsetzung des Forschungsvorhabens wurde der Groß-
teil des vorhandenen Projekts objektorientiert und weitest-
gehend plattformunabhängig in der Programmiersprache
C++ reimplementiert, in seiner Funktionalität verbessert und
erweitert. Zielstellung war neben einer komplett Unicode-fä-
higen Verarbeitung (UNC10) auch eine wesentlich bessere
Trennung von Steuerungsdaten und Programmcode. Zugrun-
delegendes Interesse seitens der Hochschule war vor allem
ein transparentes und gut dokumentiertes Design, welches
den Einsatz im Unterricht frei von kommerziellen Lizenzen
anschaulich ermöglicht und die Weiterentwicklung des Soft-
wareprojekts nebst relevanter Forschung über den Zeitraum
der Forschungsassistenz hinaus sicherstellt.
Bei der Kooperation mit der voice INTER connect GmbH
wurde vor allem auf eine bessere linguistische Analyse des
Textes und einer damit einhergehenden Verbesserung der
Ausgaben der Vorverarbeitung Wert gelegt. Dafür wurde
unter anderem eine XML-Schnittstelle spezifiziert und imple-
mentiert, die den reibungslosen Austausch der Vorverarbei-
tungsergebnisse zwischen hochschuleigenem Code und
Software seitens des Kooperationspartners ermöglicht.
Zusätzlich wurden eine Reihe von Problemfällen, beispiels-
weise bei der automatischen Satztendeerkennung katalogi-
siert und pragmatische Entscheidungen über die
gewünschte Vollständigkeit der Lösungen getroffen.
2. Stand der Entwicklung zu Beginn des Projekts
Ausgangspunkt war ein bedingt lauffähiges Softwareprojekt
Fachbereich VI Informatik und Medien
35
Weiterentwicklung eines SprachsynthesesystemsDipl.-Ing. Andreas Hilbert, Prof. Dr. Hansjörg MixdorffKooperationspartner: voice INTER connect GmbH
Ein Text-to-Speech-System ist ein Softwaresystem, welches elektronisch vorliegende Texte in gesprochene Sprache um-
setzt. Im Rahmen langjähriger Forschungsarbeit wurde von Prof. Mixdorff ein solches System entwickelt. Kernaspekt des
Systems ist die Generierung von Steuerungsdaten für eine akustische Sprachsynthese, welche hierbei auf der Verkettung
von aufgezeichneten Sprachbausteinen (Diphone) basiert. Im Rahmen einer Forschungsassistenz wurde dieses System an
aktuelle Standards angepasst und erweitert.
A Text-to-Speech-System is a software system that generates spoken language out of electronically available text. During
long lasting research Prof. Dr. Mixdorff developed such system which focuses on the generation of control data for the
acoustic synthesis which in this case is based on the concatenation of pre-recorded pieces of real speech signals (di-
phones). In the course of the project Forschungsassistenz V the software system has been further developed and adjusted
to meet current standards of software technology.
(Text-to-Speech-System der Technischen Fachhochschule
Berlin, TFHTTS), welches sehr stark prozedural geprägt war.
Es handelte sich jedoch bereits um ein multilingual nutzba-
res Programm, welches dank späterer Erweiterungen bereits
den MBROLA-Diphon-Synthesizer (MBR05) ansprechen
konnte.
Im Urzustand beschränkte sich die gesamte Prozesskette
auf eine erweiterte ASCII-Zeichenverarbeitung. Das Projekt
war bereits modular aufgebaut, was durch eine Abgrenzung
nach Funktionsblöcken und entsprechende Funktionsschnitt-
stellen realisiert wurde. Der entsprechende Aufbau ergibt
sich aus pragmatischen Überlegungen in Analogie zur
menschlichen Sprachproduktion, beinhaltet aber durch sein
lineares Design kaum Möglichkeiten für Rückkopplungen. In
Anlehnung an Verbmobil (Bub99, Ver99) basierten sämtliche
Schnittstellen auf in den Textzeichenstrom eingefügte Zu-
satzinformationen.
Die in Abbildung 1 dargestellten Module bewältigen die im
Folgenden genannten Aufgaben:
Textformatierung: Einteilung der Zeichen des Textes in
Gruppen(Buchstaben, Ziffern etc.), Behandlung von Son-
derzeichen und möglichen Textgrenzen, Weiterreichen
von Zusatzinformationen über ein eigenes Schnittstel-
lenformat.
Vorverarbeitung: Kennzeichnung von Textelementen und
deren Grenzen, Zahlformatkonvertierung und Transfor-
mation von Großbuchstaben.
Graphem-zu-Phonem-Umsetzung(GPU): Kontext- und
sprachabhängige phonetische Transkription der Textele-
mente einschließlich Zusatzinformationen wie Silbenak-
zente und Wortart.
Phonetische Nachbearbeitung: Disambiguierung der
Wortart, eventuelle Akzentmodifikationen, Behandlung
von Liaison im Französischen, Hinzufügen gewichteter
Phrasengrenzen.
Lautdauerberechnung: Dauerberechnung für jedes Pho-
nem nach Regeln von Klatt und Kohler bzw. ein künstli-
ches Neuronales Netz.
Grundfrequenzberechnung: Berechnung der Sprachme-
lodie (Grundfrequenz-/F0-Kontur) und Zuordnung zu den
entsprechenden Phonemen anhand des Fujisaki-Intona-
tionsmodells (Mix02).
Das Projekt ist als dynamische Programmbibliothek konzi-
piert und bedient sich einer mittlerweile veralteten Version
der Microsoft-Speech-API (Speech Application Programming
Interface Version 3).
Ein essentieller Aspekt der Softwareumstellung war es,
neue Algorithmen zur Auswertung der vorliegenden Wörter-
bücher, Regeln und Grammatiken zu entwerfen, da diese
nicht im Quellcode vorlagen und somit eine Anpassung an
das neu zu verwendende Unicode-Textformat nicht möglich
war. Dies stellt außerdem sicher, dass die Programmquellen
zukünftig für jedermann transparent sind und somit ausbau-
fähig bleiben.
3. Umsetzung
Im Folgenden werden exemplarisch Vorhaben geschildert,
die während der Forschungsassistenz umgesetzt werden
konnten. Aufgrund der Fülle der implementierten Funktiona-
lität wird im Einzelnen nur auf die neu entworfenen Text-
und Wörterbuchklassen und die Dauerbewertung durch ein
künstliches neuronales Netz näher eingegangen. In Anleh-
nung an das Vorhaben eine Lehrsoftware zu schaffen, wurde
das alte Projekt TFHTTS in „ttsKit“ umbenannt.
3.1 Linguistische Vorverarbeitung
Für die Generierung von natürlich klingender Sprache ist es
unumgänglich, die Struktur eines vorliegenden Textes zu
analysieren und ihn zunächst in seine relevanten Bestand-
teile zu gliedern, um daraufhin die nötigen Informationen zu
gewinnen, welche Aussprache, lokale Geschwindigkeit und
Sprachmelodie beeinflussen. Ausgehend von den Modulen,
Weiterentwicklung eines Sprachsynthesesystems
36
Abb. 1: Textgliederung
Abb. 2: Strukturübersicht
die im alten System unter Formatierung und Vorverarbeitung
zusammengefasst sind, wurde in Übereinstimmung mit dem
Kooperationspartner beschlossen, die gesamte Vorverarbei-
tung neu zu entwickeln und entsprechend zu implementie-
ren. Zum Einsatz kamen dabei universelle Containerklassen
der C++ Standard Template Library(STL).
Ausgegangen wurde dabei von einer hierarchischen Text-
struktur, die beginnend von einem Element der Klasse Text
eine Liste mit Elementen der Klasse Satz enthält. Diese ent-
halten dann weiterführend jeweils Listen mit Elementen der
Klassen Phrase, Phrasenelement, Wort, Silbe und Phonem.
Abbildung 2 gibt einen Überblick über die angedachte Text-
zerlegungsstruktur, die sich in dieser Weise auch in der pro-
gramminternen Repräsentation der Textklasseninstanzen
wiederfindet.
Bezüglich der Unicode-Verarbeitung wurde mit der IBM-Bi-
bliothek ICU (ICU10) ein geeignetes Werkzeug sowohl zur
Verarbeitung von sprachunabhängigen Unicode-Daten, als
auch zur flexibel anpassbaren Zerlegung von Texten gefun-
den (Boundary Analysis).
Ein Problem der Zerlegung sei hier kurz am Beispiel der Auf-
trennung von Text in Sätze erläutert. Üblicherweise konzen-
trieren sich die Probleme hierbei auf die ambigue Ver wen -
dung des Symbols „.“(Punkt, vgl. Kil07), welches sowohl zur
Kennzeichnung eines Satzendes, als auch für Abkürzungen
und Ordnungszahlen(deutsch) verwendet wird. Aus pragma-
tischen Erwägungen heraus wurden nur Lösungen für typi-
sche Fälle entwickelt und Sonderfälle, die auch das „Heart
of Gold“ der DFKI (Sch05) nicht bewältigt, als relativ un-
wahrscheinlich ausgeklammert (vgl. Sch10).
Als erstes werden dabei anhand der Interpunktion Kandida-
ten für Satzenden ermittelt. Dann wird eine Liste von regulä-
ren Ausdrücken an den Kandidaten auf Standardfälle
getestet und eine entsprechende Gewichtung zurückgege-
ben. Kann keine eindeutige Entscheidung getroffen werden,
werden Wörterbuchtests durchgeführt. Erfolgreich wirkt die-
ser Mechanismus z.B. bei:
„… der chil. Staatspräsident …“ (richtig negativ trotz un-
bekannter Abk. „chil.“) und
„… zur Verkleinerung der Bw. Der Minister versprach…“
(richtig positiv trotz bekannter Abk. „Bw.“).
Falsche Entscheidungen werden aber z.B. im Fall von:
„… und hatten lange gechattet. Freunde der 30jährigen
überlegten…“ (falsch negativ) oder
„… hatten die afgh. Taliban …“ (falsch positiv“) getrof-
fen, die entweder durch entsprechende Aufnahme von
„gechattet“, „afgh.“ und „Taliban“ ins Wörterbuch oder
die Implementierung komplexerer Grammatiken vermie-
den werden könnten.
Ähnliche Probleme existieren auch auf den tieferliegenden
Textebenen und entsprechende Mechanismen zu deren Be-
handlung wurden implementiert. Die Behandlung von Zah-
lenformaten, insbesondere die geschlechtsspezifische
Bestimmung von Ordnungszahlen, zu deren Behandlung
sich der Kooperationspartner bereit erklärt hat, bleibt aber
zunächst recht unvollständig.
Wichtiger Kernpunkt der Textanalyse ist die robuste Auswer-
tung von Zeichenketten über Wörterbücher und Regelwerke.
Hierzu wurde eine Basisklasse („Dict“) entworfen, von der
aus eine Reihe von abgeleiteten Klassen („MainDict“,
„RulesDict“, „SubstDict“ …) und eine Auswertungsklasse
(„DictSearch“) entwickelt und implementiert wurde. Alle
unterstützen das Einlesen von Standardtextdateien und sind
damit jederzeit erweiterbar.
Erste Aufgabe war es, für die Umsetzung von Graphemen
eine Hauptwörterbuchklasse zu entwickeln, die entspre-
chende Mechanismen zur Behandlung bereits vorliegender
Wörterbücher bereitstellt. Grundlage für die Repräsentation
der Aussprache ist hierbei SAMPA (Speech Assessment Me-
thods Phonetic Alphabet, Wel97, „schön“→„S2:n“). Um die
Aussprache zu bestimmen, werden entsprechende phoneti-
sche Regeln angewendet oder sie wird direkt in Wörterbü-
chern nachgeschlagen.
Grundlage des aktuellen Projekts sind vier Vollformwörter-
bücher für die implementierten Sprachen, die jeweils kom-
plette Wörter mit den dazugehörigen SAMPA-Strings und
Kennzeichnung der möglichen Wortarten enthalten. Zur Il-
lustration der Notwendigkeit sei hier auf die englischen Wör-
ter „tough“, „through“ und „though“ verwiesen (siehe
Tabelle 1)
Die Hauptwörterbücher umfassen jeweils ca.100.000 –
200.000 Einträge und werden zur schnellen Suche intern
über eine Hashtable gemanagt. Die Auswertungsmethoden
der Klasse „DictSearch“ führen dabei eine rekursive Zerle-
gung des Eingabestrings durch, bis passende Einträge ge-
funden werden. Als optimale Ausgabe wird dabei das
Fachbereich VI Informatik und Medien
37
Tab. 1: Wörterbuchauszug („en_bigDict.txt“)
Grapheme Phoneme (EN-SAMPA)
Wortart
tough tVf AJ,AV,VB
through Tru PR
though D@U PR,AV
Ergebnis mit der geringsten Rekursionstiefe betrachtet, was
gleichbedeutend mit einer Zerlegung in möglichst wenige
Teilwörter sein sollte. Problemfälle wie z.B. „Veranstal -
tung|s|kalender“ vs. „Veranstaltung|skalen|der“ werden
über weitere Bewertungen gelöst. Zusätzliche Features um-
fassen den vorrangigen Test auf mögliche Endungen (siehe
Tabelle 2), Silbengrenzen- und Akzentmarkierungen, Liai-
son, mehrere Wortart- und Aussprachevarianten. Die Disam-
biguierung von Wortart und Aussprachevariante ist bisher
nur rückblickend möglich.
Um eine Aussprache von nicht verzeichneten Wörtern zu er-
möglichen, werden entsprechende Regeln über die Klassen
„RulesDict“ und „SubstDict“ ausgewertet. Die Auswertungs-
mechanismen zählen neben der Hauptwörterbuchsuche zu
den komplexeren Implementierungen und werden in folgen-
den Verarbeitungsschritten unter anderem auch für eine ro-
buste Silbifizierung, Modifikation von Wortakzenten (vgl.
Bie66) und das Auffinden zusätzlicher Phrasengrenzen ein-
gesetzt. Die Regeln bestehen dabei aus einem beliebig
durch Ersetzungen erweiterbaren Prä- und Postkontext,
einem Schlüssel und einer zugeordneten Ausgabe. Eine zu-
treffende Regel wird unter möglichen Kandidaten so ausge-
geben, dass die bewertete Trefferlänge maximiert wird, bei
der Graphem-Phonem-Umsetzung greift zusätzlich wie-
derum das Kriterium der minimalen Rekursionstiefe wäh-
rend der Zerlegung. Tabelle 3 zeigt bruchstückhaft die
vielfältige Einsetzbarkeit dieser Mechanismen.
Ausgehend von einer gelungenen Übersetzung werden in
der Texthierarchie aufsteigend Silben- und Wortakzente mo-
difiziert und Phrasengrenzen nach Regeln(Wortart, Funkti-
onswortstatus) und Balancekriterien hinzugefügt. Damit ist
die Stufe der Textgliederung inklusive der Typbestimmung
für die Elemente jeder Ebene abgeschlossen.
Auf Wunsch des Kooperationspartners hin wurde zusätzlich
ein unabhängiges Schnittstellenformat über ein XML-Doku-
ment realisiert, welches den Austausch der Ergebnisse über
Programmgrenzen hinweg erlaubt. Ebenso wurden Metho-
den zum Einlesen eines solchen Dokuments implementiert,
welche in der Lage sind, den Zustand der Textklasseninstanz
ohne erneute Verarbeitung originalgetreu wieder herzustel-
len.
3.2 Lautdauerberechnungen
Sind die phonetischen Übersetzungen mit Akzentverteilung
und Textstruktur bekannt, gibt es mehrere Möglichkeiten
aus diesen Informationen die Aussprachedauer der einzel-
nen Laute zu bestimmen. Einen direkten Ansatz bilden hier
die Regeln von Klatt und Kohler (Koh86), basierend auf Pho-
nemdauerkonfigurationen für die verschiedenen Sprachen.
Mit der inhärenten Dauer dinh,i eines Phonems i, dessen mi-
nimaler Dauer dmin,i, einem zu modifizierenden Dehnungs-
faktors prcnti und der Modellierung lokaler Einflüsse ki ergibt
sich die Lautdauer di in (1) zu:
di = ki · {prcnti (dinh,i – dmin,i) + dmin,i} (1)
Speziell für die Dauerberechnung hat sich jedoch gezeigt
(vgl. Mix02), dass ein künstliches neuronales Netz (KNN)
Lautdauern natürlicher vorhersagen kann. In Analogie zum
menschlichen Gehirn besteht ein solches Netz aus einer
Vielzahl von künstlichen, miteinander vernetzten Neuronen.
Diese sind in Schichten angeordnet (Eingabeschicht, ver-
deckte Schichten und Ausgabeschicht) und bilden Eingabe-
vektoren auf Ausgabevektoren ab. Sinn solcher Strukturen
ist es, durch überwachtes Lernen bekannter Ein- und Ausga-
bepaare ein bestimmtes Verhalten zu trainieren, welches
auch bei unbekannten Eingabedaten zu den gewünschten
Weiterentwicklung eines Sprachsynthesesystems
38
Tab. 2: Wörterbucherweiterungen ("de_bigDict")
Tab. 3: Kurzbeispiele für Regeleinsatz
Grapheme Phoneme (DN-SAMPA)
Wortart
organ~ISI ?OR-ga:-n Sn
~ISIismus "Is-mUs Sm Sm
~ISIistinnen "Is-tI-n@n Sfp
Präkontext Schlüssel Postkontext Ergebnis Substitutionen Beispiel
Regel-GPU C i sch I C=b, d, f, g… F(i)sch
. i Ce i: Kr(i)se
Silbifizierung &$s . ts& sep1 &=a:, a, E,e :… kE6-ts@
&$ . Sv& sep2 $=b, C, d, f… mIt-SvaN
Phrasengrenzen . . CO+*+AR +6 s=Sf, Sm, Sn… …
#+s+s+VB . PA+PR+s -2 …
Akzentmod. PA . Z+# +1 Z=’zu’… …
s+Z . v -1 v=’VB’… …
Ausgaben führt. Dazu gibt es eine Reihe von Lernverfahren,
die im Wesentlichen auf die Minimierung des mittleren Aus-
gabefehlers durch Anpassung der Verknüpfungsgewichte
abzielen. Für weitere Informationen sei hier auf entspre-
chende Literatur verwiesen (Cal03).
Ein wesentlicher Nachteil von künstlichen Netzen ist es,
dass für das Training eine Vielzahl von bekannten Daten vor-
liegen muss, was in der Sprachsignalverarbeitung aufgrund
aufwändiger Annotationsarbeit stets ein Problem darstellt.
Nachdem bei Tests einer bereits vorliegenden Implementie-
rung Schwächen (sporadische Abweichungen um den Faktor
50) festgestellt wurden, wurde ein komplett neues Training
mit einer leicht abgewandelten Netztopologie und einer an-
schließend Neuimplementierung durchgeführt. Als Parame-
ter, welche die relevanten Informationen über ein einzelnes
Phonem charakterisieren (Feature-Vektor), wurden ausge-
hend von vorangegangenen Untersuchungen die in Tabelle 4
dargestellten Eigenschaften verwendet.
Insgesamt ergibt sich ein Eingabevektor mit 263 Elementen.
Das Netz ist ein vollständig verbundenes, klassisches Feed-
Forward-Netz mit 4 Schichten (263, 23, 9, 1). Netzdesign und
Training wurden mit Hilfe des Stuttgart Neural Network Si-
mulator (SNNS, Zel10) durchgeführt. Als Grundlage dienten
hierzu Daten, die bereits ausreichend annotiert vorlagen,
aber erst aus unterschiedlichen Dateien und Formaten
(unter Ergänzung oder Konvertierung von Informationen)
zusammengeführt werden mussten. Basis der Daten bildet
deutsche Nachrichtensprache mit Annotationen zu insgesamt
35.185 Phonemen (13.153 Silben). Nach Filterung unbrauch-
barer Daten verblieben etwa 40 Minuten Sprachmaterial für
die folgenden Auswertungen.
Aufgrund ihres geringen Umfangs wurden 80% der Daten für
das Training verwendet, die restlichen 20% für das Testen
des Ausgabefehlers. Dazu wurden aus den vorliegenden In-
formationen entsprechende Ein- und Ausgabevektoren er-
zeugt, die Auswahl erfolgte dabei zufällig. Die Daten geben
dabei eine Zielfehlertoleranz von 20% auf den Testdaten vor,
nach der das Training abgebrochen werden sollte, um eine
Überanpassung des Netzes zu vermeiden. Kleinere Fehler
können nach (Cal03) nur durch eine höhere Anzahl von Trai-
ningspattern erreicht werden. Die schlechte Balance zwi-
schen der Anzahl von Test- und Trainingsdaten birgt
dennoch ein erhöhtes Risiko für eine Überanpassung.
Zur Qualitätsbewertung wurden automatische Untersuchun-
gen auf den Gesamtdaten durchgeführt. Dazu wurden zu-
nächst die implementierten Dauerberechnungen anhand der
Annotationsinformationen durchgeführt. In einem zweiten
Schritt wurden diese Informationen über die komplette Vor-
verarbeitung des Systems ermittelt. Nichtzuordenbare
Daten wurden aus den Ergebnislisten entfernt, mögliche
Korrekturen aber vorgenommen (z.B. Vereinheitlichung der
Wortendung „…er“, SAMPA „6“ zu „@6“). Unterschiede in
den Feature-Vektoren waren dennoch zu erwarten, z.B.
durch abweichende Bestimmung der Segmentgrenzen.
Die ausgewerteten Daten werden im Folgenden mit Klatt
(Dauerberechnung nach Klatt-Formel), alt (Berechnung
durch die vorliegende Implementierung des alten KNN) und
neu (Berechnung durch die Implementierung des aktuellen
KNN) bezeichnet. Die Zusätze stehen für die Verwendung
der Informationen aus den annotierten Daten (direkt) bzw.
für die Nutzung der jeweils zutreffenden Textvorverarbei-
tung (VV).
Fachbereich VI Informatik und Medien
39
Tab. 4: Struktur des Eingabevektors für das KNN
Teilvektor Kodierte Features Anzahl Intervall
Parameterset A phonologisch (je Phonem) 13 [i-2,i+2]
Parameterset B spektral (statisch je Phonem) 21 [i-2,i+2]
Silbenstruktur Ansatz, Nukleus, Koda 3 [i]
Position (Laut, Silbe) Index, Größe 7+7 [i]
Position (Silbe, Wort) Index, Größe 10+10 [i]
Position (Wort, Phrase) Index, Größe 10+10 [i]
Position (Phrase, Satz) Index, Größe 8+8 [i]
Akzent Silbe, Wort, (*) 1+1+(1) [i]
Wortklasse Funktions-, Inhaltswort 1 [i]
Inhärente Dauer Klassenindex (statisch je Phonem) 6 [i]
Grenzstärke (je Silbe) Silbe,Wort, Phrase,Satz (links, rechts) 5+5 [i]
Von den Lautdauern kann angenommen werden kann, dass
sie logarithmisch normalverteilt sind, entsprechend sind
auch die Fehler zu bewerten. Neben den üblichen statisti-
schen Informationen (Mittelwert �, Standardabweichung �,
absoluter Fehler F ) sind hier vor allem der relative Fehler f
und der Korrelationskoeffizient p interessant. Mit der wah-
ren Größe X und der geschätzten Größe Y gelten dabei fol-
gende Zusammenhänge (2):
(2)
Tabelle 5 und Tabelle 6 zeigen die entsprechenden numeri-
schen Ergebnisse.
Es zeigt sich, dass durch die Neugestaltung des KNN Fehler
deutlich vermindert werden konnten und dass die Fehler der
alten Dauerbestimmung voraussichtlich durch die alte Vor-
verarbeitung hervorgerufen werden, eher selten auftreten,
dafür aber extrem sind, was sich im Falle eines Auftretens
aber als sehr störend auswirkt (Beispiel: „Die Gänse bei-
ßen“, Dauer(@)=676ms, neu=77ms) und sich dementspre-
chend auch negativ auf die Intonationsbestimmung
auswirkt.
Abbildung 3 und Abbildung 4 zeigen die Häufigkeitsvertei-
lungen der logarithmierten relativen Fehler und weisen die
neue Verarbeitung als weniger fehlerbehaftet aus. Es sind
allerdings weitere Daten notwendig um eine eventuelle
Weiterentwicklung eines Sprachsynthesesystems
40
max [ms]max min [ms] max [ms] [ms] � [ms] �F [ms] �F [ms]
Annotation 13,3 460,0 69,3 38,7 0,0 0,0
Klatt (direkt) 42,5 190,0 84,4 21,5 15,1 39,2
Klatt (VV) 41,3 196,3 80,3 20,2 11,0 37,8
alt (direkt) 38,5 508,9 74,7 33,8 5,4 40,8
alt (VV) 15,5 2353,3 81,1 60,3 11,8 62,3
neu (direkt) 21,5 359,6 65,6 30,0 -3,7 30,8
neu (VV) 22,8 396,0 70,0 33,5 0,7 31,4
Y Px,y min (f ) max (f ) �‘f �‘f
Klatt (direkt) 0,255 – 0,845 5,767 0,130 0,217
Klatt (VV) 0,307 – 0,858 5,208 0,109 0,211
alt (direkt) 0,374 – 0,909 6,831 0,052 0,216
alt (VV) 0,267 – 0,918 54,286 0,079 0,215
neu (direkt) 0,625 – 0,883 3,870 – 0,003 0,164
neu (VV) 0,631 – 0,857 8,251 0,023 0,164
Tab. 5: Standardstatistik der Daueruntersuchung
Tab. 6: Erweiterte Statistik der Daueruntersuchung
Abb. 3: Häufigkeitsverteilung des relativen Fehlers (aus Annotation)
Abb. 4: Häufigkeitsverteilung des relativen Fehlers (aus Vorverarbeitung)
Überanpassung auszuschließen. Bei subjektiver Beobach-
tung unbekannter Texte konnten jedoch bisher keine gravie-
renden Mängel entdeckt werden, Verbesserungen bleiben
aber wünschenswert. Hierzu müssten aber genauer anno-
tierte Daten in großer Zahl vorliegen, was nicht ohne ent-
sprechend aufwendige Arbeit zu bewerkstelligen ist.
3.3 Weitere Arbeiten
Neben der Dauersteuerung ist die Intonationsberechnung
nach dem Fujisaki-Modell (vgl. Mix02) überarbeitet worden
und liegt in zwei unterschiedlichen Implementierungen
(Hochschule, Kooperationspartner) vor. Der grafischen Test-
oberfläche wurden diesbezüglich Steuerelemente hinzuge-
fügt, eine geeignete Evaluierung wurde bisher aber nicht
durchgeführt.
Zur weiteren Benutzbarkeit des MBROLA-Synthesizers (Mul-
tikerninkompatibilität), wurde eine neue Audioverarbeitung
implementiert (Klasse „AudioInterface“), die die Ausgabe-
daten des Synthesizers über die plattformunabhängige Au-
diobibliotheken PortAudio (Ben04) wiedergibt und über
libsndfile (Cas10) in Audiodateien speichert.
Im Rahmen des Projekts wurde parallel eine Software
(QtDictTest) entwickelt, die eine Fülle von Werkzeugen für in
der Sprachsignalverarbeitung typische Anwendungsfälle zu-
sammenfasst und dabei die Algorithmen des TTS nutzt.
Dazu zählt unter anderem die Generierung von Ausspra-
chestrings aus Texten, Konverter und Editoren für verschie-
dene Datenformate, vor allem im Umfeld von Praat (Boe09)
oder für Prof. Mixdorffs FujiParaEditor (Mix10). Die Software
spielte auch eine zentrale Rolle bei der Auswertung von
Sprachdaten die zu einer wissenschaftlichen Veröffentli-
chung des Forschungsassistenten über fremdsprachliche
Akzente führten (HMD10). Die Ergebnisse wurden im Rah-
men einer Postervorstellung auf der internationalen Konfe-
renz Speech Prosody 2010 in Chicago präsentiert.
4. Zusammenfassung
Es wird ein flexibles Softwaresystem bereitgestellt, dessen
Erweiterbarkeit sichtlich vereinfacht wurde. Die Mechanismen
arbeiten im Rahmen der Spezifikation zuverlässig und bieten
eine solide Grundlage für Sprach- und Regelerweiterungen.
Zusätzlich wurde komplett auf den Einsatz von proprietärem
Kode verzichtet, so dass alle Quellen frei zugänglich sind.
Somit können auch dort jederzeit Verbesserungen ohne er-
heblichen Aufwand umgesetzt werden. Durch Einsatz mo-
derner, gut gepflegter Bibliotheken und Datenformate ist
zudem die Zukunftssicherheit gewährleistet. Nachteile die-
ser Strategie lassen sich vor allem in einem erhöhten Re-
chenaufwand und Speicherbedarf festmachen. Die Aus- gabequalität des Systems hängt dabei stark von fehler-
freien, möglichst vollständigen Wörterbüchern und Regel-
werken ab. Auch hier konnte eine Reihe von Verbesserungen
bereits durchgeführt werden, der Arbeitsaufwand bei meh-
reren hunderttausend Einträgen ist jedoch vorstellbar.
Literatur
[Ben04] Bencina, R. & Burk, P.: PortAudio - An API for
Portable Real-Time Audio. In Greenbaum & Bar-
zel (Hrsg.): Audio Anecdotes, ISBN 1-56881-
104-7, A.K. Peters, Natick, S. 361 – 368, 2004.
[Bie66] Bierwisch, M.: Regeln für die Intonation deut-
scher Sätze. In: Studia grammatica VII,
S. 99–201, 1966.
[Boe09] Boersma, P.; Weenink, D.: Praat: doing phone-
tics by computer, Software,
http://www.praat.org/, 2009.
[Bub99] Bub, T.; Schwinn, J.: VERBMOBIL: The Evolution
of a Complex Large Speech-to-Speech Transla-
tion System. Proc. of Conf. on Spoken
Language Processing, 1999.
[Cal03] Callan, Robert: Neuronale Netze im Klartext,
Pearson Studium, München, 2003
[Cas10] de Castro Lopo, E.: libsndfile, Softwarebiblio-
thek, http://www.mega-nerd.com/libsndfile/,
2010
[Dut96] Dutoit, T.; Pagel, V.; Pierret, N.; Bataille, F.; van
der Vrecken, O.: The Mbrola Project: Towards A
Set Of High Quality Speech Synthesizers Free
Of Use For Non Commercial Purposes. Proc. of
the 4th International Conference on Spoken
Language, ICSLP 96, Philadelphia, 1996
[ICU10] ICU – International Components for Unicode,
2010, Softwarebibliothek, http://site.icu-pro-
ject.org/
[HMD10] Hilbert, A.; Mixdorff, H.; Ding, H.; Pfitzinger,
H.R.; Jokisch, O.: Prosodic analysis of German
produced by Russian and Chinese learners.
Proc. of the 5th Int. Conf. on Speech Prosody,
Chicago, 2010.
[Kil07] Kilian, N.: Zum Punkt gekommen. Über den
Nutzen von Zeichensetzung in einer deutschen
HPSG, Universität des Saarlandes, Diplomar-
beit, Saarbrücken, 2007.
[Koh86] Kohler, Klaus J.: Invariance and variability in
speech timing: from utterance to segment in
German. In: Perkell, J. S. (Hrsg.); Klatt, D. H.
(Hrsg.): Invariance and Variability in Speech
Processes, Lawrence Erlbaum, 1986, S. 268 –
289, Hillsdale NJ, U.S.A., 1986.
[MBR05] Dutoit, T.: MBROLA, Softwarebibliothek, The
Circuit Theory and Signal Processing Lab,
Faculté Polytechnique de Mons, Belgien, 2005.
Fachbereich VI Informatik und Medien
41
http://tcts.fpms.ac.be/synthesis/mbrola.html
[Mix02] Mixdorff, H.: An Integrated Approach to Mode-
ling German Prosody. Habilitation thesis sub-
mitted to TU Dresden. Vol. 25, „Studientexte
zur Sprachkommunikation“, w.e.b Universitäts-
verlag, Dresden, 2002.
[Mix10] Mixdorff, H.: FujiParaEditor, Software,
http://public.beuth-hochschule.de/~mix-
dorff/thesis/fujisaki.html, 2010.
[Sch05] Schäfer, U.: Heart of Gold – an XML-based
middleware for the integration of deep and
shallow natural language processing compo-
nents, User and Developer Documentation.
DFKI Language Technology Lab, Saarbrücken,
2005, http://heartofgold.dfki.de/doc/heart -
ofgolddoc.pdf
[Sch10] Schubert, R.: Hybride linguistische Analyse zur
Verbesserung der Prosodiemodellierung bei
TTS-Synthese. Technische Universität, Diplom-
arbeit, Dresden, 2010.
[UNC10] The Unicode Consortium: int. Zeichenstandard
für Software, http://unicode.org/, 2010.
[Ver00] Bundesministeriums für Bildung und For-
schung; Deutschen Forschungszentrums für
künstliche Intelligenz (1993 – 2000), Projekt
(Bub99), http://verbmobil.dfki.de/
[Wel97] Wells, J.C.: SAMPA computer readable phonetic
alphabet. In Gibbon, D., Moore, R. and Winski,
R. (Hrsg.): Handbook of Standards and Resour-
ces for Spoken Language Systems, Mouton de
Gruyter. Part IV, section B, Berlin and New York,
1997.
www.phon.ucl.ac.uk/home/sampa
[Zel10] Zell, A.; Planatscher, H. (Hrsg.): Stuttgart Neural
Network Simulator, Software, 2010.
http://www.ra.cs.uni-tuebingen.de/SNNS/
Kontakt
Prof. Dr. Hansjörg Mixdorff
Beuth Hochschule für Technik Berlin
Fachbereich VI Informatik und Medien
Luxemburger Straße 10
Tel.: (030) 45 04 - 23 64
E-Mail: [email protected]
Kooperationspartner
voice INTER connect GmbH
Dr.-Ing. Diane Hirschfeld
Tel.: (0351) 48 10 882
E-Mail: [email protected]
Weiterentwicklung eines Sprachsynthesesystems
42
Einleitung
Formelles wie informelles Lernen in der Grundausbildung
sowie das ganze Leben lang nimmt in unserer modernen
Wissensgesellschaft eine immer wichtigere Rolle an. Dabei
gewinnt das e-Learning immer mehr an Bedeutung. Eine
Kern-Anwendung des e-Learnings bilden die Lernraumsys-
teme. Diese werden nicht nur an Schulen und Hochschulen
eingesetzt, sondern werden auch in Firmen für die Weiterbil-
dung eingesetzt.
Die Hauptfunktionalitäten der gängigen Lernraumsysteme
können in drei Bereiche gegliedert werden:
· Erstellung, Bereitstellung und Verwaltung von Studien-
gängen, Kursen, und Lernmaterial
· Verwaltung von Nutzern
· Bereitstellung von Kommunikationstools wie E-Mail,
Chat, Foren oder Wikis
Nutzerdaten werden in Lernraumsystemen mit dem Haupt-
ziel gespeichert, einen Überblick über die erbrachte Leis-
tung der Lernenden zu bieten. Berichte und Statistiken über
Nutzerverhalten und Aussagen über die Beteiligung von
Nutzern in Online Kursen und den Ergebnissen, werden von
den Lernraumsystemen nur im geringen Maße angeboten.
Als kleines und dennoch illustratives Beispiel wie unzurei-
chend die Statistiken sind, wird an dieser Stelle erwähnt,
dass es in Lernraumsystemen nur schwer herauszufinden
ist, wie viele Lernende nie auf ein bestimmtes Lernmaterial
zugegriffen haben.
Die vorhandenen Statistiken sind selten mit guten Manage-
mentmöglichkeiten verknüpft. Für Organisationen im Bil-
dungsbereich sind Informationen zur Nutzungsart und
-weise der angebotenen Lehrveranstaltungen und ein für
Lehrende leicht handhabbares Management von entschei-
dender Bedeutung. Letztendlich kann dadurch das eigene
Lehrangebot und der erzielte Lernerfolg evaluiert und opti-
miert werden.
Ziel unserer Arbeit ist es, herkömmliche Lernraumsysteme
im Bereich Nutzungsdaten und Nutzerprofile zu ergänzen.
Als erstes stellen wir fest, dass Lernraumsysteme Nutzerda-
ten in einer Form speichern, die für die Analyse ungeeignet
sind. Analysen auf den Daten des Lernraumsystems selbst
benötigen daher mühsames und langwieriges Preproces-
sing. Es ist daher sinnvoll, wie in Analytical Processing oder
Data Mining üblich, ein Datenmodell zu definieren, welches
von der Datenspeicherung des Lernraumsystems getrennt
ist und sich für die Analyse besser eignet. Dadurch haben
wir gleichzeitig die Möglichkeit, dass als erster Schritt eine
Anonymisierung der Nutzerdaten stattfinden kann.
Unser Datenmodell ist ein relationales Schema, das Daten
und Nutzungsdaten, die vom LMS gespeichert werden, ver-
einigt. Folglich haben wir eine Systemarchitektur entworfen,
um die von einem LMS gespeicherten Daten in das Daten-
modell zu exportieren. Diese wurde für das LMS Moodle im-
plementiert. Zuletzt zeigen wir erste Ergebnisse der
Benutzung unseres Datenmodells bei der Analyse eines
Moodle-Kurses.
Fachbereich VI Informatik und Medien
43
Nutzerdaten und Nutzerprofile in Lernraumsystemen1
Dipl.-Inf. FH Benjamin Wolf, Prof. Dr. Agathe MerceronKooperationspartner: Dipl.-Math. André Krüger
Lernraumsysteme (LMS) werden an Schulen, Hochschulen sowie in Firmen eingesetzt. Berichte und Statistiken gehören
nicht zur ihren Kernfunktionalitäten und sind unzureichend vorhanden. Ziel unserer Arbeit ist es, herkömmliche Lernraum-
systeme im Bereich Nutzungsdaten zu ergänzen. Wir haben ein Datenmodell entwickelt, dass es ermöglichen soll die Nut-
zungsdaten, die von einem LMS gespeichert werden, leichter zu analysieren. Um die von einem Lernraumsystem
gespeicherten Daten in unser Datenmodell zu exportieren, haben wir eine Systemarchitektur entworfen und eine Imple-
mentierung für das LMS Moodle umgesetzt. Schließlich haben wir unser Model mit Analysen auf Moodle-Kursen unserer
Hochschule erprobt.
Learning Management Systems (LMS) are used in schools, higher education as well as in the working place. They are not
designed for data analysis and mining. The aim of our work is to complement LMS in all aspects dealing with data analysis
and mining. We first have developed a data model to structure usage data stored by LMS, to make better analysis possible.
We have designed a system architecture that performs the structure/export functionality and realised an implementation
for the Moodle LMS. Finally, we present first results using our data model for analysing usage data.
1 Diese Arbeit wurde zum Teil vom Europäischen Strukturfond Berlin unterstützt.
Datenmodell
Der Entwurf unseres Datenmodells wurde von drei Hauptan-
forderungen geleitet.
· Erstens sollte es unabhängig von einem bestimmten
LMS verwendet werden.
· Zweitens sollte jede Art von Analyse möglich sein.
· Drittens sollten Dozenten die üblichen Objekte eines
LMS leicht wieder finden.
Für die erste Anforderung wurden Annahmen getroffen, wel-
che die meisten LMS erfüllen. Für die zweite Anforderung
beschreibt unser Datenmodell komplett jede Interaktion, die
gängige LMS registrieren, in Log-Tabellen. Für die dritte An-
forderung spiegelt unser Datenmodell die üblichen Objekte,
die LMS zu Verfügung stellen, in Tabellen wieder. Die Be-
schreibung der Elemente einer Tabelle orientiert sich sehr
am Vokabular des LMS Moodle, das sehr verbreitet ist.
Wir gehen davon aus, dass ein LMS Benutzer, Kurse, Lern-
material und Kommunikationstools verwaltet. Benutzer kön-
nen Kurse belegen. Wenn eine Benutzerin einen Kurs belegt,
gibt es zwei Daten: das Anmelde-Datum und das Abmelde-
Datum. Außerdem hat ein Benutzer in einem Kurs eine be-
sondere Rolle, wie Student, Dozent, Administrator usw.. Es
ist möglich in einem LMS Gruppen von Nutzer zu bilden.
Diese Gruppen werden innerhalb von Kursen gebildet bzw.
gelten systemweit. Nutzer können sich diesen Gruppen selb-
ständig zuordnen oder werden durch Dozenten zugeordnet.
Eine besondere Kategorie von interaktivem Lernmaterial bil-
det das Quiz. Das Quiz ist ein Sammelbegriff, der jede Art
von Übung, Aufgabe, Problem, Test, Hausarbeit, usw. ab-
deckt. Ein Quiz kann mehrere Fragen enthalten und eine
Frage kann mehreren Quiz zugeordnet werden. Sowohl für
das Quiz als auch für die Fragen wird ein Zeitstempel gespei-
chert, der das Erstellungsdatum angibt und ein Zeitstempel
der den Zeitpunkt der letzten Änderung festhält. Des weite-
ren gibt es Lernmaterialien wie Folien, Dateien, URLs, usw..
Solch ein Material werden wir als Ressource betrachten. Die
Ressourcen haben ein Erstellungsdatum und ein Änderungs-
datum, die angeben wann diese dem System hinzugefügt
wurden und wann sie zuletzt geändert wurden. Als Kommu-
nikationstools betrachten wir zunächst Foren und Wikis. Wir
nehmen an, dass Quiz, Ressourcen, Foren und Wikis, Kursen
zugeordnet sein können. Wir nehmen an, dass Benutzer mit
Lernmaterial interagieren können: Sie können Ressourcen,
Fragen und Quiz, Wikis und Foren anschauen oder verän-
dern wenn der Benutzer ein Dozent ist. Außerdem können
sie Fragen und Quiz beantworten, an Forums oder Wikis bei-
tragen usw.. Wir nehmen an, dass alle diese Interaktionen
mit Zeitstempeln gespeichert werden.
Unser Schema beinhaltet drei Arten von Tabellen: die Tabel-
len, die ein LMS Objekt darstellen, die Tabellen, die eine In-
teraktion mit einem LMS Objekt darstellen und Tabellen
welche Assoziation zwischen LMS Objekten festhalten. In
Nutzerdaten und Nutzerprofile in Lernraumsystemen
44
Abb. 1: Vereinfachtes Schema des Datenmodells
Abbildung 2 ist ein Ausschnitt aus unserem Datenmodell zu
sehen. Im folgendem führen wir Exemplarisch einige der Ta-
bellen ein:
Die Tabelle user beispielsweise stellt Benutzer dar. Sie
enthält als weitere Elemente firstaccess und lastaccess,
die die Zeitstempel des ersten und letzten Zugriffs auf
einen Gegenstand im LMS sind, und lastlogin und cur-
rentlogin, die die Zeitstempel des letzten und aktuellen
Login ins LMS sind. Es kann der Sonderfall eintreten,
dass sich Teilnehmer ins LMS einloggen ohne auf Lern-
material zuzugreifen.
Die Tabelle quiz stellt eine beliebige Aufgabe dar. Das
Element qtyp gibt dabei die genaue Art des Quiz an. Es
kann Werte wie „Aufgabe“, „Test“, „Übung“, „SCORM“
usw. annehmen. Je nach Art der Quiz, die das LMS zu
Verfügung stellt. Ein Quiz kann eine oder mehrere
Fragen enthalten. Das Element title ist der vom Dozent
vergebene Titel. In den Elementen timeopen und time-
closed ist der Zeitrahmen festgelegt, in dem Studierende
das Quiz beantworten dürfen. Das Element timecreated
ist der Zeitstempel, der angibt wann dieses Material im
LMS erstellt wurde. Das Element timemodified gibt an,
wann dieses Material zuletzt verändert wurde.
Die Tabelle quiz_log enthält folgende Elemente: Das Ele-
ment user ist die user-id des Benutzers, der interagiert
hat. Das Element course ist der Identifikator des Kurses,
in dem interagiert wurde. Die Elemente qid und qtype
identifizieren das quiz, das betroffen ist. Im Element
grade wird die Bewertung gespeichert, falls es eine gab
und das Element timestamp ist der Zeitstempel, zu dem
die Interaktion ausgeführt wurde. Das Element action
gibt die Art der Interaktion an. Dieses Element kann
Werte wie „view“, „modify“, „attempt“, „submit“ usw.
annehmen.
Die Verknüpfung zweier LMS Objekte wird in einer Assoziati-
ons-Tabelle festgehalten. Der Name dieser Tabelle wird aus
der Verkettung der Namen der LMS Objekte gebildet. Also
gibt die Tabelle course_user alle Benutzer an, die sich in
einem bestimmten Kurs angemeldet haben. Oder die Tabelle
quiz_question gibt an, welche Fragen in einem bestimmten
Quiz verwendet werden. Es ist möglich, dass eine Frage
mehreren Quiz zugeordnet ist. Ähnlich gibt die Tabelle
course_quiz alle Quiz an, die in einem bestimmten Kurs ent-
halten sind. Es ist möglich, dass ein Quiz in mehreren Kur-
sen verwendet wird. Alle Assoziations-Tabellen beinhalten
die zwei Identifikatoren der zwei Objekte. Für die Mehrheit
der Assoziations-Tabellen gibt es keine weiteren Elemente.
Eine Ausnahme ist die Tabelle course_user. Sie enthält wei-
tere Elemente wie enrolstart und enrolend. Das Element
enrolstart ist das Datum, an dem sich der Benutzer im Kurs
angemeldet hat, und enrolend ist das Datum, zu dem er sich
abgemeldet hat.
Fachbereich VI Informatik und Medien
45
Abb. 2: Systemarchitektur
Systemarchitektur des Exports und
Moodle Implementierung
Abbildung 2 zeigt das wichtigste Paket der Exportanwen-
dung. Die abstrakte Klasse ExtractAndMap ist die Haupt-
klasse der Export-Anwendung. Durch diese werden die im
LMS gespeicherten Daten extrahiert und auf die Tabellen
des Datenmodells abgebildet. Zurzeit gibt es die abstrakte
Klasse ExtractAndMap und eine Implementierung dieser
Klasse für das LMS Moodle. Diese abstrakte Klasse enthält
eine Methode start, die den Extraktionsprozess anstößt und
die Methode getMiningInitial, die initial benötigte Daten von
der Analyse-Datenbank holt. Die start Methode kann mit
einem Startparameter gesteuert werden. Dieser legt fest, ab
welchem Zeitpunkt die Daten aus der LMS Datenbank gele-
sen werden sollen. Außerdem sind in der Klasse die Defini-
tion der abstrakten Methoden getLMStables und
clearLMStables zu finden. Diese sind für den Zugriff auf die
LMS Datenbank nötig. Zuletzt gibt es hier noch mehrere abs-
trakte generate Methoden. Diese haben wir in der Abbildung
2 durch eine Platzhaltemethode namens generateTable-
name_Mining dargestellt, welche für die Methoden genera-
teCourse_mining, generateQuiz_mining, generateQuiz_
log_mining usw. steht. Jede generate Methode benutzt die
extrahierten Daten, um eine Tabelle der Analyse-Datenbank
zu generieren. Diese werden dann von der saveMiningTables
Methode in die Datenbank geschrieben.
Um die Daten eines anderen LMS in unser Datenmodell ex-
portieren zu können, reicht es, diese Klasse zu erweitern
und die abstrakten Methoden entsprechend der Eigenschaf-
ten des LMS zu implementieren. Das LMS Moodle hat eine
einzige Log Tabelle, in der alle Interaktionen der Nutzer mit
allen Objekten in Moodle gespeichert werden. Dies führt
dazu, dass die Tabelle ständig wächst und sie wegen des
großen Datenaufkommens regelmäßig gelöscht wird, was
den Verlust von Rohdaten bedeutet, die für Analysen inte-
ressant gewesen wären. Die Implementierung der abstrak-
ten Klasse verteilt die Daten aus der Log-Datei in die
verschiedenen Tabellen des Datenmodells.
Unsere Anwendung ist in Java geschrieben. Sie benutzt die
Datenbank MySQL und das Persistenz-Framework Hibernate.
Fallbeispiel
Wir haben unsere Export-Anwendung benutzt, um den Kurs
„Formale Grundlagen der Informatik“, 1. Semester des Stu-
diengangs Medieninformatik Bachelor, Präsenzstudium, im
Wintersemester 2009/10 zu analysieren. Der Kurs „Formale
Grundlagen der Informatik“ findet jede Woche in der Form
eines 4stündigen seminaristischen Unterrichts statt. Um die-
ses Modul zu bestehen, schreiben die Studierenden die
Klausur in zwei Teilen. Der erste Teil wird Mitte des Semes-
ters geschrieben und der zweite Teil am Ende. In diesem
Kurs werden verschiedene Lernmaterialien am Anfang des
Semesters im Lernraumsystem Moodle zur Verfügung ge-
stellt, insbesondere Aufgabe1, Aufgabe2, usw. bis Aufgabe8,
insgesamt acht Aufgaben für die Selbstevaluierung. Die
Punkte dieser Aufgaben zählen für die Klausur nicht.
Die Registrierung in Moodle und Benutzung der Lernmate-
rialien ist freiwillig. Für Dozenten ist es interessant zu wis-
sen, ob das Material überhaupt angeschaut wird, ob es
einen Zusammenhang gibt, zwischen der Benutzung des
Materials in Moodle und den Ergebnissen der Klausur. Der
Zweck der Analyse der Benutzerdaten ist es solche Informa-
tionen zu gewinnen.
Wurden die Selbstevaluierungsaufgaben wahrgenommen?
Abbildung 3 Zeile 2 zeigt wie viele Studierende auf die Auf-
gaben zugegriffen haben. Die Spalte Mind.1 liefert die An-
zahl der Studierenden an, die mindestens auf eine Aufgabe
zugegriffen haben, die Spalte Alle gibt die Anzahl der Stu-
dierenden, die auf alle Aufgaben zugegriffen haben. Die
dritte Reihe zeigt ähnliche Zahlen für die Anzahl der Studie-
renden, die versucht haben, die Aufgaben zu lösen. Alle Zah-
len lassen sich bequem gewinnen, bis auf die Zahlen in der
letzte Spalte. Diese Abfrage ist aufwendig zu schreiben,
aber nicht grundsätzlich schwierig. Je weiter das Semester
fortschreitet, desto weniger greifen die Studierenden auf
Aufgaben zu, und desto weniger versuchen sie sie zu lösen.
Wir haben untersucht, ob sich eine treue Gruppe von Studie-
renden allmählich im Semester bildet, die systematisch die
Aufgaben für Selbstevaluierung löst. Die Antwort ist leicht
positiv, zeigt aber auch eine gewisse Fluktuation.
Aktivitäten und Veröffentlichungen
Im Rahmen des Projektes wurden verschieden Konferenzen
besucht und Informationsmaterial zum Projekt erstellt. Zu
Beginn des Projektes wurde die Konferenz „E-Learning 2009
– Lernen im digitalen Zeitalter“ besucht um einen Überblick
über das Thema und bisherige Arbeiten in dem Gebiet zu er-
halten. Es wurde ein Flyer([KMW 09]) für das Projekt erstellt,
der auf allen folgenden Konferenzen verteilt wurde. Auf der
Konferenz Moodle Moot 2010 wurde schließlich ein erster
Prototyp des Datenmodells vorgestellt. Hierzu diente ein
workshop als Rahmen der uns gleichzeitig wertvolles Feed-
back zu unserem Projekt geliefert hat. Der Schwerpunkt der
Moodle Moot lag auf dem Lernraumsystem für das der Pro-
totyp entwickelt worden war. Im Rahmen der Forschungsas-
Nutzerdaten und Nutzerprofile in Lernraumsystemen
46
Auf.1 Auf.2 Auf.3 Auf.4 Auf.5 Auf.6 Auf.7 Auf.8 Mind.1 Alle
51 41 35 30 28 29 27 21 51 935 27 26 18 19 20 20 12 46 0
Abb. 3: Aufgaben: Zugriff und Versuch
sistenz wurde das Poster [KMW 10] angefertigt. Das Projekt
wurde im Rahmen der internationalen Konferenz „EDM
2010“ mit dem Beitrag [KMW 10a] vorgestellt. Die EDM (Edu-
cational Data Mining) war hierbei für unser Projekt beson-
ders wichtig, da sie uns die Möglichkeit bot unser Projekt im
internationalen Rahmen vor Experten genau des Fachgebie-
tes vorzustellen das unser Projekt betrifft. Im Rahmen der
Ringvorlesungen der Forschungsassistenz wurde ein Kollo-
quium zum Projekt gehalten und das Poster präsentiert. Ein
weiterer Beitrag ([KMW 10c]) wurde an die DeLFI 2010 (e-
Learning-Fachtagung Informatik der Gesellschaft für Infor-
matik) eingereicht. Abschließende Ergebnisse des Projektes
wurden dort präsentiert.
Zusammenfassung und Ausblick
In diesem Beitrag haben wir ein Datenmodell vorgeschla-
gen, das in LMS gespeicherte Daten einheitlich abbildet,
damit die Datenanalyse durch geringeren Aufwand beim
Preprocessing erleichtert werden kann. Wir haben eine Sys-
temarchitektur für die Export-Anwendung entworfen und
eine Implementierung für das Moodle LMS erstellt. Ferner
haben wir unsere Anwendung benutzt, um die Daten des
Kurses „Formale Grundlagen der Informatik“ vom WS09/10
zu analysieren.
Bis jetzt haben wir unser Datenmodell größtenteils dazu ver-
wendet, die Nutzung von Ressourcen und Aufgaben und
deren Auswirkung auf die Klausurnote zu analysieren. Prin-
zipiell sind aber auch viele weitere Anwendungen möglich,
wie zum Beispiel Analysen zur Navigation innerhalb des
LMS, Beteiligung in kooperativer Zusammenarbeit oder
Klassifizierung von Aufgaben, und Ressourcen nach deren
Verwendung und Nutzen. Die für solche Analysen notwendi-
gen Informationen liegen im Datenmodell vor.
Wir setzen unsere Arbeit in mehrere Richtungen fort. Eine
wichtige Richtung ist es, weitere Fallbeispiele mit LMS-Nut-
zer zu entwickeln, um unser Datenmodell weiter zu erproben,
und den Katalog von relevanten Fragen zu konsolidieren und
zu erweitern. Die besten Techniken, um diese Fragen zu be-
antworten, sollen ausgearbeitet werden. Eine zweite wichtige
Richtung ist die Weiterentwicklung der Nutzerschnittstelle
für die Auswertung der Ergebnisse. Diese soll als Dienst zwi-
schen Nutzer, Datenmodell und Analyse-Tools dienen, um
die Analyse zu erleichtern. Ferner wollen wir erforschen, in
wieweit unser Datenmodell auf andere Lernsoftware über-
tragbar ist. Als erstes wollen wir dazu weitere Lernportale
untersuchen. Unser Projekt ist Open Source, und wir werden
unsere Dokumentationen und den Quellcode zur Verfügung
stellen [KM10d].
Dieser Beitrag ist eine Kurzfassung von [KMW 10c]
Literatur
[KMW 09] Krüger, André; Merceron, Agathe; Wolf, Benja-
min: Information Retrieval in Learning Manage-
ment Systems, Flyer vom 17.11.09.
[KMW 10] Krüger, A.; Merceron, A.; Wolf, B.: Nutzerdaten-
analyse in Lernraumsystemen, Poster vom
08.04.2010.
[KMW 10a] Krüger, A.; Merceron, A.; Wolf, B.: A Data Model
to Ease Analysis and Mining of Educational
Data. In (Baker, R.; Merceron, A. & Pavlik, P.
Hrsg.): Proc Third International Conference on
Educational Data Mining EDM2010 Pages 131 –
140, ISBN: 978-0-615-37529-8, Pittsburgh,
USA, 11. – 13.06.2010.
[KMW 10b] Krüger, A.; Merceron, A.; Wolf, B.: Poster: When
Data Exploration and Data Mining meet while
Analysing Usage Data of a Course. In (Baker, R.;
Merceron, A. & Pavlik, P. Hrsg.): Proc Third In-
ternational Conference on Educational Data Mi-
ning EDM2010 Pages 305 – 306,
ISBN: 978-0-615-37529-8, Pittsburgh, USA,
11.–13.06.2010.
[KMW 10c] Krüger, André; Merceron, Agathe; Wolf, Benja-
min: Leichtere Datenanalyse zur Optimierung
der Lehre am Beispiel Moodle. Proceedings of
the 8. e-Learning Fachtagung Informatik Delfi,
Lecture Notes on Informatics, Germany, Duis-
burg, 12. – 15.09.2010. Pages 215 – 226,
ISBN: 978-3-88579-263-5, 2010.
[KMW 10d] Krüger, A.; Merceron, A.; Wolf, B.: Nutzerdaten
und Nutzerprofile in Lernraumsystemen.
http://learn.beuth-hochschule.de/datamining,
last access 12.02.2010.
Kontakt
Prof. Dr. Agathe Merceron
Beuth Hochschule für Technik Berlin
Fachbereich VI Informatik und Medien
Luxemburger Straße 10
13353 Berlin
Tel.: (030) 45 04 - 20 66
E-Mail: [email protected]
Kooperationspartner
Aronline AG
Dipl.-Math. André Krüger
Glimmerweg 42
12349 Berlin
Tel.: (030) 50 56 - 10 70
E-Mail: [email protected]
Fachbereich VI Informatik und Medien
47
1. Einleitung
Im Projekt „bionical morphological computation“ geht es
um die Prinzipien der Kinematik biologischer Flossen und
deren Anwendung/Übertragung auf Seefahrzeugen und/
oder Kraft- und Arbeitsmaschinen.
Ausgangspunkt des Projektes ist das energetische, effiziente
Verhalten von wandernden Fischen (Salmoniden, Lachse
und Forellen) in turbulenten Gewässern. In diesen nutzen
Salmoniden passiv Strömungswirbelsysteme für ihren Vor-
trieb.
Schnell schwimmende Fische nutzen für ihren Vortrieb die
Schwanzflosse. Diese ist ein Teilsystem des gesamten Fisches
und besitzt eine gewisse funktionale Unabhängigkeit. Die
Schwanzflosse passt sich der Umströmung in günstigster
Weise an, ohne dass dies zusätzlichen Kontrollaufwand für
den Fisch bedeutet. Die Anpassung geschieht aus dem me-
chanischen Flossenaufbau heraus quasi von selbst, automa-
tisch – so die These. [1]
Hier setzt das Projekt an: die Mechanik der Fischflosse auf
Strömungsleitflächen, Tragflügel zu übertragen, die sich bei
einer veränderten Anströmung automatisch in günstiger
Weise anpasst. Die Anpassung der Leitfläche an eine verän-
derte Umströmungssituation führt vor allem zu einer Verrin-
gerung des Strömungswiderstands und damit zu einer
verbesserten Strömungsenergieausbeute gegenüber einer
herkömmlichen, starren Leitfläche.
Bei der Fischflosse handelt es sich um eine „intelligente Me-
chanik“ [2], die durch eine integrale Gestaltung in vorteilhaf-
ter Weise für das Gesamtsystem reagiert. Weitere Beispiele
aus der belebten Natur sind die Strömungskontrolle durch
flexible Federn beim Vogelflug oder das Biegen des Grashal-
mes als Überlastungsschutz.
Der bionische Charakter des Projektes "bionical morpholo-
gical computation" führte zu inhaltlich vier aufeinander auf-
bauenden Untersuchungsschwerpunkten:
· die Entschlüsselung der biologischen Konstruktionen
(Bionics),
· die Herleitung künstlich adaptiver Gewebe und
· die Untersuchung mittels Computersimulation (mor-
phological computation),
· sowie die Anwendung der gewonnenen Erkenntnisse
auf ein konkretes Bauteil im Seefahrzeug - oder Ener-
giebereich.
2. Der Fischflosseneffekt (Fin-Ray-Effect®)
Fischflossen sind mit Flossenstrahlen verstärkte Membrane
(Fig. 1). Besondere Beachtung findet das Verformungsver-
halten der einzelnen Flossenstrahlen (Fin-Rays), die sich
konkav gegen die Belastungsrichtung ausformen. Verant-
wortlich für diese Ausformung ist der paarige Aufbau der
Strahlen. Die außen liegenden Gurte sind über Stege mitei-
nander verbunden. Das System führt unter Belastung teil-
weise eine Gegenbewegung aus (Fig. 2).
Wird der Flossenstrahl mit einer Kraft "F" belastet, verformt er
sich aufgrund der inneren Struktur teilweise gegen die Belas-
tungsrichtung. Die Umströmung einer sich bewegenden Flosse
führt zu einem Druckgefälle auf der Flossenober- und unter-
seite und unterstützt eine wie in Fig.2 skizzierte Verformung.
Bionical Morphological Computation
48
Bionical Morphological ComputationMarcus Siewert M.Eng., Prof. Dr.-Ing. Hans-Dieter KleinschrodtKooperationspartner: FutureShip GmbH
Im dem Forschungsprojekt ging es um die Prinzipien der Kinematik biologischer Flossen und deren Anwendungen bei See-
fahrzeugen und/oder Arbeits- und Kraftmaschinen.
Nach der Entschlüsselung und Herleitung solcher Kinematiken wurde für die Simulationen die Umgebung der ANSYS
Workbench 12.1 verwendet. Durch das autoadaptive Verhalten der Strömungsleitflächen konnte der Strömungswiderstand
gegenüber einem starren Profil wesentlich verringert und die Energieeffizienz ohne zusätzlichen Kontrollaufwand erhöht
werden.
In the project the kinematical principles of biological caudal fins and their application on vessels and turbines were inves-
tigated. After deciphering and derivation a FSI-Simulation, two-way coupling between fluid and structural mechanics in
ANSYS Workbench 12.1, was used to investigate the behaviour of the fin system. The foil flow adaption causes less drag
than a conventional foil without any control efforts. Applications are guide vanes in pumps, ship`s hydrodynamics and
blades of Wells-turbines.
Ausgehend von diesem spezifischen Effekt wurde ein kinema-
tisches, raportierfähiges Ersatzmodell entwickelt, das unab-
hängig von der typisch konischen Form des Flossenstrahls
Anwendung finden soll (Fig. 3).
Diese Formunabhängigkeit soll die Anwendung des Fisch-
flosseneffektes auf Bauteile ermöglichen, die parallelgurtig
konstruiert sind. Das oben gezeigte Modell ist Grundlage für
die Patentanmeldung „Belastungsadaptiv ausgebildete
Bauteile“ der Beuth Hochschule für Technik Berlin. [3]
3. Simulationen
3.1 Struktursimulationen
In einem ersten Schritt wurde das kinematische Ersatzmo-
dell mit Einzellasten in einer Mehrkörpersimulation (MKS)
analysiert. Das Wesen des Mehrkörpersystems ist die Abbil-
dung einer Kinematik mit starren Körpern, deren Bewegung
zueinander durch Gelenke definiert werden. Das hier unter-
suchte Modell besteht aus starren Stäben, die durch ideale
Drehgelenke miteinander verbunden sind und aus linear -
elastischen Federelementen, die die Bewegung begrenzen,
Formänderungsenergie speichern und dadurch eine Gleich-
gewichtslage herstellen (Fig. 4).
Eine Belastung über die gesamte Länge des Modells (Fig. 4)
zeigt die gewünschte Systemverformung.
In einem weiteren Schritt wurde diese Kinematik auf einen
Balken übertragen, der durch Aussparungen die Gelenksys-
tematik wiedergibt. (Fig. 5)
Die so angeordneten Aussparungen ergeben dabei eine
Folge von „H“-förmigen Aussparungen. Das Gesamtmodell
wird durch die H-Hole-Elemente und die Anordnung der
lokalen dünnen Stellen wiedergegeben. Die dünnen Material-
stellen sind durch ihre geringeren Steifigkeiten dehnungs -
fähiger (gelenkähnlicher) und weisen ein elastisches Rück -
stellverhalten (Feder) auf.
Mit der Parametrisierung der H-Hole-Elemente wie Radien,
Längen und Höhen wurde eine Optimierung durchgeführt,
um die bestmögliche Auslenkung zu erzielen. Fig.6 zeigt das
Ergebnis für einen Belastungsfall nach dem 1. und 2. H-Hole-
Element.
Bei der Struktursimulation blieb die Materialfrage, um den
Fokus zuerst nur auf den Bewegungseffekt zu richten, zu-
nächst unbeantwortet. Es wurde mit einem linearelastischen
Materialgesetz gerechnet, d.h. auftretende physikalische
Nichtlinearitäten blieben unberücksichtigt.
Fachbereich VIII Maschinenbau, Verfahrens- und Umwelttechnik
49
Flossenstrahlen (Draufsicht)
Haut / Membran
typisch ist die konische Form
Seitenansicht
Fig. 1: Prinzipieller Aufbau einer Forellenflosse.
F
Fig. 2: Flossenstrahlen unter Belastung.
Fig. 3: Kinematisches, raportierfähiges Ersatzmodell mit Fin-Ray-Effect ®
Fig. 4: Belastung des kinematischen Ersatzmodells
Fig. 5: Balken mit Aussparungen
Fig. 6: Auslenkung des strukturierten und belasteten Balkens, links festeingespannt, rechts frei, 740 mm Gesamtlänge, 30 mm Höhe, 1 mmDicke, Baustahl, Verformung 10fach überhöht, F1= 100N, F2= 30 N, ESZ
3.2 Fluid-Struktur-Interaktion
Um sich der Realität weiter anzunähern, wurde eine 2-Wege-
Fluid-Struktur-Interaktionsberechnung durchgeführt, und in
einem ersten Schritt das Strömungsfeld (Geschwindigkeiten,
Drücke) um das Bauteil herum berechnet (Fluidberechnung,
Fig. 7b). Die dabei ermittelten Kräfte an der Bauteilgrenze
werden in einem zweiten Schritt zur Strukturberechnung
übertragen (Fig.7a). Je definiertem Zeitschritt wird mehrere
Male zwischen Strömungs- und Strukturfeld iteriert. Der ge-
samte Berechnungsprozess wird solange durchgeführt bis
sich für die gegebene Bauteilumströmung ein Kräftegleich-
gewicht in verformter Lage einstellt und das Bauteil u.U.
deutliche Verformungen aufweist. Weist das Bauteil keine
deutliche Verformung auf, d.h. das Strömungsfeld um das
Bauteil ändert sich nicht wesentlich, genügt zur Berechung
eine einzige Iteration von Fluid- zur Struktur (1-Wege-Fluid-
Struktur-Interaktionsberechnung). Im gezeigten Fall war bei
der Umströmung des Strömungskörpers mit H-Hole-Struktur
eine 2-Wege-Fluid-Struktur-Berechnung notwendig.
Als zu untersuchender Strömungskörper wurde der in der
Struktursimulation untersuchte Balken, hier allerdings mit
abgerundeten Enden, verwendet (Fig. 7 und Fig. 8).
Der Strömungskörper wurde mit parametrisierten H-Hole-
Strukturen versehen, die sich über die Körperlänge gleich-
mäßig verteilen. Bei einer Anströmgeschwindigkeit von 5 m/s
und einer Körperlänge von 0,3 m ergibt sich in Wasser (20 °C)
eine Reynoldszahl von ca. 1,7*106. Der Anströmwinkel wurde
gleitend von 0 auf 22 Grad erhöht. Als Turbulenzmodell
wurde das SST-Modell verwendet.
Die hier vorgestellten H-Hole-Strukturen haben nach den
durchgeführten Parameter-Untersuchungen die gewünschte
strömungsgünstige Verformung noch nicht genügend ausge-
prägt gezeigt, wie in Fig. 9 zu sehen.
In einem nächsten Schritt wurde eine weitere Umsetzung
des Fischflossenprinzips analysiert, bei dem sich die ge-
wünschten Effekte deutlicher einstellten.
Der Körper hat nun mehr die Form eines Tragflügelprofils
(Fig. 10). Er besteht aus einem festen Lagerungspunkt an
der Profilnase in Form einer Kreisscheibe, einem elastischen
Band um diese Scheibe und aus drei an diesem Band fixier-
ten Stegen. Das symmetrische Profil hat eine Dicke von 15%
und eine Dickenrücklage von 30 % bezogen auf die Profil-
tiefe.
Durch die Änderung des Anströmwinkels und damit des
Druckgradienten auf der Profiloberfläche sowie die Möglich-
Bionical Morphological Computation
50
a) b) c)
Fig. 7: a) Vernetzter Festkörper, b) vernetztes Strömungsgebiet, c) Kopplung
Fig. 9: FSI mit Balkenkörper, Anströmwinkel 22 Grad, Druckverteilungund Y-Verschiebung des Körpers
0,24 m
Anströmwinkel
Fig. 10: Strömungskörper B
Fig. 11: Verbundrandbedingung zwischen Band (rot) und der Festlage-rung (Kreisscheibe)
0,03 m
0,3 m
Anströmwinkel
Fig. 8: Strömungsgebiet und Strömungskörper A
keit der Ablösung und Anschmiegung des Bandes um die
Kreisscheibe, passt sich der Körper passiv der Strömung an.
Aus einem symmetrischen wird durch Anströmwinkelände-
rung ein asymmetrischer Strömungskörper mit geringeren
Strömungswiderständen. Die strömungsgünstigere Verfor-
mung ergab laut Simulationsberechnung bei leicht verrin-
gertem Auftrieb eine maximale Widerstandsverringerung
von 85% bei einem Anströmwinkel von 20 Grad gegenüber
einem unverformten Körper. Ursächlich hierfür ist ein gerin-
gerer Druckwiderstand aufgrund der Adaption. Damit
könnte sich ein hohes technisches Nutzungspotential der
untersuchten inneren Strukturen, nach dem Vorbild der
Natur ergeben, die auf die oben genannten Anwendungs -
gebiete übertragbar sind.
Bei einem Anströmwinkel von 20 Grad trat bei beiden Strö-
mungskörpern keine stationäre Umströmung mehr auf. Gut
erkennbar ist bei der Umströmung des starren Körpers
(Fig. 12 unten) der Ablösungswirbel hinter dem Profil. Peri-
odisch auftretende Ablösungen verursachen ein zeitabhän-
giges Strömungsbild sowie um einen Mittelwert schwanken -
de Reaktionskräfte. Die Strömungsablösungen vom Profil
traten ab einem Anströmwinkel von 15 Grad auf. Die Unter-
suchung der Auftriebs- und Widerstandskräfte bei veränder-
tem Anströmwinkel ergab bezüglich des Auftriebs einen
geringeren Anstieg für das adaptive Profil, jedoch keinen
Einbruch des Auftriebs bei 15 Grad. Das Gleitverhältnis, als
Systemkennzahl, ist bei dem starren Profil für kleine Winkel
besser. Der adaptive Körper hat ab einem Anströmwinkel
größer 10 Grad (Fig. 13) das bessere Gleitverhältnis bzw.
bleibt auf einem hohen Niveau während die starre Tragflä-
che schon ablöst. Während der Widerstandsbeiwert des
starren Profils mit steigendem Anströmwinkel überpropor-
tional ansteigt, ist beim adaptiven Profil nur ein sehr gerin-
ger Anstieg errechnet worden. Die Fluidströmung konnte der
Kontur des adaptiven Körpers länger und besser folgen. Der
Strömungsabriss wird beim adaptiven Körper wesentlich in
Richtung größerer Anströmwinkel verschoben.
Fachbereich VIII Maschinenbau, Verfahrens- und Umwelttechnik
51
Fig. 12: Starrer und adaptiver Strömungskörper B, Anströmwinkel 20Grad, Druckverteilung und Y-Verschiebung des Körpers
Auftriebsbeiwert ca
0,0
0,2
0,4
0,6
0,8
1,0
1,2
1,4
0 5 10 15 20
Anströmwinkel in Grad
ca
Profil Starr
Profil Adaptiv
Gleitverhältnis ca/cw
0
10
20
30
40
0 5 10 15 20
Anströmwinkel in Grad
ca
/cw
Profil Starr
Profil Adaptiv
Widerstandsbeiwert cw
0,00
0,10
0,20
0,30
0,40
0 5 10 15 20
Anströmwinkel in Grad
cw
Profil Starr
Profil Adaptiv
Fig. 13: Auftriebs-/Widerstandsbeiwert und Gleitverhältnis des starrenund adaptiven Strömungskörpers B
4. Zusammenfassung
Strömungskörper, die sich nach dem Vorbild der Fischflosse
autoadaptiv der Strömung anpassen und dadurch Wirkungs-
grade von technischen Anlagen im Betrieb erhöhen, sind viel
versprechende Ansätze mit wirtschaftlichem Nutzen.
Die hier dokumentierten Untersuchungen zeigen, dass
Formadaptionen von Strömungskörpern auch bei hohen
Anströmwinkeln hohe Gleitverhältnisse generieren. Ein inte-
ressantes Gebiet kann z.B. der Einsatz adaptiv wirksamer
Nach leitschaufeln in Axialpumpen sein, die sich den unter-
schiedlichen Pumpenbetriebszuständen anpassen und vo-
raussichtlich den mittleren Wirkungsgrad erhöhen.
Diese ersten Untersuchungen, die mit Hilfe des Fluid-Struk-
tur-Interaktions-Tools von ANSYS durchgeführt wurden,
waren stark idealisiert. Vereinfachungen waren u.a. die 2 di-
mensionale Strömung, das linear elastische Materialverhal-
ten und die lineare Änderung des Anströmwinkels bis zur
jeweiligen quasi stationären Endstellung. Inwieweit weitere
adaptive Strömungskörper nach dem Vorbild der Fischflosse
Maschinenwirkungsgrade erhöhen, werden weitere Untersu-
chen an der Beuth Hochschule für Technik Berlin zeigen.
5. Literatur
[1] Triantafyllou, M.: Effizienter Flossenantrieb für
Schwimmroboter, Spektrum der Wissenschaft 08-1995,
S. 66 – 73, Wissenschaft- Verlagsgesellschaft mbH, Hei-
delberg, 1995.
[2] Krebber, B.: „i-mech“: Untersuchung der intelligenten
Mechanik von Fischflossen mit Hilfe von FSI-Simulation.
Forschungsbericht der Technischen Fachhochschule Ber-
lin 2007/08.
[3] DE 10 2009 059 246.6
[4] Mirtsch, F.; Dienst, M.: FolwBow – Artifizielle adaptive
Strömungskörper nach dem Vorbild der Natur. Kinema -
tische und fluidmechanische Untersuchungen.
Forschungsbericht der Technischen Fachhochschule
Berlin 2004/05.
[5] Gutmann, W.: Die Evolution hydraulischer Konstruktio-
nen. Verlag W. Kramer: Frankfurt am Main, 1989.
[6] Liao, J.C.; Beal, D.; Lauder, G.; Triantayllou, M.: Fish Ex-
ploting Vortices Decrease Muscle Activty, In: Science
2003, S. 1566 – 1569. AAAS.
[7] Nachtigall, W.; Blüchel, K.: Das große Buch der Bionik,
Deutsche Verlags Anstalt Stuttgart, 2000.
Kontakt
Prof. Dr.-Ing. Hans-Dieter Kleinschrodt
Beuth Hochschule für Technik Berlin
Fachbereich VIII Maschinenbau, Verfahrens- und
Umwelttechnik
Luxemburger Straße 10
13353 Berlin
Tel.: (030) 45 04 - 54 54 oder - 29 37
E-Mail: kleinsch@beuth-hochschule.de
Kooperationspartner
FutureShip GmbH
Geschäftsführung: Dr. K. Hochkirch
Tel.: (0331) 97 99 179 - 0
E-Mail: [email protected]
Forschungsingenieur: Dipl.-Ing. B. Krebber
Tel.: (0331) 97 99 179 - 0
E-Mail: [email protected]
Bionical Morphological Computation
52
Fachbereich VIII Maschinenbau, Verfahrens- und Umwelttechnik
53
1 Einleitung
1.1 Was ist Kavitation?
Das Verdampfen einer Flüssigkeit kann durch Temperaturer-
höhung oder durch Druckerniedrigung erfolgen. Letzteres
nennt man Kavitation. In einer Strömung hängt der lokale
Druck von der Strömungsgeschwindigkeit ab: Je höher die
Geschwindigkeit, umso geringer ist der lokale statische
Druck. Demzufolge sind alle durchströmten Bauteile kavita-
tionsgefährdet, in denen durch Querschnittsverengungen
die Strömungsgeschwindigkeit stark ansteigt, z.B. Stellven-
tile mit sehr geringem Hub. Wichtig bei der Kavitationsent-
stehung ist, dass es in der Flüssigkeit Keimstellen (Partikel
oder Gasbläschen) gibt, die die Zugfestigkeit des Wassers
reduzieren und somit die Dampfentstehung erst möglich
machen.
Das Auftreten von Kavitation ist im Alltag nicht sehr augen-
scheinlich, kann aber zu erheblichen Beeinträchtigungen,
Schäden oder Versagen von Bauteilen führen, da die Dampf-
blasen in Gebieten höheren Drucks wieder zusammenfallen.
Dies geschieht implosionsartig und es bilden sich auf kleins-
tem Raum sehr hohe Drücke und Geschwindigkeiten aus,
sog. Microjets.
Passiert dies in Wandnähe, so kann dadurch Material abge-
tragen werden, siehe Abbildung 1. Dieser Vorgang kann auf
Dauer zu irreparablen Schäden und dem Totalausfall der
entsprechenden Bauteile führen. Eine Absicherung gegen
Kavitation ist also bei der Auslegung von z.B. Armaturen un-
bedingt durchzuführen.
1.2 Kavitation in Druckregelventilen
In Verbrennungsmotoren mit Einspritzsystemen wird der
Kraftstoff aus dem Tank angesaugt und über eine Hoch-
druckpumpe auf den benötigten Einspritzdruck (ca. 2200
bar) gebracht. Der Kraftstoff wird über ein entsprechendes
Leitungssystem der Einspritzvorrichtung (Injektor) zuge-
führt. In sogenannten Common-Rail-Systemen wird der
Kraftstoff vor der Injizierung in einem Druckspeicher (Rail)
gespeichert. Die Druckerzeugung und die Einspritzung über
die Injektoren in die Motorbrennkammer sind somit vonei-
nander entkoppelt, siehe Abbildung 2. Die Aufgabe des
Druckregelventils (PCV, pressure control valve) ist es, den
Druck im Rail abhängig vom Lastzustand des Motors einzu-
stellen und zu halten.
Bei zu hohem Raildruck öffnet das Ventil, so dass ein Teil
des Kraftstoffes aus dem Rail zurück in den Kraftstoffbehäl-
ter gelangt. Bei einem zu niedrigen Raildruck schließt das
Druckregelventil und dichtet die Hochdruckseite gegen die
Kavitierende Strömung in Diesel-EinspritzsystemenMatthias Voß, M.Eng., Prof. Dr.-Ing. Peter BartschKooperationspartner: CFX Berlin Software GmbH, Hydraulik-Ring GmbH
In den Kraftstoffleitungen von modernen Common-Rail-Dieseleinspritzsystemen herrschen Drücke bis zu 2500 bar. Zur
Einstellung des Raildrucks bei verschiedenen Lastpunkten verwendet man ein Druckregelventil. Im Druckregelventil wird
der Druck über sehr kurze und enge Spalte abgebaut, damit der Kraftstoff wieder in den Tank zurückgeleitet werden kann.
Durch die sehr hohen Strömungsgeschwindigkeiten im Spalt entstehen lokale Unterdruckgebiete, in denen Kavitation auf-
tritt. Nur bei korrekter Berechnung der kavitierenden Strömung kann eine Vorhersage über eventuelle Schäden vorgenom-
men werden.
Es wurde der Einfluss gelöster Gase auf die kavitierende Strömung in einem Druckregelventil untersucht.
In modern Common Rail Injection Systems pressure levels can reach up to 2500 bar. To adjust the rail pressure for different
load points a pressure control valve is required. In this valve which connects the common rail and the fuel tank the pres-
sure is reduced to tank pressure level through a very narrow gap. As a consequence, a region with extremely high flow ve-
locities exists where the pressure drops below the saturation pressure and cavitation occurs. In order to predict damages
due to cavitation a CFD simulation must correctly predict position and strength of the cavitation region.
To enhance the quality of the CFD simulation the influence of non-condensable gases on the cavitating flow in a pressure
control valve was examined.
�������
Abb. 1: Kollaps einer Dampfblase in Wandnähe und entstehender Micro-jet beim Zerfall
Niederdruckseite ab. Das Druckregelventil wird hierbei elek-
tromagnetisch eingestellt und über den Raildrucksensor an-
gesteuert, siehe Abbildung 3. Im schlimmsten Fall fließt die
gesamte Fördermenge der Pumpe über das Druckregelven-
til. Durch die sehr hohen Strömungsgeschwindigkeiten ist
ein Kavitieren der Strömung nicht zu vermeiden, eine Schä-
digung des Ventils oder der Schließkomponenten durch Ero-
sion ist aber unbedingt zu vermeiden, siehe Abbildung 4.
Hierfür muss eine geeignete Ventilgeometrie gefunden wer-
den. Eine numerische Strömungssimulation kann wichtige
Hinweise bei der Geometrievariation liefern und den Rah-
men der notwendigen Prototypen erheblich minimieren.
1.3 Art und Umfang der Kooperation
Kooperationspartner bei diesem Forschungsvorhaben sind
die CFX Berlin Software GmbH und die Hydraulik-Ring GmbH.
Die kooperierende Hydraulik-Ring GmbH ist Teil der HILITE
International. HILITE International ist ein weltweiter Entwick-
lungspartner und Serienlieferant der Automobilindustrie.
Fokus liegt auf den Komponenten und Einzelsystemen für
Motor und Antriebsstrang. Die untersuchte Ventilgeometrie
gehört zum Produktkatalog der Hydraulik-Ring GmbH. Die
Hydraulik-Ring GmbH verfügt über mehrere Messstände und
Labore, an denen im Vorfeld Messungen durchgeführt wur-
den. Die aktuelle Ventilgeometrie soll hinsichtlich des Auf-
tretens von Kavitation und des Blasenzerfalls in Wandnähe
untersucht werden und mittels numerischer Strömungssi-
mulation ein Hinweis für mögliche Verbesserungen gefun-
den werden. Zum Einsatz kommt hierbei der Strömungslöser
ANSYS CFX.
Die CFX Berlin Software GmbH ist ein Berliner Ingenieurbüro
für numerische Strömungssimulation (CFD) sowie analyti-
sche und experimentelle Strömungsmechanik. Darüber hi-
naus vertreibt CFX Berlin die ANSYS CFD Software und
übernimmt Support für diese Programmpakete.
Ausgehend von der schon im Vorfeld bekannten Problematik
der Ventildurchströmung und der Kavitationsberechnung mit
ANSYS CFX, stellte CFX Berlin neben der persönlichen Be-
treuung auch Schulungen im Bereich der Vernetzung und
Automatisierung im Projekt zur Verfügung.
2 Durchführung
2.1 Sensitivitätsstudie
Zu Beginn sollten erste Berechnungen den aktuellen Stand
der Rechentechnik an der schon bekannten Geometrie un-
tersuchen, eventuelle Abhängigkeiten zu den Berechnungs-
einstellungen herstellen und ein stabiles Setup für die
nachfolgenden Berechnungen liefern. Es wurden verschie-
denste Vernetzungen und Berechnungseinstellungen ange-
Kavitierende Strömung in Diesel-Einspritzsystemen
54
�
�
������������
����� �������� � �� ����
����� � �� ��������
��������� ����
����
��������������
�������������� �
���
��
���
��
���
��
���
��
���
Abb. 2: Schema der Kraftstoffführung
Abb. 4: Stempel des Druckregelventils. Gut zu erkennen sind die Kavitationsschäden und die Einpressmulde der Kugel.
��
�
�
�
�
�
Abb. 3: Schnitt durch das geöffnete Druckregelventil (1=Ventilsitz;2=Schließelement; 3=Stempel; 4=Ventilschlitten; 7=Magnetkern;6=Verschlussfeder; 7=Steueranschluss)
Fachbereich VIII Maschinenbau, Verfahrens- und Umwelttechnik
55
wendet. Es wurden Gitter- und Konvergenzstudien durchge-
führt, um Aussagen über die benötigte Netzfeinheit und Er-
gebnissicherheit zu erhalten. Bei diesen Untersuchungen
trat ein interessantes Strömungsverhalten auf, das nachfol-
gend näher untersucht wurde.
Die untersuchte Geometrie führt zu qualitativ unterschiedli-
chen Strömungsbildern bei identischen Vernetzungen: die
Strömung legt sich entweder an die Wand des Ventilsitzes
oder an die Kugel an.
Um heraus zu finden, welche dieser beiden Strömungsfor-
men in der Praxis wahrscheinlicher ist, wurde die Stabilität
dieser Strömungszustände untersucht. Durch Impulsquellen
kann gezielt die wandnahe oder die kugelnahe Strömung er-
zwungen werden. Nach Abschalten der Impulsquellen sollte
sich anschließend die stabilere Strömungsform einstellen,
siehe Abbildung 5 und Abbildung 6.
Die Untersuchungen zeigen, dass die kugelnahe Strömung
stabiler ist. Die Schadensbilder von existierenden Hydraulik-
ventilen unterstützen dieses Ergebnis, siehe Abbildung 4. Es
wurde entschieden, alle nachfolgenden Berechnungen mit
der kugelnahen Konfiguration durchzuführen.
2.2 Ausgasungsmodel
Jede Flüssigkeit beinhaltet einen gewissen Anteil an gelös-
ten Gasen, der technisch nur sehr schwer zu entfernen ist.
So ist z.B. durch Entgasung von Wasser lediglich ein Absin-
ken von 15ppm auf 3ppm möglich. Ein weiteres Absenken
der Gaseinschlüsse ist extrem schwierig, siehe hierzu
[BRE95]. Durch strömungsinduzierten Druckabfall in einer
Strömung, der schlussendlich auch zur Kavitation führt, tre-
ten in der Flüssigkeit gelöste Gase aus und bilden schon vor
Einsetzen der Kavitation Gasblasen im Strömungsvolumen
und erhöhen somit die Anzahl möglicher Keimstellen. In
einer numerischen Strömungssimulation soll der Einfluss
der gelösten Gase untersucht werden. Ausgangspunkt des
homogenen Ausgasungsmodells ist ein bekannter, empiri-
scher Zusammenhang zwischen der Dichte des Dieselkraft-
stoffes und Temperatur und Druck im Fluid:
Die Gemischdichte (Diesel + Gasblasen) wird anhand der fol-
genden Überlegungen errechnet:
An der Grenzfläche zwischen Gas (Index g) und Flüssigphase
(Index l ) kommt es durch Diffusion zum Austausch von Mo-
lekülen. Der Eintritt der Gasmoleküle ist hierbei abhängig
vom Partialdruck des Gases, der Austritt ist proportional zur
aktuellen Konzentration des Gases in der Flüssigkeit.
Der lokale Strömungsdruck p entspricht in der ersten An-
nahme dem Partialdruck des ausgeperlten Gases, da sich
Abb. 6: Ausgangszustand: wandnahe Strömung
Störung durch Impulsquellen: kugelnahe Strömung
Ergebnis: Strömung bleibt an der Kugel
Abb. 5: Ausgangszustand: kugelnahe Strömung
Störung durch Impulsquellen: wandnahe Strömung
Ergebnis: Strömung legt sich wieder an Kugel an
keine weiteren Komponenten in der Gasphase aufhalten.
Das HENRY-Gesetz verknüpft im Gleichgewichtszustand den
aktuellen Partialgasdruck pGas  mit der sich in Lösung be-
findlichen Stoffmenge cl:
wobei kHENRY die HENRY-Konstante in mol/(l · atm) und cl in
molGas/ lFlüssigkeit die Konzentration an lösbarem Gas in der
Flüssigkeit ist. Unter der Annahme eines binären Stoffgemi-
sches und einer Gasphase nach dem idealen Gasgesetz fin-
det sich folgende Dichtefunktion pGemisch = f (p) für ein Fluid,
in dem das gelöste Gas in Abhängigkeit vom Druck ausperlt
und dessen Einfluss auf die Strömung in Form einer geringe-
ren Gemischdichte abgebildet wird:
Wobei ρf für die Dichte der Flüssigkeit, cg für die Konzentra-
tion an ausgeperltem Gas, MG für die molare Masse des
Gases und R für die allgemeine Gaskonstante stehen.
Die Konzentration an ausgeperltem Gas cg errechnet sich
aus der Differenz von Grundkonzentration c0 und der aktuell
lösbaren Konzentration _ cl.
Die Anfangskonzentration an gelöstem Gas c0 kann entspre-
chend dem Eingangs-/Umgebungsdruck errechnet werden.
Die Konzentration des Gases in der Flüssigkeit kann in Form
der Massenfraktion yg aufgefasst werden und als zusätzli-
che Transportgleichung der Form
im Strömungsraum gelöst werden [ANS09]. Der zeitliche Ver-
zug der Lösung und Ausperlung wird über den Quellen- und
Senkenterm der Transportgleichung in Form von
beschrieben. Die Faktoren fA und fL bilden die Parameter die
bestimmen, mit welcher Geschwindigkeit die lokale Lösung
(L) und die lokale Ausgasung (A) stattfinden. Diese Parame-
ter müssen je nach Anwendung auf die jeweilige Stoffpaa-
rung eingestellt werden. Der Wert y0g steht für die lokal
lösbare Menge an Gas.
In den Berechnungen wurde als gelöstes Gas Stickstoff ver-
wendet. Nach [SAN99] gilt für gelösten Stickstoff eine
HENRY-Konstante von kHENRY = 6,5 · 10-4 mol/(l · atm). In Er-
mangelung von belastbaren Messdaten wurde eine Sensiti-
vitätsanalyse der Parameter fA und fL durchgeführt. Es
wurde eine stufenweise Analyse mit fL = 1; fL = 10 und
fL = 100 durchgeführt und jeweils das Verhältnis der Parame-
ter untersucht. Abbildung 7 zeigt die Abhängigkeit der mini-
mal auftretenden Dichte zum Verhältnis der Parameter fA
und fL. Es kann festgestellt werden, dass erst ab einem Ver-
hältnis �100 eine quantifizierbare Dichteänderung erfolgt.
Für Werte 1.000 � fA � 1.000.000 tritt ein signifikanter Ein-
fluss des Parameters auf die errechneten Dichten auf. Bei
korrekter Kalibrierung der Parameter fA und fL muss bei Er-
reichen des Dampfdruckes die lokale Dichte im Strömungs-
gebiet die bekannte empirische Dichte-Druckabhängigkeit
erfüllen. Wie Abbildung 7 zeigt, stellt sich unabhängig von
der Lösungsgeschwindigkeit fL für fA = 550.000 die ange-
strebte Vergleichsdichte ein.
Eine konkrete Aussage über den Parameter fL kann nicht ge-
troffen werden, da leider keine Messdaten über Lösungsge-
schwindigkeiten vorliegen. Dieser Parameter kann jedoch in
späteren Untersuchungen numerisch optimiert werden.
2.3 Full Cavitation Model
Die im Ausgasungsmodel getroffenen Annahmen bezüglich
der variablen Dichte durch den Einfluss gelöster Gase sollen
nun erweitert werden.
Im Zusammenspiel mit auftretender Kavitation muss die
Dampf- und Flüssigphasenzusammensetzung näher beschrie-
ben werden, so geschehen in [YAN05]. Die Flüssigphase wird
als ein Zwei-Komponentengemisch aus Flüssigkeit und ge-
löstem Gas aufgefasst, wobei die Dichte der Flüssigkeit als
konstant angenommen wird. Das gelöste Gas kann ausper-
len, die Flüssigkeit verdampfen.
Der flüssige Anteil kann nach dem Rayleigh-Plesset-Model
[ANS09] bei einsetzender Kavitation in die Dampfphase
übergehen. Das in der Flüssigkeit gelöste Gas, das in die-
sem Zustand kein Volumen einnimmt, kann bei fallendem
statischem Druck in die Gasphase übergehen. Die gesamte
gasförmige Phase setzt sich somit aus den Anteilen der
Kavitierende Strömung in Diesel-Einspritzsystemen
56
Abb. 7: Ermittlung des Parametereinflusses auf die minimale Gemischdichte
Fachbereich VIII Maschinenbau, Verfahrens- und Umwelttechnik
57
· Verdampfung/Kondensation der Flüssigkeit (Dampf -
kavitation) [SAU00] und
· Absorption/Desorption (Gaskavitation) der gelösten
Gase zusammen,
der Druck somit aus den einzelnen Partialdrücken. Der Kavi-
tationsdampf wird über die ideale Gasgleichung beschrie-
ben, für das gelöste Gas kann der Partialdruck wiederum aus
dem HENRY-Gesetz errechnet werden. Zusammengefasst
lässt sich ein Ausdruck für die Entstehung und Vernichtung
an Gas im Berechnungsgebiet herleiten. Auf die Herleitung
und Aufführung der entsprechenden Gleichungen wird an
dieser Stelle verzichtet, sie sind ausführlich in [YAN05] zu
finden.
3 Berechnung der kavitierenden Strömung
Es konnte in Berechnungen gezeigt werde, dass das Full
Cavitation Model im Bereich von 1 – 2500 bar an einer Bei-
spielgeometrie (scharfkantige Lochblende) zu guten Über-
einstimmungen mit empirischen Gleichungen führt.
Bei Berechnungen an der Modelgeometrie des Druckregel-
ventiles treten bei der vollen Druckdifferenz von 2500 bar
erhebliche Konvergenzprobleme bei der numerischen Lösung
auf. Eine Stabilisierung des Berechnungsverlaufes und die
erhoffte Dämpfung der schlagartigen Verdampfung im Be-
rechnungsgebiet der Strömung traten bei Verwendung des
Full Cavitation Models nicht auf. Zwar konnten bisherige
Berechnungsergebnisse reproduziert werden und Untersu-
chungen bezüglich Gittereinfluss und Konvergenzniveaus
durchgeführt werden, eine abschließende Berechnung der
kavitierenden Strömung führte aber dennoch nicht zu aus-
sagekräftigen Ergebnissen. Es wird vermutet, dass die Auflö-
sung des Spaltbereiches deutlich erhöht werden muss, um
eine numerisch stabile, zeitaufgelöste Berechnungen durch-
zuführen. Eine solche Berechnung ist zum derzeitigen Stand
der Rechentechnik noch nicht möglich; die benötigten Re-
chenzeiten für einen Betriebspunkt würden den Rahmen
einer industriellen Produktentwicklung übersteigen. Es ist
langfristig davon auszugehen, dass die Berechnung des
Druckregelventiles prinzipiell möglich ist, sobald bei genü-
gender Rechenkapazität die Dauer der Berechnung in Zu-
sammenspiel mit der benötigten Rechengenauigkeit im
Rahmen der Produktentwicklung durchgeführt werden kann
(Berechnungs-dauer im Bereich von mehreren Stunden bis
Tagen).
4 Zusammenfassung und Ausblick
Eine gegebene Ventilgeometrie wurde mittels numerischer
Strömungssimulation (CFD) auf ihr Kavitationsverhalten un-
tersucht und der Einfluss gelöster Gase auf die Kavitations-
gebiete näher betrachtet. Es wurden Gitter- und Konver -
genzuntersuchungen durchgeführt, um die nötige Gitter-
und Rechengenauigkeit sicherzustellen.
Ausgehend vom HENRY-Gesetz wurde ein Berechnungs -
model entwickelt, das den Einfluss gelöster Gase in einer
druckabhängigen Dichte des Strömungsmediums abbildet.
Die numerischen Parameter des Models wurden anschlie-
ßend für die Ausgasung mittels einer empirischen Dichte-
funktion für das Strömungsmedium kalibriert. Für das
Lösungsverhalten konnte kein abgesicherter Wert ermittelt
werden.
Die Ausgasung und Lösung von Gasen in kavitierenden Strö-
mungen wird zusammenfassend im „Full Cavitation Model“
hergeleitet, dieses Model wurde in ANSYS CFX implemen-
tiert und an einer Beispielgeometrie untersucht und führte
zu sehr guten Übereinstimmungen.
Die Berechnung der kavitierenden Strömung im Druckregel-
ventil konnte lediglich bei Betriebspunkten bis ca. 500 bar
durchgeführt werden. Berechnungen mit Einlassdrücken im
Bereich des Arbeitspunktes, bei ca. 2500 bar, konnten auch
mittels des Full Cavitation Models nicht ausreichend stabili-
siert werden, um eine ausreichende Konvergenz der Berech-
nung und damit Güte der Berechnungsergebnisse zu
realisieren.
Literatur
[ANS09] ANSYS CFX Help, Release 12.0, ANSYS Inc.,
2009.
[BRE95] Brennen, Christopher E.: Cavitation and Bubble
Dynamics, Oxford University Press, 1995.
[SAN99] Sander, Rolf: Compilation of Henry´s Law Con-
stants for Inorganic and Organic species of Po-
tential Importance in Environmental Chemistry,
Max-Plank Institute of Chemistry Mainz, 1999
[YAN05] Yang, H.Q., Singhal, A.K., Megahed, M.: The Full
Cavitation Model, von Karman Institute of Fluid
Dynamics, 2005.
[SAU00] Sauer, J. Instationäre kavitierende Strömungen.
Ein neues Modell, basierend auf Front Captu-
ring (VoF) und Blasendynamik, Dissertation,
Universität Karlsruhe, 2000.
Publikationen
Numerische Simulation der kavitierenden Strömung in
Diesel-Einspritzsystemen
ANSYS Conference & CADFEM Users Meeting, 2009,
ISBN:3-937523-09-5
Vortrag
Applikation von OpenFOAM® zur Analyse von Airbag-Gas -
generatoren.
Jahrestreffen der ProcessNet-Fachausschüsse Computatio-
nal Fluid Dynamics und Wärme- und Stoffübertragung,
Hamburg, 2010.
Kontakt
Prof. Dr.-Ing. Peter Bartsch
Beuth Hochschule für Technik Berlin
Fachbereich VIII Maschinenbau, Verfahrens- und
Umwelttechnik
Luxemburger Straße 10
13353 Berlin
Tel.: (030) 45 04 - 53 11
E-Mail: [email protected]
Kooperationspartner
CFX Berlin Software GmbH
Geschäftsführung Dipl.-Ing. Petra Maier
Technischer Ansprechpartner: Dr. Andreas Spille-Kohoff
Tel.: (030) 29 38 11 39
E-Mail: [email protected]
Hydraulik-Ring GmbH
Daniel Viertler
Tel.: (0 70 22) 92 26 23 70
E-Mail: [email protected]
Kavitierende Strömung in Diesel-Einspritzsystemen
58
Arbeitsgebiete der Forschungsassistent/innen als Übersicht
59
Forschungsassistent/in Forschungsgebiet Betreuer/in
Fachbereich II Mathematik - Physik - Chemie
Dr. Norbert Gorenflo Berechnung von Schallfeldern in Arbeitsräumen (SIMOSA) Prof. Dr. Martin Ochmann
Fachbereich III Bauingenieur- und Geoinformationswesen
Martin Floth M.Sc. Optische 3D Messtechnik für die berührungslose, Prof. Dipl.-Ing. Michael Breuer
detaillierte Erfassung von Objektoberflächen in
Archäologie und Denkmalpflege
Fachbereich IV Architektur und Gebäudetechnik
Dr. Charlotte Hagner Entwicklung eines Zertifizierungssystems „Nachhaltige Prof. Kai Kummert
Immobilien für den Mittelstand“ in Deutschland
Fachbereich V Life Sciences and Technology
Dipl.-Ing (FH) Josephine Reiss Entwicklung von PCR Verfahren zum schnellen und einfachen Prof. Dr. Herbert Weber
Nachweis von Parasiten und anderen Krankheitserregern in
Trink- und Brauchwässern
Dipl.-Ing. (FH) Shireen Weise Methoden zur Identifizierung von posttranslationalen Prof. Dr.-Ing. Roza Maria Kamp
Modifikationen in Proteinen
Fachbereich VI Informatik und Medien
Dipl.-Ing. Andreas Hilbert Weiterentwicklung eines Sprachsynthesesystems Prof. Dr. Hansjörg Mixdorff
Dipl.-Inf. FH Benjamin Wolf Nutzerdaten und Nutzerprofile in Lernraumsystemen Prof. Dr. Agathe Merceron
Fachbereich VIII Maschinenbau, Verfahrens- und Umwelttechnik
Marcus Siewert M.Eng. Bionical Morphological Computation Prof. Dr.-Ing. H.-D. Kleinschrodt
Matthias Voß M.Eng. Kavitierende Strömung in Diesel-Einspritzsystemen Prof. Dr.-Ing. Peter Bartsch
Arbeitsgebiete der Forschungsassistent/innen als Übersicht
ISBN 978-3-8325-2749-5
Gefördert durch: