hochschule für angewandte wissenschaft hamburgusers.etech.haw-hamburg.de/users/fitz/diplomarbeit -...
Post on 19-Jul-2018
219 Views
Preview:
TRANSCRIPT
Hochschule für Angewandte Wissenschaften Hamburg Fachbereich Medientechnik
Diplomarbeit
Thema:
Entwicklung einer Internet-fähigen, interaktiven Multimedia-Präsentation unter Verwendung der
QuickTime-Architektur am Beispiel eines virtuellen Rundgangs durch den
Fachbereich Medientechnik
Diplomand: Daniel Schmidt
Matrikel-Nummer: 1580293
1. Gutachter: Prof. Dr.-Ing. R. Fitz
2. Gutachter: Prof. Dr.-Ing. R. Greule
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
ERKLÄRUNG „Ich versichere, dass ich die vorliegende Arbeit selbständig angefertigt und mich
keinerlei fremder Hilfe bedient habe. Für den praktischen Teil wurde ich von einem
Kommilitonen bei Auf- und Abbau des Equipements unterstützt. Alle Stellen, die
wörtlich oder sinngemäß fremden Quellen entnommen sind, habe ich als solche
kenntlich gemacht. Diese Arbeit hat in gleicher oder ähnlicher Form noch keiner
Prüfungsbehörde vorgelegen.“
Hamburg, den 15. August 2004 Daniel Schmidt
Daniel Schmidt August 2004 Seite 2
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
INHALTSVERZEICHNIS
ERKLÄRUNG 2
INHALTSVERZEICHNIS 3
1 VORWORT 6
2 QUICKTIME 7
2.1 GESCHICHTE 7 2.2 DIE ARCHITEKTUR 8 2.3 QTVR-PANORAMEN 12 2.3.1 PANORAMENTYPEN 14 2.3.1.a ZYLINDRISCHE PANORAMEN 14 2.3.1.b SPHÄRISCHE PANORAMEN 15 2.3.1.c KUBISCHE PANORAMEN 15 2.3.1.d VIRTUELLER RUNDGANG 16 2.3.2 IMAGE BASED RENDERING 17
3 MULTIMEDIAPRODUKTION 20
3.1 KONZEPTION 20 3.2 PRODUKTION 24 3.2.1 VIDEOPRODUKTION 24 3.2.2 INTERVIEWS 31 3.2.2.a COMPUTERLABOR (43 SEKUNDEN) 31 3.2.2.b DEKAN (79 SEKUNDEN) 32 3.2.2.c LICHT- UND PRODUKTIONSLABOR (53 SEKUNDEN) 33 3.2.2.d TONSTUDIO (44 SEKUNDEN) 34 3.2.2.e VIDEOLABOR (31 SEKUNDEN) 35 3.2.2.f VIRTUELLES STUDIO (43SEKUNDEN) 36 3.2.3 QUICKTIME VR PRODUKTION 37 3.2.4 GRAFIKPRODUKTION UND FLASH-PRODUKTION 41 3.3 POST-PRODUKTION 41 3.3.1 VIDEO 41 3.3.1.a SCHNITT 41 3.3.1.b NACHSYNCHRONISIERUNG 43 3.3.1.c DATENKOMPRESSION 44 3.3.2 QUICKTIME VR POST-PRODUKTION 46
4 AUTHORING UND LIVESTAGE PROFESSIONAL 49
4.1 PROJEKT 50 4.2 FLASH IN QUICKTIME 51 4.2.1 DIE KARTE 52 4.2.2 DIE TEXTE 53 4.2.3 FLASH-BUTTONS 54 4.3 GRAFIK IN QUICKTIME 55 4.3.1 DER PLAYER 55 4.3.2 DIE INDIVIDUELLE FENSTERFORM 57
Daniel Schmidt August 2004 Seite 3
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
4.3.3 DIE DRAG AREA 57 4.4 DIE BUTTONS 58 4.4.1 BUTTONS FÜR DIE QTVR-STEUERUNG 61 4.4.1.a BUTTON - HOTSPOTS AN / AUS 61 4.4.1.b BUTTONS - SCHWENK LINKS / RECHTS 62 4.4.1.c BUTTONS - ZOOM IN / OUT 65 4.4.1.d BUTTON - RESET 67 4.4.2 BUTTONS FÜR DIE VIDEO-STEUERUNG 69 4.4.2.a BUTTON - SCHNELLER RÜCKLAUF 69 4.4.2.b BUTTON - STOP 70 4.4.2.c BUTTON - PLAY 72 4.4.2.d BUTTON - PAUSE 73 4.4.2.e BUTTON - SCHNELLER VORLAUF 73 4.4.3 BUTTONS FÜR DIE KARTE (MAP) 74 4.4.3.a SCRIPT FÜR DIE PANORAMA-BUTTONS 74 4.4.3.b SCRIPT FÜR DIE PLUS-BUTTONS 77 4.4.4 WINDOW-BUTTON 77 4.5 LAYOUT 78 4.5.1 VR CONTROL - LAYOUT 79 4.5.2 VIDEO CONTROL - LAYOUT 80 4.5.3 MAP-BUTTONS - LAYOUT 80 4.5.4 WINDOW-BUTTON - LAYOUT 81 4.6 MOVIE-IN-A-MOVIE IN QUICKTIME 82 4.7 NODES 83 4.8 HOTSPOTS 87 4.9 QSCRIPT FÜR DIE HOTSPOTS 89 4.10 ZUORDNUNGSTABELLE FLASH-FRAMES – HOTSPOTS/SPRITES 91 4.11 HOMEPAGE 96 4.12 STARTMENÜ 98
5 WEITERE MÖGLICHKEITEN UND IDEEN FÜR DIE ZUKUNFT 101
6 SCHLUSSBEMERKUNG 103
7 LITERATURVERZEICHNIS 104
8 ANHANG 106
8.1 DIE HOTSPOTS ALLER RÄUME UND DIE TEXTE DAZU 106 8.1.1 CAMPUS (VORDER- UND RÜCKSEITE) 106 8.1.2 ELEKTRONIK-, REGELUNGSTECHNIK- UND COMPUTERLABOR 107 8.1.3 FOYER 112 8.1.4 LICHT- UND PRODUKTIONSLABOR 112 8.1.5 TONLABOR 116 8.1.6 VIDEOLABOR 120 8.1.7 VIRTUELLES STUDIO 123 8.1.8 TEXTE FÜR DIE BUTTONS DER KARTE (RÄUME ALS EINZELVERSIONEN) 127 8.1.9 TEXTE FÜR DIE BUTTONS DER KARTE (VOLLVERSION) 129 8.1.10 TEXTE UND BILDER DER ZUSATZRÄUME AUF DER KARTE 131 8.1.11 BEENDEN-TEXT 134 8.2 README 134 8.3 QSCRIPTS ZU ALLEN PANORAMA-BUTTONS 136 8.3.1 CAMPUSB-BUTTON 136
Daniel Schmidt August 2004 Seite 4
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.3.2 COMPUTERLABOR-BUTTON 137 8.3.3 FOYER-BUTTON 138 8.3.4 LICHT- UND PRODUKTIONSLABOR-BUTTON 139 8.3.5 TONLABOR-BUTTON 140 8.3.6 VIDEOLABOR-BUTTON 141 8.3.7 VIRTUELLES STUDIO-BUTTON 142 8.3.8 CAMPUSA-BUTTON 143 8.4 QSCRIPTS ZU ALLEN PLUS-BUTTONS 144 8.4.1 CAFÉTERIA-BUTTON 144 8.4.2 ELEKTROTECHNIK-BUTTON 144 8.4.3 FOTOLABOR-BUTTON 144 8.4.4 FSR-BUTTON 145 8.4.5 INNENHOF-BUTTON 145 8.4.6 INTERNET-CAFÉ-BUTTON 145 8.4.7 REGELUNGSTECHNIK-BUTTON 145 8.4.8 STUDIENZENTRUM-BUTTON 146 8.4.9 VORLESUNGSRAUM1-BUTTON 146 8.4.10 VORLESUNGSRAUM2-BUTTON 146 8.4.11 VORLESUNGSRAUM3-BUTTON 146 8.5 QSCRIPT FÜR DAS [NODE ENTERED]-EVENT ALLER NODES 147 8.5.1 CAMPUSB 147 8.5.2 ERC-LABOR 148 8.5.3 FOYER 149 8.5.4 LICHT- UND PRODUKTIONSLABOR 150 8.5.5 TONLABOR 151 8.5.6 VIDEOLABOR 152 8.5.7 VIRTUELLES STUDIO 153 8.5.8 CAMPUSA 154 8.6 LIZENZVEREINBARUNGEN MIT DEN INTERVIEW-PARTNERN 155 9 CD-ROM MIT DER CD-VERSION DES VIRTUELLEN RUNDGANGS 10 DVD MIT 10.1 INTERNET-VERSIONEN DES VIRTUELLEN RUNDGANGS 10.2 LIVESTAGE PROJEKTDATEIEN 10.3 MEDIASTOCK MIT ALLEN MEDIENELEMENTEN
Daniel Schmidt August 2004 Seite 5
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
1 VORWORT Information hat für uns eine immer stärker werdende Bedeutung.
Informationsbroker verdienen ihren Lebensunterhalt mit dem Handel von
Informationen und ganze Branchen sind auf dem Informations- und
Kommunikationssektor anzutreffen. Die Form in der die Information angeboten
wird, ist einem immer schneller werdenden Wandel unterzogen. Während man
früher Text mit der Post verschickt und Sprache am Telefon übermittelt hat, wird das
Bedürfnis nach visuellen Informationen immer größer. Unsere sehr audiovisuell
geprägte Gesellschaft strebt nach Bildtelefonen, Videokonferenzen und aufwendigen
Flash-Animationen, um nur einiges zu nennen. Klares Ziel ist es, durch
medientechnische Hilfsmittel, wie das Fernsehen oder das Internet, Distanzen zu
überwinden. Die logische Schlussfolgerung daraus ist, dass man sich auch sehr gerne
an Orten von Interesse, virtuell im Internet oder mittels CDs oder DVDs umsehen
möchte. Diese Möglichkeit bietet QuickTime Virtual Reality (QTVR), hier kann die
Anwenderin oder der Anwender sich durch Ziehen der Maus in einem 360 Grad
Panorama umsehen. Der Grund für die geringe Verbreitung von QTVR Panoramen
im Internet ist wohl auf die großen Datenmengen zurückzuführen, die übermittelt
werden müssen. Mit der wachsenden Verbreitung von DSL wird sich dies aber mit
Sicherheit ändern.
Meine Motivation, diese Diplomarbeit zu schreiben, hat mehrere Gründe. Eine
Diplomarbeit sollte zum einen zeigen, dass man sich in ein neues Themengebiet
selbständig einarbeiten kann, zum anderen sollte man aber auch Erfahrungen, die
man im Studium gesammelt hat, anwenden können. Kenntnisse wie Filmschnitt,
Beleuchtung, Tonaufnahme und weitere habe ich im Schwerpunkt „A/V-Medien“
gelernt und kann sie jetzt anwenden. Das Erstellen von QTVRs, Aufbereitung von
Filmen für das Internet, das Verständnis für QuickTime-Movies, sowie das Authoring
von Wired-Movies (interaktive Filme aus verschiedenen Medienelementen) sind für
mich Neuland und stellen sozusagen die Herausforderung dar.
Am Ende der Diplomarbeit steht ein fertiges Produkt, wodurch dem Namen der
Hochschule auch in der Arbeit Rechenschaft getragen wird. Wissenschaft wird
angewandt, als Abschlussarbeit eines Studiums an der Hochschule für Angewandte
Wissenschaft Hamburg.
Daniel Schmidt August 2004 Seite 6
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
2 QUICKTIME
2.1 GESCHICHTE
Das Ziel von QuickTime war es ursprünglich, die Wiedergabe von Video- und
Audiodaten auf einem Computer, ohne teure und aufwendige Hardware, zu
ermöglichen. Davor war dies nur mit Laserdisk-Playern möglich. Das 1991 auf dem
Markt erschienene QuickTime 1.0 ermöglichte nun die Wiedergabe von Video- und
Audiodaten direkt von der Festplatte. Dafür war die Entwicklung von Codecs
(Codierer und Decodierer) notwendig, mit deren Hilfe Video- und Audiodaten auf
kleine Datenraten komprimiert und auch wiedergegeben werden konnten. Die
Qualität der Codecs, war im Vergleich zu heutigen, von schlechter Qualität und auch
die Abmessung der Filme war auf 156 x 116 Pixel beschränkt. QuickTime entwickelte
sich im Laufe der Jahre ständig weiter und ist heute, mit Version 6, viel mehr als nur
ein Wiedergabesystem für Videos. Mit QuickTime 2 (1994) konnten Videos zum einen
bildschirmfüllend, zum anderen auch auf Windows-Systemen abgespielt werden.
1995 wurde mit QuickTime Virtual Reality eine ganz neue Technologie eingeführt,
die es ermöglichte, sich in digitalen Panoramen umzusehen. QuickTime 3 (1998) bot
zum ersten Mal eine identische Version für Windows und Mac-Systeme an. Somit
konnten nun auch auf Windows-Systemen QuickTime-Filme entwickelt werden. Ab
Version 3 gab es die Trennung zwischen QuickTime Player, der die Wiedergabe
ermöglicht und kostenlos zur Verfügung steht, und QuickTime Pro, welches eine
Editierfunktion für QuickTime-Filme bereitstellt. Mit dem Erfolg des Internets im
Jahre 1997 weitete QuickTime sein Einsatzgebiet von CD-ROM-Produktionen auf
Internet-Anwendungen aus. QuickTime-Filme konnten mit einem QuickTime Plug-In
erstmals direkt im Browser Netscape betrachtet werden, andere Browser folgten. Das
Hauptmerkmal von QuickTime 4 (1999) war die Möglichkeit zum Streaming von
Videos über das Internet. Durch diese Eigenschaft fand QuickTime enorme
Verbreitung, da der Trailer zu dem Film Star Wars: The Phantom Menace nur auf
der Seite von Apple bereitgestellt werden durfte. Insgesamt wurde der Trailer neun
Millionen Mal geladen, zwei Millionen Mal wurde das Installationsprogramm von
QuickTime geladen. QuickTime 5 (2001) zeichnete sich durch viele Verbesserungen
an den Codecs aus. Ebenso konnten nun eigene Interfaces durch so genannte Media
Daniel Schmidt August 2004 Seite 7
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Skins erzeugt und neue Medienelemente wie z.B. Flash-Filme integriert werden. Die
Popularität von QuickTime stieg weiter, innerhalb eines Jahres wurde QuickTime 5
über 100 Millionen Mal von Windows und Macintosh-Benutzerinnen und Benutzern
von Apples Homepage geladen. QuickTime 6 stellt die aktuelle Version der
QuickTime Familie dar und ist weit verbreitet. 175 Millionen Mal wurde es innerhalb
von 18 Monaten geladen. Aktuell wird das Installationsprogramm von QuickTime
300.000 Mal am Tag geladen. Laut Apple nutzen 100 Millionen Anwenderinnen und
Anwender bereits QuickTime. Die Standardinstallation von QuickTime 6 stellt zudem
den Codec MPEG-4 bereit, der sehr leistungsfähig und qualitativ hochwertig ist.
MPEG-2 sollte in QuickTime 5 integriert werden, leider scheiterten die
Verhandlungen damals. Die Integration vom MPEG-4 in QuickTime 6 ist durchaus
sinnvoll, da QuickTime als Ausgangspunkt für das Dateiformat von MPEG-4 vom
MPEG-Gremium bestimmt wurde und beide Medienformen somit viele
Ähnlichkeiten wie z.B. Interaktivität und Multi-Layer-Technik für audiovisuelle
Medien aufweisen.1
2.2 DIE ARCHITEKTUR
QuickTime ist eine Technologie, die es ermöglicht, zeitbasierte Daten zu
kontrollieren. QuickTime Virtual Reality, als Erweiterung der QuickTime-
Architektur, weicht bereits von dieser Aussage ab. Mit QTVR soll der Betrachterin
oder dem Betrachter die Möglichkeit gegeben werden, sich in einem Panorama zeitlos
umzusehen. Darauf wird später noch genau eingegangen.
Zunächst wollen wir einen Blick auf die Grundlagen von QuickTime werfen. Ein
QuickTime-Film, Movie genannt, kann im simpelsten Fall, wie traditionelle Filme auf
gebaut sein, die wir z.B. von DVDs kennen. Dabei würde es sich um das zeitlich
kontinuierliche Abspielen von Video- und Audiodaten handeln. Ein Movie kann aber
auch aus vielen verschiedenen Formen von Daten bestehen, die in verschiedenen
Spuren, Tracks genannt, angeordnet sind. Innerhalb der Tracks existieren die
einzelnen Medien, die auf die eigentlichen Daten, wie Video-, Bilder- oder Sound-
Dateien, verweisen. Somit stellt das Movie nicht die Medien selbst dar, sondern das
Organisationsprinzip. Die folgende Abbildung 1 verdeutlicht, wie QuickTime ein
Movie wiedergibt.
1 Information aus Literatur [1] und [11].
Daniel Schmidt August 2004 Seite 8
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Die Movie To
gespeichert sin
In der Image
Anwendung. D
bzw. auch ho
komprimiert
symmetrische
Codecs benöti
sind sie, z.B.
Asymmetrisch
die Decodierun
Eine Architek
Programmrou
werden in Qu
QuickTime m
jederzeit benö
werden, um Q
Daniel Schmidt
Abbildung 1 - QuickTime
olbox ermöglicht den Zugriff auf die Daten, die in einem Movie
d. Hier kann der Film gesteuert und verändert werden.
Compression und Decompression finden die bereits erwähnten Codecs
a vor allem Bewegtbilddaten einen enormen Speicherplatz benötigen
he Datenraten bei der Wiedergabe erzeugen, werden diese Daten
gespeichert und bei der Wiedergabe dekodiert. Dabei kann auf
oder asymmetrische Codecs zurückgegriffen werden. Symmetrische
gen für das Codieren in etwa soviel Zeit, wie beim Decodieren, dadurch
für Anwendungen wie Live-Streaming oder Videophonie geeignet.
e Codecs hingegen benötigen zum Codieren wesentlich länger, sind, für
g, aber mit wenigem Rechenaufwand verbunden.
tur bezeichnet, im Fall von QuickTime, eine Sammlung von
tinen, die über ein Protokoll erweiterbar sind. Diese Erweiterungen
ickTime als Komponenten bezeichnet. Die Standardinstallation liefert
it bereits 200 dieser Komponenten, doch über das Internet können
tigte Komponenten, wie z.B. ein fehlender Codec, herunter geladen
uickTime zu erweitern.
August 2004 Seite 9
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Abbildung 2 zeigt sehr schön die Tracks, die sich innerhalb eines Movies befinden.
Jeder Track kann nur Medien des gleichen Medientyps enthalten. Also beispielsweise
kann ein Picture-Track kein Video enthalten, genauso wenig wie Ton.
Abbildung 2 – Prinzip eines Movies
Innerhalb von QuickTime stehen sehr viele unterschiedliche Track-Arten zur
Verfügung. Das Authoring Programm Livestage Pro, das später genauer vorgestellt
wird, ermöglicht es, diese Tracks zu erstellen. Folgende Tracks können erstellt
werden:
▪ Video-Track Ein Track zur Einbindung von Videodateien.
▪ Audio-Track Ein Track zur Einbindung von Audiodateien.
▪ Picture-Track Ein Track zur Einbindung von Einzelbildern im TIFF-,
PICT-, BMP-, PNG-, GIF-, JPEG-Format und Photoshop-
Ebenen.
▪ Movie-Track Ein Track der als Movie-Container verwendet wird. Filme
und auch andere Medien, wie Flash-Filme und Pictures,
können unabhängig von der Haupt-Timeline abgespielt
werden. Somit können Movie-In-A-Movie-Projekte
realisiert werden.
▪ Sprite-Track Ein programmierbarer Track, der mehrere interaktive
Objekte, wie z.B. Buttons, enthalten kann, die Sprites
genannt werden.
▪ Text-Track Ein Track für Text-Elemente. Der Text kann formatiert,
animiert und mit anderen Elementen des Films
synchronisiert werden.
Daniel Schmidt August 2004 Seite 10
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
▪ Color-Track Ein Track zur Erstellung von Farb- oder
Farbverlaufsflächen.
▪ Effect-Track Ein Track für die Einbindung von integrierten QuickTime-
Effekten.
▪ Window-Shape- Ein Track zur Erzeugung einer individuellen Fensterform
Track für das Movie.
▪ Virtual Reality- Ein programmierbarer Track für QTVR-Panoramen und
Track QTVR-Objekte.
▪ Flash-Track Ein Track zur Integration von Flash-Filmen im .swf-
Format. Flash muss nicht auf dem Zielsystem installiert
sein.
▪ Tween-Track Ein Track zur Generierung von Daten für andere Tracks.
So können z.B. Sprites anhand der Daten von Start und
Endposition bewegt werden, alle Positionen dazwischen
werden berechnet.
▪ Modifier-Track Ebenfalls ein Track zur Generierung von Daten. Er gibt
aber nur eine vorgespeicherte Sequenz an Daten wieder,
z.B. 1,3,4,2,7. Auf diese Sequenz können andere Tracks
zugreifen.
▪ Instrument-Track Ein Track zur Einbindung von MIDI-Instrumenten.
▪ Streaming-Track Ein Track für das Streaming von Live-Events oder
gespeicherten Medien.
▪ Fast-Tracks Es stehen Skin-, Playback-Control-, Statusbar-, VR-Map-,
VR-Compass-, VR-Control- und VR-Sounds-Fast-Tracks
zur Verfügung. Diese Tracks stellen keine neue Track-Art,
sondern eine Umkonfigurierung der vorstehenden Tracks
dar. So bietet der Playback Control-Fast-Track Standard-
Buttons zur Steuerung für Videos an und ist somit ein
Sprite-Track. Für das Projekt des virtuellen Rundgangs
wurden keine Fast-Tracks eingesetzt, da alle Buttons,
individuell in Design und Funktionalität, vom Standard
abweichen und somit speziell für das Projekt entwickelt
werden mussten.
Daniel Schmidt August 2004 Seite 11
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Während Tracks übereinander geschichtet werden und somit das vertikale
Organisationsprinzip eines Movies darstellen, so ist die Zeit die horizontale
Komponente. Da Zeit bekanntlich relativ ist, muss ein Maßstab gefunden werden, auf
welchen man alles beziehen kann. So hat ein Movie eine so genannte Timeline, die bei
normaler Wiedergabe, der realen Zeit entspricht (eine Sekunde der Timeline
entspricht einer Sekunde beim Abspielen). Die Timeline ist über die Bildrate (Frames
pro Sekunde) in Frames (Bilder) unterteilt. Jedes Medium, das in einen QuickTime-
Film integriert wird, hat aber zu dem noch seine eigene Timeline. Gesteht man
einem Medium jetzt beispielsweise nur die Hälfte seiner normalen Dauer zu, so läuft
es innerhalb des QuickTime-Films doppelt so schnell ab. QTVR-Panoramen, die
eigentlich zeitlos sind, werden später noch genauer erklärt. Das Funktionsprinzip der
einzelnen Tracks und deren Programmierung wird in Abschnitt 4 Authoring genau
anhand des Projekts virtueller Rundgang beschrieben.
Die Einsatzgebiete von QuickTime reichen von der Wiedergabe, über die
Editierfunktionen (z.B. Video-Bearbeitung), Authoring-Möglichkeiten, bis hin zur
Programmierung. QuickTime verfügt über frei zugängliche Programmier-
schnittstellen (APIs), somit kann QuickTime in jedes andere Programm, wie
beispielsweise Video-Bearbeitungssoftware oder das bereits erwähnte Livestage Pro
als Authoring-Programm, integriert werden.2
2.3 QTVR-PANORAMEN
Hinter der Abkürzung QTVR verbirgt sich „QuickTime Virtual Reality“ und stellt
eine Erweiterung der normalen QuickTime-Architektur dar. Diese Technologie
ermöglicht es, sich virtuell in einem Raum umzusehen oder ein Objekt virtuell aus
verschiedenen Blickwinkeln zu betrachten. Das Besondere daran ist, dass ein
Panorama, im Gegenzug zu den „normalen“ QuickTime-Filmen, zeitlos ist. Der
Betrachter möchte sich ungestört und so lange er will im Panorama umsehen.
Abbildung 3 zeigt die Struktur eines einzelnen Panoramas. Es werden drei
QuickTime-Tracks für ein Panorama benötigt, die dann zu einem neuen Track
gruppiert werden. Werden Hotspots verwendet, also Bereiche im Panorama, denen
Aktionen zugeordnet werden können, so ist ein vierter Track notwendig. Der
2 Information aus Literatur[1], [6], [7], [8] und [10].
Daniel Schmidt August 2004 Seite 12
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Panorama-Image-Track ist eigentlich ein Video Track, in dem das Panoramabild
zerstückelt (diced) und komprimiert (meist mit JPEG) abgelegt wird. Die Zeitbasis
(Frames) von QuickTime wird verwendet um die entsprechenden Videodaten zu
lokalisieren. Der Panorama-Track enthält die Information zum Panorama, wie die
Daten, die im Panorama-Image-Track gespeichert sind, angezeigt werden.
D
M
b
A
(
d
w
D
e
A
P
g
d
v
e
m
a
F
3
D
Abbildung 3 – Aufbau eines QTVR-Movies
ie Funktion des QTVR-Tracks wird deutlicher, wenn man sich die Struktur eines
ulti-Node-Films, also eines Films, der aus mehreren Panoramen oder Objekten
esteht, ansieht (siehe Abbildung 4). Hier sieht man, dass der QTVR-Track zur
nsteuerung des jeweiligen Panoramas oder Objektes verwendet wird. Jeder Node
Panorama oder Objekt) besitzt seinen eigenen Panorama- oder Objekt-Track und
en dazugehörigen Image-Track. Sollten einem Panorama Hotspots zugeordnet
erden, dann geschieht dies, wie bereits erwähnt, in einem separaten vierten Track.
ieser Track enthält, wie der Panorama-Image-Track, ein Panorama, in dem die
inzelnen Hotspots als verschiedenfarbige Farbflächen abgespeichert sind. Die
bmessungen des Hotspot-Panoramas sind genau dieselben, wie die des „normalen“
anoramas und es wird ebenfalls in einzelnen Stücken (diced) in einem Video-Track
espeichert. Diese einzelnen Bilder müssen mit einem verlustlosen Video-Codec, wie
em Graphics-Codec von QuickTime, gespeichert werden, damit keine Information
erloren geht, d.h. die Form der Farbflächen, die den einzelnen Hotspots
ntsprechen, genau erhalten bleibt und nicht durch Blockbildung durch einen Codec
it Verlusten verfälscht wird. Der Hotspot-Track sollte eine Farbtiefe von acht Bit
ufweisen, da pro Panorama 256 Hotspots erzeugt werden können. Mit einer
arbtiefe von acht Bit lassen sich 28=256 verschiedene Farben unterscheiden.3
Information aus Literatur [2],[7] und [9].
aniel Schmidt August 2004 Seite 13
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
2
W
D
d
A
z
z
2
B
v
I
v
u
D
Abbildung 4 - Multi-Node Track
.3.1 PANORAMENTYPEN
ir unterscheiden drei verschiedene Formen von Panoramen:
▪ zylindrische Panoramen,
▪ kubische Panoramen und
▪ sphärische Panoramen.
ie Unterschiede liegen dabei auf der geometrischen Figur, auf die das gestitchte,
.h. das aus Einzelbildern zusammengefügte, Panoramabild projiziert wird. Das
uthoring-Programm QuickTime Authoring Studio von Apple unterstützt nur
ylindrische und kubische Panoramen. Am weitesten verbreitet sind nach wie vor
ylindrische Panoramen.
.3.1.a ZYLINDRISCHE PANORAMEN
ei zylindrischen Panoramen wird als Projektionsform beim Stitchen ein Zylinder
erwendet. Die Einzelbilder werden nach dem Zusammenfügen sozusagen auf die
nnenfläche eines Hohlzylinders gespannt / projiziert. Der Betrachter befindet sich
irtuell im Mittelpunkt des Zylinders und kann sich in ihm drehen bzw. den Zylinder
m sich drehen. Durch die zylindrische Krümmung erhält das Panorama einen
aniel Schmidt August 2004 Seite 14
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
realistischeren Eindruck, als bei einem planen Bild. Bei einigen Verfahren mit Java
und Flash, wird im Gegensatz zu QuickTime VR, nur ein ebenes Bild in einem
Ausschnittsfenster nach links oder rechts gezogen. Zylindrische Panoramen können,
je nach Objektiv, bis zu ca. 120° vertikale Bildinformation enthalten, da rechtwinklig
abbildende Weitwinkelobjektive mit den geringsten Brennweiten keine größeren
Bildwinkel abbilden können. Bei der Aufnahme sollten sich die Einzelbilder um ca.
50 % überlappen, um das Stitchen zu erleichtern. Das Prinzip eines zylindrischen
Panoramas ist in Abbildung 5 dargestellt.
2.3.1.b SPHÄRISCHE PANORAMEN
Bei dieser Form der Projektion wird das gestitchte Bild auf eine Kugelfläche
gespannt. Hier wird ebenfalls durch die Krümmung des Bildes ein realistischer
Eindruck erzeugt. Ein sphärisches Panorama enthält 360° Bildinformation in der
Horizontalen und 180° Bildinformation in der Vertikalen. Das gestitchte Bild hat
somit ein Seitenverhältnis von 2:1. Sphärische Panoramen können sowohl mit einer
so genannten Multi-Row-Technik oder mit Hilfe von Fish-Eye-Objektiven erstellt
werden. Bei der Multi-Row-Technik werden, wie bei den zylindrischen Panoramen,
viele Einzelbilder erstellt, allerdings mehr als eine Reihe. Nachdem die erste Reihe
fotografiert ist, wird die Kamera, je nachdem welchen Bildwinkel das Objektiv liefert,
vertikal gekippt. Jetzt wird eine neue Reihe von Einzelbildern aufgenommen. Diese
Reihe sollte sich wieder möglichst um 50% mit der ersten Reihe überlappen. Ist die
nächste Reihe fertig gestellt, fährt man mit neuen Reihen fort, bis man die Decke
erreicht. Danach geht man für die untere Halbkugel entsprechend vor. Um das Stativ
nicht abzubilden muss das letzte Bild des Bodens aus der Hand fotografiert werden.
Verwendet man ein Fish-Eye-Obkektiv, dann sind wesentlich weniger Bilder
notwendig, da ein Fish-Eye-Objektiv Bildwinkel bis zu 180° liefert. Allerdings wird
dazu eine Software benötigt, die mit den verzerrten Fish-Eye-Aufnahmen umgehen
und sie entzerren kann.
2.3.1.c KUBISCHE PANORAMEN
Ein kubisches Panorama besteht aus sechs Einzelbildern. Vier für je eine Seite eines
Raumes, sowie eines für die Decke und eines für den Boden. Für die Aufnahme ist ein
Weitwinkelobjektiv notwendig, da jedes Bild über eine Bildinformation von 90°
Daniel Schmidt August 2004 Seite 15
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
sowohl horizontal, als auch vertikal verfügen muss. Für das Stitchen ist es aber
notwendig, dass die Bilder zusätzlich noch überlappen, damit die Software sie
problemlos ineinander überblenden kann. Deshalb sollte möglichst 120°
Bildinformation, sowohl vertikal, als auch horizontal, vorliegen.
2.3.1.d VIRTUELLER RUNDGANG
Alle diese Panoramen können zu einem virtuellen Rundgang mittels Hotspots
verbunden werden. Dies sind Bereiche im Bild, auf die geklickt werden kann, um in
den nächsten Raum zu gelangen. Hotspots werden im Abschnitt 4.8 Hotspots
genauer erklärt. Für den virtuellen Rundgang des Fachbereichs wurden zylindrische
Panoramen gewählt, da der Hochschule mit dem QuickTime Authoring Studio
zylindrische und kubische Panoramen für die Produktion zur Verfügung standen. Es
wurden die zylindrischen Panoramen ausgewählt, da für die meisten Räume die
Decke und der Boden nicht von Interesse sind, zum anderen stand auch kein
Weitwinkelobjektiv zur Verfügung. Bei gleicher Qualität und Auflösung sind
zylindrische Panoramen natürlich in der Datenmenge geringer als kubische
Panoramen. Deshalb macht es keinen Sinn die Datenmenge wegen fast
informationslosen Decken- und Boden-bildern zu vergrößern.4
4 Information au
Daniel Schmid
Abbildung 5 - Prinzip eines zylindrischen Panoramas
s Literatur [2] und [3].
t August 2004 Seite 16
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
2.3.2 IMAGE BASED RENDERING Image Based Rendering nennt sich die Technik, die hinter der Erstellung von
Panoramen aus Einzelbildern steht. Diese Technik stellt die Grundlage des später
erwähnten Stitching-Verfahrens dar (siehe Abschnitt 3.3.2 QuickTime VR Post-
Produktion). Hinter der Technik steht der Wunsch 3D Welten möglichst realistisch in
2D Welten darzustellen. Um ein dreidimensionales Objekt darzustellen und seine
Oberflächeneigenschaft zu definieren, wird zusätzlich zu seiner Form noch dessen
Farbe, Glanz, Reflexion und Transparenz benötigt. All diese Faktoren zusammen
ergeben erst den charakteristischen Eindruck eines bestimmten Oberflächen-
materials. Der Rechenaufwand für das Berechnen von 3D Szenen in Echtzeit ist
enorm und erfordert sehr leistungsfähige Computer. Ab einer bestimmten
Komplexität ist dies nicht mehr in Echtzeit möglich. Dies lässt sich leicht anhand
einer Szene mit spiegelnden Objekten nachvollziehen. Ein Gegenstand spiegelt sich in
einem anderen und dieser spiegelt sich wiederum im ersten und so weiter. Jeder
Bildpunkt muss mittels Raytracing berechnet werden. Dabei wird jeweils ein
Projektionsstrahl, vom Betrachter aus, durch jeden Bildpunkt der 2D
Projektionsfläche (Computermonitor) in die Szene „geschossen“ und berechnet wo
dieser Projektionsstrahl endet. Bei vielen spiegelnden Elementen kann man sich
vorstellen, dass der Strahl sehr oft reflektiert wird, bevor die Lichtintensität
vernachlässigbar ist. Natürlich kann man die Anzahl der Reflexionen auch limitieren,
aber, je mehr Reflexionen, desto realistischer ist die Szene. Kann die Szene nicht
mehr in Echtzeit berechnet werden, dann muss die Szene gerendert werden, d.h. alle
Perspektiven, die benötigt werden, müssen berechnet und als Bilder gespeichert
werden. Für einen Film ist dies noch unproblematisch, da maximal 25 Bilder pro
Sekunde gespeichert werden müssen und man die Bewegung des Betrachters bzw.
der Kamera innerhalb der Szene festlegen kann. Möchte man aber interaktive 3D
Szenen gestalten, müsste man jede erdenkliche Perspektive rendern, um der
Anwenderin oder dem Anwender die Möglichkeit zu geben, sich frei in der Szene zu
bewegen. Dies scheitert allerdings am Speicherbedarf, den ein solches Projekt mit
sich bringen würde.
Der Ansatz des Image Based Renderings besteht nun darin, zunächst wie beim
Raytracing, 3D Objekte mittels Projektionsstrahlen auf eine 2D Fläche zu
projizieren, allerdings nicht für jede erdenkliche Perspektive. Vielmehr versucht man
nur wenige Aufnahmen zu produzieren und weiter Ansichten daraus zu berechnen.
Daniel Schmidt August 2004 Seite 17
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Die Projektionsfläche kann natürlich neben der planen Fläche auch eine
geometrische Figur, wie Zylinder, Kugel oder Würfel, sein. Mit den gesammelten
Projektionsstrahlen lassen sich dann neue Projektionsebenen konstruieren. Um eine
weitere Datenreduktion zu erreichen, wird die Beweglichkeit oder der Blickwinkel des
Betrachters eingeschränkt.
Für das Image Based Rendering gibt es je nach Anwendung verschiedene Techniken,
für QuickTime VR wird der Teilbereich der Panoramatechnik angewandt. Hier ist der
Betrachter auf einen Standort im Panorama festgelegt, kann aber seinen Blickwinkel
verändern. Ein Panorama wird, wie bereits erwähnt, aus einzelnen Bildern
zusammengesetzt und auf eine geometrische Figur (Zylinder, Kugel oder Würfel)
projiziert. Diese Projektionen werden als environment maps bezeichnet.
Abbildung
Zylinderflä
vom Zen
Projektion
mit jedem
Da die zy
besteht, m
mehrere
zusammen
Die recht
Einzelbild
Daniel Schm
Abbildung 6 – Projektion auf Zylindergeometrie
6 zeigt in einer Aufsicht, wie die planen Einzelbilder auf eine
che projiziert werden. Die linke Abbildung zeigt, wie ein Projektionsstrahl
trum C durch einen Bildpunkt p1 des Bildes auf die zylindrische
sfläche gelegt wird und den Projektionspunkt p2 bildet. Analog wird dann
Bildpunkt verfahren. Dabei tritt ein Qualitätsverlust durch Rasterung auf.
lindrische Projektionsfläche ebenfalls wie die Einzelbilder aus Pixeln
üssen die projizierten Bildpunkte in das Raster des Zylinder eingefügt bzw.
Bildpunkte des Ausgangsbildes zu einem Pixel des Zylinders
gefasst werden.
e Abbildung zeigt das Prinzip in den Überlappungsbereichen der
er. Hier werden die Bildpunkte p4 und p5 auf den Zylinder in Punkt p3
idt August 2004 Seite 18
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
projiziert. Wurde bei der Aufnahme der Bilder sauber gearbeitet, dann sind die
Punkte p4 und p5 identisch (bzgl. Farbe und Helligkeit) und können problemlos zu
Punkt p3 zusammengefasst werden. Unterscheiden sich die Einzelbilder allerdings in
Punkt p4 und p5 (bzgl. Farbe und Helligkeit), durch beispielsweise Parallaxenfehler
oder sich bewegende Objekte (siehe Abschnitt 3.2.3 QuickTime VR Produktion),
dann muss aus den beiden Punkten p4 und p5 der neue Punkt p3 interpoliert werden.
In so genannten Stitching-Programmen (siehe Abschnitt 3.3.2 QuickTime VR Post-
Produktion) wird dies durch Überblendungsbereiche realisiert. In diesen Bereichen
kann über Parameter gesteuert werden, in welchem Verhältnis die Bildpunkte
gemischt werden. Für Projektionspunkte, die näher zum linken Bild liegen, fließen
natürlich die Bildpunkte des linken Bildes (z.B. p4) stärker ein. Für
Projektionspunkte, die näher zum rechten Bild liegen, fließen entsprechend die
Bildpunkte des rechten Bildes (z.B. p5) stärker ein. Zusätzlich kann über Parameter
die Breite des Überblendungsbereichs festgelegt werden. Ist allerdings der linke Rand
des rechten Bildes erreicht, kann dieses natürlich nicht mehr zur Überblendung
beitragen und die Bildpunkte des linken Bildes werden zu 100 Prozent projiziert.5
5 Information aus Literatur [13] und [14]
Daniel Schmidt August 2004 Seite 19
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
3 MULTIMEDIAPRODUKTION
Eine Multimediaproduktion lässt sich, genau wie eine Filmproduktion, in
verschiedene Produktionsabschnitte gliedern:
▪ Konzeption,
▪ Produktion,
▪ Post-Produktion und
▪ Authoring.
Bei einer Filmproduktion ist das Authoring nicht zu finden, soll der Film aber auf
einer DVD distributiert werden, so ist auch hier ein Authoring notwendig. Ebenso
müssen in beiden Bereichen eine große Disziplin und eine gute Organisation
vorherrschen. Beim Film müssen alle einzelnen Einstellungen und Szenen verwaltet
werden, bei der Multimediaproduktion müssen verschiedene Medienelemente
organisiert werden. Hier tritt ein Unterschied auf: Während beim Film mit sehr
wenig Medienformen und Formaten gearbeitet wird, so ist bei der
Multimediaproduktion, wie der Name schon sagt, genau das Gegenteil der Fall. Nun
aber ein detaillierter Blick auf die einzelnen Produktionsschritte.
3.1 KONZEPTION
In der Phase der Konzeption einer Multimediaproduktion werden vorrangig Fragen
geklärt. Wichtige Fragen sind hierbei:
▪ Was möchte man mit dem Endprodukt erreichen?
▪ Wie soll das Endprodukt aussehen?
▪ Was soll das Endprodukt können?
▪ Welche Technologien führen zum gewünschten Ergebnis?
▪ Welche rechtlichen Aspekte gilt es beachten?
Die Ziele, die Multimedia-Projekte verfolgen, können von ganz unterschiedlicher Art
sein. Sie können entweder der Unterhaltung, der Werbung oder der Information
dienen. Konkret können dies Computerspiele, interaktive Filme, virtuelle Rundgänge,
eLearning und vieles mehr sein. Für den virtuellen Rundgang des Fachbereichs
Daniel Schmidt August 2004 Seite 20
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Medientechnik waren die Ziele sowohl informeller, als auch werbetechnischer Natur.
Man wollte die Möglichkeit schaffen, dass man sich räumlich unabhängig, virtuell am
Fachbereich umsehen und sich ein Bild vom Fachbereich machen kann. Dies führte
zu der Technologie der virtuellen Panoramen. Die weiterführende Idee war es, die
Panoramen mit zusätzlicher Information zu versehen. So sollten der Benutzerin oder
dem Benutzer Textinformation angezeigt werden, wenn sie mit der Maus über
interessante Bereiche im Panorama fahren, um mehr über den Fachbereich und die
Labore zu erfahren. Der dritte Gedanke war es, den virtuellen Rundgang durch
Interviews noch lebhafter zu gestalten und die Distanz zum Fachbereich somit zu
minimieren. Die Panoramen ermöglichen es somit, sich ein Bild von den
Räumlichkeiten zu machen, in den Interviews hingegen kann man Studierenden,
Tutoren, wissenschaftlichen Mitarbeitern und dem Dekan begegnen und lernt somit
einige der Menschen, die am Fachbereich arbeiten und studieren, kennen. Die
Textinformation versorgt die Anwenderin oder den Anwender mit zusätzlicher
Information zu jedem Raum und hat weiterhin zum Ziel, die Benutzerin oder den
Benutzer lange in einem Raum zu halten und ihn dort stöbern zu lassen. Panoramen,
Texte und Interviews haben das gemeinsame Ziel, den Fachbereich in einem
interessanten Licht darzustellen, Lust auf ein Studium zu machen und etwas vom
Potenzial der Hochschule zu präsentieren. Zielgruppe sollten somit Interessenten an
einem Studium am Fachbereich und die Wirtschaft sein.
Die nächste Frage beschäftigt sich mit dem Erscheinungsbild des
Multimediaprojekts. Zunächst muss geklärt werden, wie die Oberfläche aussehen soll
und wie die einzelnen Elemente auf ihr angeordnet sein sollen. Dazu wurden einige
Skizzen gemacht, danach wurde mit einem vektororientierten Grafikprogramm ein
Entwurf erstellt, der natürlich noch keinerlei funktionelle Interaktivität vorweist. Der
Zweck liegt nur darin, ein Bild zu schaffen, dass eine Diskussionsgrundlage bieten
kann. Ist die Multimediaproduktion eine Auftragsarbeit, so ist dieser grafische
Entwurf ein optimales Werkzeug für eine erste Abnahme. Dem Kunden werden ein
oder mehrere Entwürfe präsentiert. Entscheidet er sich für einen dieser Entwürfe,
kann dies protokolliert werden. Dies ist ein enorm wichtiger Punkt, denn sollte erst
am Ende der Produktion festgestellt werden, dass das Design gar nicht den
Vorstellungen des Kunden entspricht, so kommt die Umgestaltung des Designs fast
einem komplett neuen Projekt nahe.
Daniel Schmidt August 2004 Seite 21
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Was ein Projekt können soll, kann entweder vor oder nach der Frage nach dem
Design geklärt werden, das hängt ganz vom entsprechenden Projekt ab. Im Fall des
virtuellen Rundgangs war es nach der Frage nach den Zielen bereits klar, was der
Rundgang alles können muss: QTVR-Panoramen, Video, Textinformation und
Interaktivität. Die Frage wurde somit fast durch die Aufgabenstellung selbst geklärt,
dennoch gab es noch einigen Klärungsbedarf. So musste entschieden werden, welche
Buttons es geben soll, und welche Funktionen sie haben sollen. Für die Panoramen
mussten Buttons eingeplant werden, die das Schwenken des Panoramas und das
Zoomen ermöglichen, zusätzlich sollte die Benutzerin oder der Benutzer sich die
Hotspots anzeigen lassen können, um feststellen zu können, wo sich interessante
Information versteckt. Der letzte Button sollte über eine Reset-Funktion verfügen.
Falls sich eine Anwenderin oder ein Anwender durch Schwenken und Zoomen im
Panorama „verirrt“ hat, können sie die Ausgangsposition, mit einem Mausklick,
wieder herstellen. Die Interviews sollten gestartet werden, indem man auf die
entsprechende Person im Panorama klickt. Alle Personen, die angeklickt werden
können, sind immer in der Ausgangsposition des Panoramas zu sehen, somit führt
der Reset-Button sofort zu diesen Personen und somit schnell zu den Interview-
Videos. Für die Interviews sollten Buttons bereitstehen, die das Video anhalten,
fortsetzen, abbrechen, sowie schnell vor- und zurückspulen können. Für einen
virtuellen Rundgang ist zudem auch die Frage der Navigation enorm wichtig. Die
einzelnen Räume können zum einen durch Klicken auf Türen im Panorama
gewechselt werden. Zudem sollte aber auch eine schnelle und übersichtliche
Navigation über eine Karte realisiert werden. Somit war eine Vierteilung der
Oberfläche gefragt: Panoramen, Interviews, Textinformation, Karte. Im späteren
Verlauf der Multimediaproduktion entstand die Idee, auf der Karte noch zusätzliche
Buttons anzubringen, mit deren Hilfe man sich Information zu Räumen anzeigen
lassen kann, für die keine Panoramen zur Verfügung stehen, aber die dennoch
erwähnenswert sind. Jetzt musste noch die Entscheidung getroffen werden, welche
Räume als Panoramen abgebildet werden sollten, die Auswahl fiel auf:
▪ Campus (Vorderseite),
▪ Campus (Rückseite),
▪ ERC-Labor,
▪ Foyer,
Daniel Schmidt August 2004 Seite 22
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
▪ Licht- und Produktionslabor,
▪ Tonlabor,
▪ Videolabor und
▪ Virtuelles Studio.
Die Technologien die dafür benötigt wurden, werden in den Abschnitten 3.2
Produktion, 3.3 Post-Produktion und 4 Authoring genauer vorgestellt. Konkret
handelte es sich dabei um:
▪ Digitale Photographie,
▪ Stitching zu QTVR-Panoramen,
▪ Digitale Videotechnik,
▪ Digitaler Videoschnitt,
▪ Kompression von Videodaten,
▪ vektor- und pixelorientierte Grafikprogramme,
▪ Flash und
▪ QuickTime Authoring.
Natürlich gibt es, wie in jedem Bereich, rechtliche Aspekte zu berücksichtigen.
Gerade im Bereich der Medien spielt der Bereich der Urheberrechte und
Leistungsschutzrechte eine sehr wichtige Rolle. Wer einen Film, und somit auch ein
Multimediaprojekt, verwerten oder nutzen möchte, muss dazu natürlich Inhaber der
entsprechenden Rechte sein. Urheberrechtsträger sind nach deutschem Recht
Regisseur, Kameramann, Cutter, Beleuchter sowie Tonmeister6. Diese müssten ihre
Rechte an den Produzenten abtreten, damit er den Film auswerten kann. §94 des
Urheberrechtsgesetzes besagt aber, dass der Filmhersteller das ausschließliche Recht
hat, den Träger des Filmwerks zu vervielfältigen, zu vertreiben und zur öffentlichen
Vorführung oder Ausstrahlung zu nutzen. Das Urheberrecht bleibt weiterhin bei den
Urheberrechtsträgern. Da es sich bei dem virtuellen Rundgang aber um ein
unentgeltliches und ein Ein-Mann-Projekt handelt, ist dieser Aspekt nicht so wichtig.
Außerdem wurden fast alle Medien selbst erstellt, somit müssen die Urheberrechte
nicht erst erstanden werden. Viel wichtiger ist der Aspekt, dass jeder ein Recht an
seinem Bild hat, somit sollte man von jedem eine Genehmigung einholen, sollte er
6 Zitat aus Literatur [5].
Daniel Schmidt August 2004 Seite 23
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
vordergründig im Bild vorkommen, dessen Bild man veröffentlichen möchte. Handelt
es sich um eine kommerzielle Produktion, tritt der Gefilmte je nach Vereinbarung mit
der Gage oder gegen eine zusätzliche Vergütung seine Rechte für einen bestimmten
Zeitraum und ein bestimmtes Gebiet ab. Da es sich beim virtuellen Rundgang um
eine unentgeltliche Hochschularbeit handelt, ist dieser Punkt höchstwahrscheinlich
auch nur theoretischer Natur, dennoch erwähnenswert. Im Anhang sind die
Einverständniserklärungen der jeweiligen Interviewpartner zu finden.7
3.2 PRODUKTION
Die Produktion eines Multimediaprojekts lässt sich ebenfalls in einzelne Bereiche
unterteilen. Da verschiedene Medienformen produziert werden müssen, kann jedem
dieser Medienformen ein Produktionsbereich zugeordnet werden. In unserem
konkreten Fall handelt es sich dabei um:
▪ Videoproduktion,
▪ QTVR-Produktion,
▪ Grafikproduktion und
▪ Flash-Produktion.
3.2.1 VIDEOPRODUKTION
Innerhalb des virtuellen Rundgangs sollte in nahezu jedem QTVR-Panorama ein
Interview mit einer adäquaten Person, wie dem entsprechenden Tutor, einem
wissenschaftlichen Mitarbeiter oder dem Dekan zu sehen sein. Dadurch soll,
zusätzlich zur räumlichen Nähe, die die QTVR-Panoramen der Benutzerin oder dem
Benutzer vermitteln, auch eine persönliche Nähe zum Fachbereich geschaffen
werden. Studierende und Mitarbeiter werden an ihren Arbeitsplätzen gesehen und
die Anonymität der Institution Hochschule wird somit reduziert.
Aus Gründen der Effektivität und, würde es sich um eine kommerzielle Produktion
handeln, auch der Ökonomie, war es sinnvoll, die Produktion der Interviews und der
Panoramen in Räume zu gliedern und nicht nach Produktionsart. Somit wurde an
einem Tag für einen Raum, sowohl das Panorama erstellt, als auch das Interview und
nicht erst alle Panoramen, dann alle Interviews.
7 Information aus Literatur [5].
Daniel Schmidt August 2004 Seite 24
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Für eine Videoproduktion sind hauptsächlich sieben Departments wichtig:
▪ Regie,
▪ Kamera,
▪ Licht,
▪ Ton,
▪ Ausstattung,
▪ Maske und
▪ Darsteller.
Für eine Multimediaproduktion sollte dies normalerweise auch gelten, leider sind
dort meistens nicht die Budgets, wie bei einer Filmproduktion, vorhanden und zwar
aus dem einfachen Grund, dass sich Multimediaprojekte meist nicht so lukrativ
vermarkten lassen wie Kinofilme. Dennoch sind die Grundregeln dieselben und das
Problem des Budgets wird umgangen, in dem eine Person mehrere Aufgaben
übernimmt. Auf die Maske wurde auf Grund einer Interview-Situation gänzlich
verzichtet.
Die Ausstattung bezog sich auf das Präparieren der einzelnen Labore, das einmal
mehr, einmal weniger notwendig war. In einem Computerlabor ist wenig zu
verändern, dort stehen nun mal Computer und somit gibt es dort wenig kreativen
Spielraum. Im Videolabor sah die Sache hingegen anders aus. Das Videolabor besteht
normalerweise aus vier verschiedenen Laborräumen, einer für die Kameratechnik,
drei weitere mit Schnitt-, Compositing- und Authoring-Plätzen. Die Aufgabe war nun,
einen Raum repräsentativ für das komplette Labor aufzubereiten. So wurden
zusätzlich zu den drei Schnittplätzen die dort normalerweise zu finden sind, Kameras
installiert, Monitore, Messgeräte, Scheinwerfer und MAZ-Geräte aufgestellt, die
normalerweise in einem separaten Maschinenraum gelagert sind. Ebenso das
Produktionslabor, das je nach Anwendung und Produktion immer umgebaut wird.
Hier musste eine Möglichkeit gefunden werden, möglichst alle Bereiche sinnvoll
darzustellen, damit sie sowohl im Panorama, als auch im Interview zu sehen sind
bzw. erwähnt werden können.
Um den Raum und die Personen in das entsprechende Licht zu rücken, ist die
Beleuchtung notwendig. Für die Panoramen mussten dafür versteckte Scheinwerfer
installiert werden, die zum einen die Szene aufhellen bzw. wichtige Bereiche
Daniel Schmidt August 2004 Seite 25
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
hervorheben sollten, zum anderen als Effektlichter dienten. Da es sich um die
Präsentation von medientechnischen Einrichtungen handelte, durften aber auch
Scheinwerfer aus Präsentationsgründen im Bild zu sehen sein. Es wurde allerdings
darauf geachtet, dass dies passend zu den entsprechenden Räumen realisiert wurde.
So mussten im Lichtlabor unbedingt Scheinwerfer zu sehen sein, im Videolabor
störte es nicht, wenn ein Scheinwerfer zu sehen war, schließlich gehört das Licht eng
zur Kamera. Es wäre allerdings unpassend gewesen, mehr Scheinwerfer als
Videotechnik dort im Bild zu sehen. Im Virtuellen Studio war es sehr passend, eine
Personenausleuchtung darzustellen, da dies zum einen eine praktische Übung war,
die im Laufe des Studiums absolviert werden musste und bald wieder absolviert
werden muss. Zum anderen besteht das Virtuelle Studio hauptsächlich aus
Farbflächen, also Hintergründen, die in einem Panorama und/oder Video ohne den
entsprechenden Vordergrund ihre Wirkung nicht entfalten können. Im
Computerlabor wurde höchstwahrscheinlich gegen alle klassischen Regeln der
Beleuchtung, die im Studium vermittelt werden, verstoßen. Hier wurde der
wissenschaftliche Mitarbeiter mittels Overheadprojektor ausgeleuchtet bzw.
aufgehellt, da der Overheadprojektor im Bild zu sehen sein durfte. Das Ergebnis
rechtfertigt aber meist die Mittel und es tritt auf jeden Fall kein störender Effekt auf.
Das Computerlabor ist der einzige Innenraum, wo außer der Raumbeleuchtung, dem
Overheadprojektor und dem Beamer kein zusätzlicher Scheinwerfer eingesetzt
wurde. Für die Videoaufnahmen wurden die Personen mit klassischer Drei-Punkt-
Ausleuchtung durch Stufenlinsenscheinwerfer beleuchtet.
Als Kamera wurde eine Drei-Chip-MiniDV-Kamera verwendet. Drei-Chip bedeutet,
dass in der Kamera ein Strahlenteiler sitzt, der das einfallende Licht in die drei
Farbanteile Rot, Grün und Blau aufteilt. Jeder Farbanteil wird dann auf einen
eigenen CCD-Chip geleitet, somit verwaltet ein Chip nur eine Farbe, im Gegensatz zu
einer Ein-Chip Kamera, wo ein Chip für alle drei Farben verantwortlich ist. Dies führt
zu einer besseren Farbqualität. MiniDV bezeichnet das Videoformat in dem das
Signal gespeichert wird. Mini sagt nur etwas über die Größe der Kassetten aus, die
verwendet werden, DV hingegen ist zum einen der Kompressionsalgorithmus mit
dem die Datenreduktion vollzogen wird, zum anderen das Video-Format in dem
gespeichert wird. Das Signal wird im 4:2:0 Format abgetastet, das bedeutet, dass das
Luminanzsignal Y in voller Auflösung (4 x 3,375MHz = 13,5 MHz) abgetastet wird.
13,5 MHz werden als maximale Abtastfrequenz verwendet, dadurch steht laut
Daniel Schmidt August 2004 Seite 26
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Abtasttheorem im optimalen Fall eine maximale Luminanzfrequenz von 6,75 MHz
zur Verfügung. Beim analogen System stehen momentan 5 MHz zur Verfügung. Die
Farbkomponentsignale CR und CB werden mit halber Auflösung (2 x 3,375 MHz =
6,75 MHz) abgetastet. Allerdings wird jede Farbkomponente wechselweise nur jede
zweite Zeile abgetastet, was ebenfalls zu einer halbierten vertikalen Farbauflösung
führt und durch die „0“ in 4:2:0 ausgesagt wird. Diese reduzierte Farbauflösung ist
für den Menschen nicht wahrnehmbar und führt zu einer Datenreduktion. Die
Datenrate von 125 Mbit/s, die dadurch vorliegt, wird anschließend noch mit einer
intraframen DCT (Diskrete Cosinus Transformation) um den Faktor 5:1 auf 25
Mbit/s reduziert. Intraframe bedeutet, dass jedes Bild isoliert datenreduziert wird,
die Komprimierung erfolgt also nur innerhalb jedes Bilds für sich. Dadurch kann
weiterhin nach jedem Bild geschnitten werden, da die Bilder untereinander nicht
abhängig sind, wie bei der interframen Datenreduktion. Die Qualität des Bildes ist
für die meisten Anwendungen immer noch absolut ausreichend und viele
Fernsehsender arbeiten in manchen Bereichen ebenfalls mit diesem Format. Zudem
ist die Wiedergabegröße innerhalb des virtuellen Rundgangs auf 240 x 180 Pixel
beschränkt. Das bedeutet, dass im Vergleich zur Aufzeichnungsauflösung von 768 x
576 Pixel nur eine um den Faktor 3,2 reduzierte Auflösung sowohl horizontal, als
auch vertikal nötig ist. Der große Vorteil von DV ist zudem, dass die Daten per
FireWire (IEEE.1394-Schnittstelle) auf jeden Computer, der über diese Schnittstelle
verfügt, direkt übertragen werden können. Und, falls der DV-Codec auf dem Rechner
installiert ist, mit jedem Schnittprogramm bearbeitet werden können. Dadurch ist
man unabhängig von teurer Hardware wie BetaCam-Recordern und teuren
Schnittplätzen wie Avid Media Composer.8
Beim Einsatz von Videokameras muss vor der Aufnahme ein Weißabgleich
durchgeführt werden, um die Kamera auf die Farbtemperatur der Scheinwerfer zu
kalibrieren. Die Schärfe wird am besten im Telebereich eingestellt, da bei großen
Brennweiten die Tiefenunschärfe eines optischen Systems größer ist. Dadurch kann
sehr gut selektiv festgestellt werden, ob das Bild scharf ist oder nicht. Denn bei
Veränderung des Fokus wird das Bild sehr schnell unscharf, wenn die
Fokusentfernung weiter oder kürzer als die Objektebene gewählt wird. Zoomt man
dann wieder zurück, verringert sich die Tiefenunschärfe und das Bild bleibt scharf.
8 Information aus Literatur[4].
Daniel Schmidt August 2004 Seite 27
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Bei den Interviews war darauf zu achten, einen zeitlichen Rahmen zu wahren und
zwar aus mehreren Gründen. Der wichtigste Grund dafür ist die Distribution über
das Internet und die beschränkten Bandbreiten, die dabei zu berücksichtigen sind.
Den Anwendern soll auch mit einem Analogmodem der Zugriff auf den Rundgang
mit erträglichen Ladezeiten ermöglicht werden. Der zweite Grund war das Anliegen,
die Information, die über ein Interview vermittelt wird, möglichst kompakt auf den
Punkt zu bringen. Es ist besser, den Benutzern die Möglichkeit zu geben, sich das
Interview mehrmals anzusehen, als Gefahr zu laufen, dass sie sich beim ersten Mal
bereits langweilen. Die Zeiten der Interviews liegen zwischen 30 und 80 Sekunden.
Ebenfalls wichtig für eine hohe Datenkompression ist die Reduzierung der
Bildinhalte. Die einfachste Variante besteht darin, einfarbige Hintergründe zu
verwenden, um mittels intraframer Komprimierung große gleichfarbige Flächen,
Platz sparend, zu speichern. Dies ist aber, da die Labore interessant zu präsentieren
sind, nicht möglich gewesen. Es soll möglichst viel von den Räumen zu sehen sein.
Deshalb ist es wichtig, möglichst wenige Kameraschwenks einzusetzen und
hauptsächlich mit statischer Kamera und wenig Schnitten zu arbeiten, damit die
interframe Codierung, wobei nur die Unterschiede zum vorherigen Bild gespeichert
werden, möglichst erfolgreich greifen kann. Ganz auf Schnitte und Schwenks zu
verzichten, war, aus Gründen der Ästhetik und des Informationsgehalt der Videos,
aber auch nicht sinnvoll.
Der Ton wird mit einem Richtmikrofon mit Hilfe einer Tonangel geangelt. Der Pegel
wird mit einem Mischpult eingestellt, das zusätzlich die Phantomspeißung für das
Richtmikrofon, das ein Kondensatormikrofon ist, bereitstellt. Bei einem
Kondensatormikrofon muss eine Gleichspannung am Kondensator anliegen, die im
Regelfall +48 Volt beträgt. Durch die Schwingung des Schalls wird eine der beiden
Kondensatorplatten, eine Metallmembran, bewegt, wodurch sich der Abstand
zwischen den Kondensatorplatten verändert. Durch die damit verbundene Änderung
der Kapazität des Kondensators kann das Audiosignal gewonnen werden. Die
Gleichspannung kann entweder mittels Batterien im Mikrofon oder über eine
Phantomspeißung durch ein Mischpult erzeugt werden.
Beim Pegeln ist darauf zu achten, dass der Pegel möglichst groß ist, um einen großen
Signal-Rauschabstand zu erreichen, aber eben gerade so groß, dass das Signal nicht
clippt, also größer wird, als der Dynamikumfang des Aufzeichnungsgerätes und
dadurch verzerrt. Das gepegelte Signal wird dann in den Audioeingang der Kamera
Daniel Schmidt August 2004 Seite 28
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
gegeben und mit auf das DV-Band gespeichert. Für die Tonaufnahme wurde ich bei
fünf der sechs Interviews von meinem Kommilitonen Markus Mück unterstützt, da es
unmöglich ist Regie, Kamera und Ton gleichzeitig zu machen.
Die Darsteller wurden wie folgt ausgewählt: In Laboren, die mit einem Tutor
gesegnet sind, wurde einer der Tutoren ausgewählt. Im Virtuellen Studio, für das kein
Tutor existierte, wurde entschieden, eine Studentin als Moderatorin in das Studio zu
stellen, um neben all den männlichen Tutoren eine Frau in den virtuellen Rundgang
mit einzubeziehen. Für das Computerlabor wurde ein wissenschaftlicher Mitarbeiter
ausgewählt, damit nicht nur Studierende integriert sind und im Foyer sollte der
Dekan den Studiengang Medientechnik vorstellen.
Die Erstellung der Interviews war vor allem aus dem Sichtpunkt der Regie eine sehr
interessante Aufgabe, da mit äußerst unterschiedlichen Menschen gearbeitet werden
musste. Hier konnte man deutlich erkennen, dass für eine erfolgreiche
Medienproduktion nicht nur die Beherrschung der Technik wichtig ist, sondern der
Umgang mit den Menschen von großer Bedeutung ist. So konnte der eine
Interviewpartner seinen Text auswendig, zügig und flüssig sprechen, mit dem
anderen musste man Sprachintonation trainieren oder alles Abschnittsweise drehen.
Deshalb musste bei jedem Interview vor Ort und spontan entschieden werden, wie
man technisch vorgeht, um ein gutes Ergebnis zu erzielen. Bei einem guten Sprecher
wurde der ganze „Take“ (Einstellung) in einem Stück in einer Totalen (Zeigt die
komplette Szene, sozusagen die Überblick-Einstellung) gedreht und danach die
Close-Einstellungen (Nahaufnahmen, die Details zeigen, wie beispielsweise das
Gesicht des Sprechers in groß oder die Geräte die in den Interviews angesprochen
werden) isoliert gedreht. Im Schnitt müssen somit nur die Detailaufnahmen an den
entsprechenden Stellen platziert werden. Bei einem anderen Interview habe ich mich
dazu entschlossen den Darsteller den Text als Nur-Ton vom Blatt ablesen zu lassen,
dadurch lag eine flüssig gesprochene Tonaufnahme vor, auf die dann das
Bildmaterial geschnitten werden konnte.
Der Inhalt der Interviewtexte ist in Zusammenarbeit mit den jeweiligen
Interviewpartnern entstanden. Dies hat sich meist sehr gut ergänzt, die
Interviewpartner konnten die notwendigen Fakten liefern, während mein Augenmerk
mehr auf einer flüssigen Präsentation und der Werbewirksamkeit des Textes lag.
Somit ging einem Dreh immer ein wirkliches Interview voraus und die Information,
Daniel Schmidt August 2004 Seite 29
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
die hier gesammelt wurde, wurde danach mit Ergänzungen zu einem flüssigen
Statement komprimiert.
Da für das Virtuelle Studio kein Tutor vorhanden war, wurde der Text dazu von mir
erstellt und vom wissenschaftlichen Mitarbeiter Herrn Deinert bestätigt. Der Text des
Dekans wurde ausschließlich von ihm selbst erstellt. Alle Interviewtexte sind im
Abschnitt 3.2.2 Interviews in Textform aufgeführt.
Für die Produktion des Intro-Films wurde eine Kamera mit Hilfe eines Saugstativs
teilweise in ein Auto, teilweise darauf montiert und mehrfach mit Seilen gesichert
(siehe Abbildung 7). Daraufhin wurden vorher festgelegte, interessante Passagen mit
dem Auto abgefahren und gefilmt. Die Kamera wurde für manche Einstellungen in
Fahrtrichtung justiert, für manche diagonal dazu. Eine Drehgenehmigung für diese
Art von Aufnahmen ist nach Auskunft eines Polizeireviers und des Locationbüros in
Hamburg nicht notwendig. Für Drehgenehmigungen auf öffentlichen Straßen, evtl.
sogar mit Absperrung, ist das jeweils örtlich zuständige Polizeirevier verantwortlich.
Das Locationbüro in Hamburg verfügt über ein Location-Archiv und kann bei Fragen
zu Drehgenehmigungen weiter helfen.
Daniel Schmidt August
Abbildung 7 - Dreh Intro-Film
2004 Seite 30
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
3.2.2 INTERVIEWS
3.2.2.a COMPUTERLABOR (43 SEKUNDEN)
Abbildung 8 – Screenshot: Interview im ERC-Labor
Hallo, ich bin der Herr Berens, ein wissenschaftlicher Mitarbeiter hier am
Fachbereich. Wir befinden uns hier im Elektronik-, Regelungs- und
Computertechniklabor, in dem Übungen, sowohl zu Vorlesungen des
Grundstudiums, als auch im Studienschwerpunkt „Computergenerierte Medien“
durchgeführt werden. Dazu verwenden wir Programme wie beispielsweise Maya, mit
dem wir 3D-Animationen im Rahmen der Vorlesung „Digitale Bildbearbeitung“
erstellen. In der Nachrichtentechnik findet ein Programm wie Matlab Anwendung,
mit dem nachrichtentechnische Schaltungen simuliert werden. In der
Grundlagenvorlesung „Elektronik- und Informatik“, bietet das Programm Eagle die
Möglichkeit, Leiterplatten zu entwerfen. Darüber hinaus beschäftigen wir uns mit
Programmiersprachen, Netzwerktechnologien und Webdesign.
Daniel Schmidt August 2004 Seite 31
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
3.2.2.b DEKAN (79 SEKUNDEN)
Abbildung 9 - Screenshot: Interview mit dem Dekan
Film und Fernsehen, Musical und Open-Air Festival, Multimedia und Virtual Reality,
das sind Schlagworte, die viele von uns interessieren. Um solche Dinge umzusetzen,
ist immer ein erheblicher Aufwand an Technik von Nöten. Um bei einem großen
Event die Technik wirtschaftlich und qualitätsbetont zu planen, bei einem Filmstudio
die Einrichtung zu planen oder für eine Computeranimations-Software
Verbesserungen zu schreiben, dafür benötigt es Ingenieurinnen und Ingenieure, die
ihr Fach von Grund auf verstehen. Darüber hinaus müssen sie die Grundkenntnisse
an gestalterischem und künstlerischem Wissen mitbringen, um mit Künstlern
kommunizieren zu können.
Wenn Sie sich für Technik interessieren und vor Mathematik, Physik und einem
anstrengenden Studium keine Angst haben und darüber hinaus Interesse an der
Zusammenarbeit mit Künstlern an spannenden Produktionen haben, dann sind Sie
bei uns richtig. Wir bieten Ihnen ein breites Studienangebot, mit vielen
Spezialisierungsmöglichkeiten in einer Stadt, die für Medienberufe geradezu ideal
ist.9
9 Text wurde vom Dekan erstellt.
Daniel Schmidt August 2004 Seite 32
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
3.2.2.c LICHT- UND PRODUKTIONSLABOR (53 SEKUNDEN)
Abbildung 10 - Screenshot: Interview im Licht- und Produktionslabor
Mein Name ist Philip Herberger, ich bin Tutor fürs Lichtlabor und wir befinden uns
hier im Licht- und Produktionslabor unseres Fachbereichs. Hier haben wir zum einen
die Möglichkeit konventionelle Bühnenausleuchtung und Effektbeleuchtung zu
realisieren. Dazu stehen als Lichtpulte die Strand MX und die Jands Hog 500 zur
Verfügung sowie eine Reihe unterschiedlicher Scheinwerfer. Des Weiteren können
wir an der optischen Bank lichttechnische Messungen durchführen und als dritten
Punkt gibt es die Möglichkeit unterschiedliche Live-Studio Situationen zu simulieren.
Ganz konkret befinden wir uns hier am Regieplatz des Produktionslabors. Wir haben
insgesamt drei Kamerazüge und dementsprechend hier unsere Remote-Controls für
die einzelnen Kameras, den analogen Mischer, mit dem wir, in Verbindung mit den
einzelnen Vorschau-Monitoren, das eigentliche Sendebild erstellen können und als
dritten Punkt gibt es noch messtechnische Einrichtungen, mit denen wir das
Videosignal zu jedem Zeitpunkt auch technisch kontrollieren können.
Daniel Schmidt August 2004 Seite 33
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
3.2.2.d TONSTUDIO (44 SEKUNDEN)
Abbildung 11 - Screenshot: Interview im Tonlabor
Hallo ich bin Carsten Goldberg, der Tutor fürs Tonstudio. Und hier mache ich gerade
eine Surroundmischung für einen Spielfilm. Auf dem rechten Monitor sehen wir den
Film der zu mischen ist, auf den Computermonitoren sehen wir unser
Harddiskrecording-System, an dem wir Töne, Geräusche anlegen, Effekte
produzieren und in Verbindung mit dem Studio nachsynchronisieren können. Im
Hintergrund sehen wir die Lautsprecher der Surround-Abhöranlage. Auf der anderen
Seite sehen wir externe Effektgeräte, Equalizer, Kompressoren, unser Mischpult und
in der linken Ecke mehrere Zuspieler und Aufzeichnungsgeräte. Natürlich machen
wir nicht nur Spielfilme, sondern auch Musikproduktionen im Bereich Klassik und
Rock, Pop und auch Hörspiele.
Daniel Schmidt August 2004 Seite 34
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
3.2.2.e VIDEOLABOR (31 SEKUNDEN)
Abbildung 12 - Screenshot: Interview im Videolabor
Hallo ich bin Stefan, ich bin einer von drei Tutoren hier im Videolabor. Ich sitze hier
gerade an einem unserer Avids. Das sind die Schnittsysteme an denen alle möglichen
Projekte geschnitten werden, die hier so gedreht werden. Das sind Musikvideos,
Kurzfilme, alles Mögliche. Aufgezeichnet wird das vorher mit unseren Kameras.
Betacam SP und DVCam sind die Formate die wir hier verwenden. Nach dem Schnitt
geht alles ins Compositing, um Effekte und so etwas darüber zu legen. Dafür haben
wir Combustion und After Effects. Und ganz am Ende kann man mit DVD-
Authoring-Tools das Ganze noch auf DVD brennen.
Daniel Schmidt August 2004 Seite 35
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
3.2.2.f VIRTUELLES STUDIO (43SEKUNDEN)
Abbildung 13 - Screenshot: Interview im Virtuellen Studio
Willkommen in unserem Virtuellen Studio. Hier haben wir die Möglichkeit virtuelle
Bilder mit realen zu kombinieren. Dazu ist dieses Studio in drei Bereiche unterteilt.
Auf dieser Seite haben wir die reine BlueBox. Die Aufnahmen die hier erzeugt werden
gehen dann später ins Videolabor zum Compositing. Im Hintergrund kann man das
ORAD-System sehen. Bei diesem Verfahren wird anhand der Perspektive der Linien
im Bild und mit Hilfe von Infrarot-Kameras die Kameraposition ermittelt. So werden
Kamerafahrten durch virtuelle Welten möglich. Auf der anderen Seite befindet sich
eine Operafolie, die von hinten beleuchtet ist. Dadurch lassen sich beliebig viele
Hintergrundfarben erzeugen, wie zum Beispiel hier bei uns der GreenScreen.
Daniel Schmidt August 2004 Seite 36
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
3.2.3 QUICKTIME VR PRODUKTION
Die Technologie, die hinter einem QTVR-Panorama steht, wurde bereits zuvor
erklärt, der nachfolgende Abschnitt soll die Vorgehensweise bei der Erstellung der
einzelnen Panoramen dokumentieren. QTVR-Panoramen und Interview-Videos
wurden, wie bereits erwähnt, jeweils an einem Tag produziert, somit ist vieles, das im
Bereich Videoproduktion beschrieben wurde, für die QTVR-Panoramen ähnlich. Für
simple Panoramen, die einfach nur einen bestimmten Ort so zeigen sollen, wie er
wirklich ist, ist der Begriff der Ausstattung wahrscheinlich ohne Sinn. Ist das Ziel der
Panoramen aber, Werbung zu betreiben, so müssen die Räume natürlich
entsprechend hergerichtet werden. Für den virtuellen Rundgang, der es der
Benutzerin oder dem Benutzer ermöglichen soll sich zu interessanten Bereichen im
Bild Textinformation anzeigen zu lassen, müssen natürlich auch dementsprechende
Objekte von Interesse im Raum aufgebaut werden. Dann ist eine geeignete Position
für das Kamera-Stativ zu finden. Von dieser Position aus sollte der Raum in
möglichst vielen Richtungen ansprechend aussehen. Ist die Position für das Stativ
gefunden, kann man beginnen die einzelnen Objekte zu platzieren und auf die
Kamera auszurichten.
Für jeden Raum war geplant, sowohl ein Panorama mit Personen, als auch eines, das
nur den Raum ohne Personen zeigt, zu produzieren. Dies ermöglicht die flexiblere
Verwendung der Panoramen für spätere Projekte. Die Tutoren in den Panoramen des
virtuellen Rundgangs dienen ja hauptsächlich dazu, ein Interview mit ihnen zu
starten, wenn man auf sie klickt. Möchte man irgendwann die Panoramen einzeln auf
der Homepage platzieren, so kann man entscheiden, ob man Personen im Bild haben
möchte oder nicht. Zum anderen wollte ich die Panoramen ohne Person als
Thumbnails (kleine Bilder auf einer Homepage) auf der Startseite des virtuellen
Rundgangs einsetzen, wo die einzelnen Räume durch einen Mausklick auf den
entsprechenden Thumbnail herunter geladen werden können. Dies wird noch
ausführlicher im Abschnitt 4.11 Homepage erklärt.
Um gute Ergebnisse beim späteren Stitchen der Bilder zu einem Panorama zu
erreichen, sollten die einzelnen Bilder, die gemacht werden, sich um ca. 50%
überlappen. In unserem Fall wurden die Einzelbilder in 20° Schritten aufgenommen.
Dadurch ergaben sich für ein Panorama 18 Einzelbilder. Die Personen, die in einem
Panorama zu sehen sind, sind dadurch meistens auf drei Einzelbildern zu sehen.
Daniel Schmidt August 2004 Seite 37
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Bevor das erste dieser drei Einzelbilder fotografiert wird, müssen die Personen
informiert werden, da sie von nun an, für die Dauer der Aufnahme der drei Bilder,
absolut still halten müssen. Bewegen sie sich, so sind sie im späteren Panorama
unscharf zu sehen. Mit viel Arbeit und dem Experimentieren mit Parametern kann
man ein solches Panorama noch retten, in dem man die Grenzen der Einzelbilder
verschiebt. Denn die Einzelbilder werden an den Grenzen ineinander überblendet,
folglich ist ein Objekt, das sich leicht bewegt hat, leicht unscharf, wenn es ineinander
überblendet wird. Sorgt man nun dafür, dass eines der drei Bilder, in dem die Person
möglichst komplett zu sehen ist, den Hauptteil in diesem Bereich des Panoramas
ausmacht und die Grenzen des Überblendungsbereichs links und rechts soweit nach
außen verlegt werden, dass dieser Bereich des Panoramas nur aus dem einen
Einzelbild besteht und im Bereich der Person keine Überblendung stattfindet, so
kann die Person scharf abgebildet werden (siehe auch Abschnitt 2.3.2 Image Based
Rendering). Dies funktioniert allerdings nur, wenn genügend Bildinformation auf
den Einzelbildern enthalten ist, um die Grenzen ausreichend weit seitlich verschieben
zu können. Eine sorgfältige Arbeit bei der Produktion empfiehlt sich also in jeden
Fall. Etwas leichter geht es, wenn man das Panorama ohne Personen, vorausgesetzt,
es wurde eines produziert, verwendet, bzw. 17 Bilder davon, und genau das Bild, an
der die Person sitzen soll gegen das Bild mit der Person austauscht. Jetzt muss man
ebenfalls noch mit den Grenzen experimentieren, meist wird aber ein besseres
Ergebnis erreicht. Die beiden Bildern, rechts und links des Bildes mit der Person,
können dann nicht durch ein verschobenes Objekt zu einer Unschärfe führen, denn
dort ist nur der Hintergrund abgebildet. Zum Glück konnten die meisten der
Personen aber still halten. Der einfachste Weg, diese Problematik zu umgehen, ist ein
Weitwinkelobjektiv zu verwenden, dadurch werden weniger Bilder pro Panorama
benötigt und die Person ist damit auch nur in einem Bild zu sehen. Aber hochwertige
Weitwinkelobjektive sind sehr teuer und da es sich um eine Produktion ohne Budget
handelt, konnte nicht auf diese Lösung zurückgegriffen werden.
Ein wesentlicher Aspekt bei der Erstellung eines Panoramas ist die Belichtung. Vor
allem, wenn innerhalb des Panoramas sich die Lichtverhältnisse stark ändern und
sehr helle und dunkle Stellen im Bild vorkommen. Dann stehen zwei Möglichkeiten
zur Verfügung: Entweder man ermittelt die optimale Belichtung für den wichtigsten
Bildbereich und belichtet alle Bilder mit dieser Belichtungseinstellung. Dadurch
erscheint der wichtige Bildbereich genau wie gewünscht, viel hellere bzw. dunklere
Daniel Schmidt August 2004 Seite 38
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Bildbereiche clippen ins Weiß bzw. verschwinden im Schwarz. Dies kann durchaus
sehr kunstvoll aussehen, will man aber die Information dieser Bereiche erhalten,
muss ein anderer Weg gefunden werden. Oder man erstellt mehrere
Belichtungsreihen des Panoramas mit beispielsweise optimaler Belichtung auf einen
dunklen, einen mittleren und einen hellen Bereich. Vor dem Stitchen der Bilder stellt
man nun eine neue Bilderreihe von 18 Bildern zusammen, indem man aus den drei
Belichtungsreihen jeweils das am besten belichtete Bild verwendet. Beim Stitchen
müssen die Grenzen und die Überblendungsbereiche im Bild so gelegt werden, dass
der Übergang von einem Bild einer Belichtungsreihe zu einem Bild einer anderen
Belichtungsreihe nicht auffällt. So wurde beim Panorama des Virtuellen Studios
vorgegangen, da der Aktionsbereich des Studios mit Moderatorin sehr hell
ausgeleuchtet war, die braune Wand auf der anderen Seite des Studios hingegen nicht
extra beleuchtet wurde. Wäre die Belichtung nur auf die Moderatorin optimiert
gewesen, so wäre die komplette Wand schwarz gewesen und der Anwenderin oder
dem Anwender wäre die Möglichkeit, durch die Tür navigieren zu können,
genommen worden, da sie die Tür dann nicht sehen können. Natürlich hätte man die
Wand auch zusätzlich ausleuchten können, aber dies wäre schwierig geworden, denn
diese Scheinwerfer hätte man verstecken müssen, da es keinen logischen Grund in
der Szene gab eine Wand auszuleuchten und da es die Möglichkeit der
Belichtungsreihen gibt, wäre der Aufwand nicht gerechtfertigt gewesen.
Eine weitere Möglichkeit, mit Panoramen mit hohem Dynamikumfang umzugehen,
ist die Verwendung von HDR-Images (High Dynamic Range Images). Das Prinzip ist
ähnlich dem Vorangegangenen. Man erstellt ebenfalls mehrere Belichtungsreihen der
Bilder, beispielsweise wieder drei. Anschließend erstellt man aus den jeweiligen drei
Belichtungen eines Bildes (dunkles + mittleres + helles Bild) mit Hilfe eines
Programms ein neues HDR-Bild. Somit kann man den Dynamikumfang eines Bildes
künstlich über die Dynamik des Aufnahmemediums vergrößern. Anschließend
werden die 18 neu entstandenen HDR-Bilder wie gewohnt gestitcht. Allerdings sind
die Nachteile dieses Verfahrens ein größerer Aufwand und zusätzlich muss eine
Person auch noch während der drei Belichtungen in jedem Bild, in der sie zu sehen
ist, still halten. Die Gefahr einer unscharfen Person wird somit größer. Für die
Panoramen des virtuellen Rundgangs war der Einsatz von HDR-Bildern nicht
notwendig, sie stellen aber eine sehr interessante Möglichkeit, nicht nur für die
Daniel Schmidt August 2004 Seite 39
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Panoramafotografie, dar, um die Einschränkungen die ein System bezüglich der
Dynamik mit sich bringt, etwas zu minimieren.
Ein weiterer sehr wichtiger Aspekt bei der Produktion von Panoramen ist das
Vermeiden von Parallaxenfehlern. Montiert man eine Kamera auf ein normales
Stativ, so ergeben sich zwischen den einzelnen Bildern Parallaxenfehler. Das
bedeutet, dass sich beim Drehen der Kamera der Hintergrund gegenüber dem
Vordergrund verschiebt. Dies kann man leicht nachvollziehen, wenn man ein Objekt
in einem Raum mit einem Auge fixiert und den Kopf dabei dreht. Der Hintergrund
wird sich gegenüber dem Objekt verschieben. Der Effekt ist umso größer, je weiter
das Objekt vom Hintergrund entfernt und je näher es dem Auge bzw. der Kamera ist.
Um diesen Effekt zu vermeiden, muss das Zentrum des optischen Systems aus
Kamera und Objektiv genau über der Drehachse des Stativs gelagert werden. Das
Zentrum des optischen Systems wird als Nodalpunkt bezeichnet. Dieser Punkt
befindet sich meist innerhalb bis leicht vor dem Objektiv. Die Kamera muss also
exzentrisch angebracht werden. Dies wird mit Spezialstativen (siehe Abbildung 14)
realisiert, die über einen Schlitten verfügen, mit dem die Kamera vor und zurück
geschoben werden kann. Man findet den Nodalpunkt indem man zwei Objekte im
Raum mit der Kamera zur Deckung bringt. Dreht man nun die Kamera dürfen sich
die Objekte nicht gegeneinander verschieben. Tun sie es doch, so ist der Nodalpunkt
noch nicht gefunden und man muss sich der
optimalen Position weiter annähern. Da für das
Projekt des virtuellen Rundgangs kein Spezialstativ
zur Verfügung stand, wurde ein Videokamerastativ
verwendet, das ebenfalls über einen beweglichen
Schlitten verfügt. Der Parallaxefenhler muss
vermieden werden, da ansonsten die Einzelbilder
nicht nahtlos zu einem Panorama gestitcht werden
10Ab f
10 I
Da
bildung 14 - Panoramastativkop
können.
nformation aus Literatur [2] und [3].
niel Schmidt August 2004 Seite 40
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
3.2.4 GRAFIKPRODUKTION UND FLASH-PRODUKTION
Für die Bereiche Grafik und Flash ist es schwierig, eine eindeutige Trennung
zwischen Produktion und Post-Produktion vorzunehmen. Im Bereich der Video- und
Fotoproduktion werden in der Produktion die Bilder mit Video- bzw. Fotokamera
aufgenommen. In der Post-Produktion erfolgt die Bearbeitung der Bilder am
Computer. Grafik- bzw. Flash-Elemente werden hingegen am Computer generiert
(ausgenommen Grafikproduktionen mit einem Grafiker, der die Grafiken von Hand
zeichnet und diese später eingescannt werden) und dort auch weiterverarbeitet.
Einige der Grafiken, die erstellt werden mussten, ergeben erst einen Sinn, wenn man
ihre Bedeutung für das Authoring versteht, somit wurde der komplette Bereich der
Grafik- und Flash-Produktion im Abschnitt 4 Authoring zusammengefasst.
3.3 POST-PRODUKTION
3.3.1 VIDEO
3.3.1.a SCHNITT
Die zeitliche Anordnung von verschiedenen Einstellungen wird als Schnitt
bezeichnet, da in früheren Zeiten tatsächlich die Filmrolle auseinander geschnitten
und in der gewünschten Anordnung wieder zusammen geklebt wurde. Heute
geschieht dies zunehmend digital. Als Rohmaterial werden die Aufnahmen
bezeichnet, die während der Produktion entstanden sind und noch nicht
weiterverarbeitet wurden. In unserem Fall liegen sowohl Interviews, als auch das
Rohmaterial zum Intro-Film auf MiniDV Kassetten vor. Um sie mit einem Computer
und einem Schnittprogramm bearbeiten zu können, müssen sie auf den Computer
überspielt werden. Handelt es sich um analoge Videokassetten, müssen sie mit Hilfe
einer Videokarte digitalisiert werden. Im Falle von MiniDV, einem digitalen
Videoformat, ist dies nicht notwendig, allerdings ist man auf eine FireWire-
Schnittstelle angewiesen. Ist in einem System keine FireWire-Schnittstelle
vorhanden, kann man es mit einer FireWire-Karte aufrüsten. Hinter FireWire
verbirgt sich ein von Apple entwickeltes Bussystem, das den Austausch von Video-,
Audio und Kontrolldaten in Echtzeit ermöglicht. Es stehen Datenraten mit 100, 200
Daniel Schmidt August 2004 Seite 41
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
und 400 Mbit/s zur Verfügung. Da FireWire ein geschützter Begriff von Apple ist, ist
die Schnittstelle an den meisten Geräten unter der Bezeichnung i-Link zu finden. Der
Vorgang des Überspielen von Videodaten auf ein Computersystem wird als Capture
bezeichnet und kann direkt aus einem Schnittprogramm, wie beispielsweise Avid DV
oder Adobe Premiere, vorgenommen werden. Dabei werden die Videodaten in eine
.avi- oder .mov-Datei mit dem DV-Algorithmus geschrieben. Jetzt kann mit den
Daten gearbeitet werden.11
Innerhalb eines Schnittprogramms befindet sich meist ein Projektfenster, in dem die
Videodaten in Form von Clips zur Verfügung stehen. Diese Clips können in der so
genannten Timeline platziert (geschnitten) werden und das Ergebnis kann in einem
Monitorfenster wiedergegeben werden. Je nach Interview gibt es unterschiedliche
Vorgehensweisen, um das fertige, geschnittene Interview zu erstellen. Liegt
beispielsweise ein flüssiges Interview vor, so wird die Aufnahme mit der Totalen in
die Timeline gelegt und bildet sozusagen die zeitliche Basis. Jetzt können
Detailaufnahmen in die passenden Stellen geschnitten werden. Bei einem anderen
Interview war es notwendig, den Interviewpartner den Text in einem separaten Raum
von einem Blatt ablesen zu lassen um einen flüssigen Text in Audioform vorliegen zu
haben. Anschließend mussten die einzelnen Videoeinstellungen lippensynchron auf
den Ton geschnitten werden. Dies stellte durchaus eine Herausforderung dar. In
einem weiteren Fall musste nachsynchronisiert werden, dies wird im nächsten
Abschnitt genauer erklärt.
Läuft im virtuellen Rundgang kein Interview, so wird das Logo der HAW Hamburg,
auf weißem Hintergrund, im rechten Bildfenster gezeigt. Um ein optisch
angenehmeres Starten der Interviews zu erzeugen, wurde allen Interviews am Anfang
und am Ende eine Blende von bzw. zu Weiß eingebaut. Somit wird nun beim Starten
eines Interviews das Logo der HAW ausgeblendet und das Video blendet vom weißen
Hintergrund des Logos in das Interview. Am Ende des Interviews wird das Video
wieder ins Weiß geblendet und das Logo eingeblendet.
Des Weiteren wurde an allen Videos eine Farbkorrektur vorgenommen, um den
Aufnahmen ein interessanteres Erscheinungsbild zu geben und den Videolook etwas
aufzuwerten. Oft hatte die Kamera kein sattes Schwarz an dunklen Stellen im Bild
erzeugt, sondern ein fahles Grau. Somit mussten Schwarz und Weiß-Werte der
Videobilder angeglichen werden, um somit für einen härteren Kontrast zu sorgen. Die
11 Information aus Literatur [4].
Daniel Schmidt August 2004 Seite 42
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
geschnittenen Videos können entweder wieder auf DV Bänder ausgespielt werden
oder als neue .avi-Datei gespeichert werden.
3.3.1.b NACHSYNCHRONISIERUNG
Leider wurde der Ton für das Interview im Virtuellen Studio in Folge eines defekten
Geräts verzerrt und somit unbrauchbar für den virtuellen Rundgang. Ein Nachdreh
kam auf Grund des hohen Aufwands nicht in Frage und somit wurde entschieden das
Interview nach zu synchronisieren. Dazu wurde das Interview zuerst mit dem
verzerrten Ton geschnitten und somit von den Videodaten die Endfassung erstellt.
Das Nachsynchronisieren selbst wurde am selben Computer wie der Videoschnitt
durchgeführt. Als Programm wurde Vegas von Sony verwendet. Die Sprachaufnahme
wurde über ein Großmembran-Mikrofon (Kondensator), ein Mischpult, welches auch
die Phantomspeißung für das Kondensatormikrofon liefert, und die Soundkarte des
Rechners realisiert. Über das Mischpult kann der Mikrofonpegel optimal gepegelt
werden, damit kein Überpegel an der Soundkarte entsteht und der Ton clippt
(verzerrt). Wichtig für die Nachsynchronisierung ist ein System, das zum einen
Videomaterial wiedergeben und gleichzeitig Ton aufnehmen kann. Ebenfalls wichtig
ist, dass auch die Soundkarte gleichzeitig wiedergeben und aufzeichnen kann. Dies
wurde früher mit dem Begriff Vollduplex an den Soundkarten bezeichnet, heutzutage
ist dies meist der Standard.
Abbildung 15 - Sprecheri
Daniel Schmidt A
n nd System für die Nachsynchronisierung u
ugust 2004 Seite 43
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Mit diesem System konnte die Sprecherin den fertig geschnittenen Film und somit
ihre Lippenbewegung sehen und dazu ihren Text sprechen (siehe Abbildung 15).
Allerdings stellen die Passagen der Detailaufnahmen ein Problem dar, da die
Sprecherin dort ihre Lippenbewegung nicht verfolgen kann und somit kommt es zu
einem Auseinanderlaufen von Bild und Ton. Dies wird auffällig beim Umschnitt von
einer Detailaufnahme zurück zur Moderatorin. Die Lösung zu diesem Problem war
es, der Sprecherin den verzerrten Ton über Kopfhörer zur Verfügung zu stellen, somit
konnte sie die Textmelodie hören und musste sie nur nachsprechen.
3.3.1.c DATENKOMPRESSION
Im Zeitalter der digitalen Videotechnik ist die Datenkompression ein wichtiger
Begriff. Noch wichtiger wird er, wenn Videos im Internet bereitgestellt werden sollen,
denn dann ist darauf zu achten, diese Filme mit kleinstmöglichen Datenmengen ins
Netz zu stellen, um die Ladezeiten für Benutzerinnen und Benutzer möglichst gering
zu halten. Im Falle der Interview-Videos, die für den virtuellen Rundgang produziert
wurden, erfolgte die erste Form der Datenreduktion bezüglich der Größe des
Videobildes. Der aktive Bildbereich eines Fernsehbildes (so auch im DV-Format) hat
eine Abmessung von 720 x 576 Pixel, da am Computer aber nicht mit rechteckigen
Bildpunkten, wie beim Fernsehbildschirm, sondern mit quadratischen Pixeln
gearbeitet wird, entspricht das einer Abmessung von 768 x 576 Pixeln. Für den
virtuellen Rundgang ist hingegen nur eine Bildgröße von 240 x 180 Pixel notwendig.
Dies entspricht einer Reduktion um den Faktor 3,2 sowohl vertikal, als auch
horizontal. Somit würde allein dieser Aspekt die Daten auf ca. 10% verringern. Bei
einer Datenrate von 25 Mbit/s für DV-Daten würde dies aber immer noch ca. 19MB
pro Minute betragen. Es muss also ein effektiverer Codec gefunden werden.
Beim Verringern der Bildgröße ist ein weiterer Aspekt zu beachten. Die Kamera, die
verwendet wurde, verfügt über einen analogen Bildwandler, erst danach werden die
Daten Analog-Digital umgesetzt und im DV-Format gespeichert. Die aktive
Videozeile des Digitalen Komponentenformats (53,3 µs) ist etwas länger als die
analoge (52 µs), daraus folgt, dass bei der A/D-Umsetzung weniger Information zur
Verfügung steht als umgesetzt werden müsste. Tatsächlich befindet sich am rechten
und linken Bildschirmrand ein schwarzer Balken. Für den normalen
Konsumentenbereich spielt dies keine Rolle. Denn ein normaler Fernseher arbeitet
Daniel Schmidt August 2004 Seite 44
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
im Overscan-Modus, d.h es ist nicht das komplette aktive Bild sichtbar und somit
treten auch die schwarzen senkrechten Balken nicht zum Vorschein. Nur bei der
Betrachtung an einem Studiomonitor im Underscan-Modus oder am
Computerbildschirm werden die schwarzen Balken sichtbar. Deshalb ist das Bild vor
der Verkleinerung auf den Bildbereich ohne schwarze Balken zu reduzieren, dadurch
geht natürlich auch ein kleiner Bereich im oberen und unteren Bildbereich verloren.
Der DV-Codec ist bereits eine Form der Datenreduktion, aber er komprimiert zum
einen nur ca. 5:1, um eine gute Qualität für die Weiterverarbeitung zu gewährleisten,
zum anderen codiert er nur intraframe, was bedeutet, dass eine Datenreduktion nur
innerhalb jedes Bildes statt findet. Dadurch bleibt es möglich, das DV-Material nach
jedem Bild zu schneiden. Somit ist der DV-Codec relativ gut für die Produktion
geeignet. Um höhere Kompressionsverhältnisse zu erhalten, wählt man einen Codec
der zusätzlich noch interframe codiert ist, z.B. MPEG. Er analysiert Ähnlichkeiten
zwischen zwei benachbarten Frames und speichert nur die Veränderung von einem
Bild zum anderen und nicht die komplette Bildinformation. Man unterscheidet dabei
I-Frames, diese sind nur intraframe codiert und hängen von keinem anderen Frame
ab. P-Frames speichern nur die Veränderung zum vorherigen Bild und entsprechen je
nach Bildinformation nur ca. 50% eines I-Frames. B-Frames funktionieren
bidirektional und analysieren sowohl vorheriges, als auch nachfolgendes Bild, um die
Änderung zu speichern. Dies dauert bei der Codierung natürlich am längsten,
reduziert die Daten aber auf ca. 25% eines I-Frames. Eine oft angewandte
Gruppierung von Frames ist die GOP-12 (Group of pictures) nach folgendem Schema:
IBBPBBPBBPBB IBBP… . Eine solche Form der Datenkompression reduziert die
Daten erheblich und ist somit für die Distribution hervorragend geeignet.
Für die eigentliche Datenreduktion mittels eines Codecs, dann wird ein Programm,
wie der Cleaner verwendet. Dieses Programm verfügt über eine Vielzahl von
gängigen Codecs. Es wurden mehrere Codecs getestet, die Tests reduzierten sich aber
sehr schnell auf die Codecs Sorenson 3, H.263 und MPEG-4, die mit Abstand die
besten Ergebnisse lieferten. Der Codec H.264 ist momentan in der
Entwicklungsphase und soll erstaunlich gute Ergebnisse liefern. H.264 wird, neben
MPEG-2 und VC9 (Video Codec 9, allgemeine Form des Windows Media 9), als
Video-Codec für die HD-DVD (High Definition-DVD, hochauflösende DVD)
eingesetzt werden.12 Wie der H.263 soll er hauptsächlich im Bereich Streaming, aber
12 Information aus Literatur [12].
Daniel Schmidt August 2004 Seite 45
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
eben auch für die Speicherung von HD-Videodaten (Auflösung 1920 x 1080
Bildpunkte) eingesetzt werden. Er codiert und decodiert sehr schnell und ist somit
optimal für Anwendungen wie die Videophonie über Handys geeignet. Für den
virtuellen Rundgang lieferte MPEG-4 die besten Ergebnisse bei geringer Dateigröße
und wurde somit ausgewählt. Bedingung für die Codecs war es, dass sie in der
Standardinstallation des QuickTime-Players enthalten sind, damit Benutzerinnen
und Benutzer nicht zusätzlich zu dem Installationsprogramm noch weitere Codecs
downloaden müssen. Ansonsten könnte auch ein Codec wie DivX eingesetzt werden,
der bei QuickTime im Component-Programm integriert ist und bei Bedarf herunter
geladen werden kann. Da der virtuelle Rundgang auch auf CDs verteilt werden soll
und auch auf Computern ohne Internet-Zugang funktionieren soll, kam dies nicht in
Frage. Videos wurden in unterschiedlicher Qualität komprimiert, um zusätzlich zur
CD-Version, eine High- und Low-Quality Version für das Internet zur Verfügung zu
stellen, damit DSL- und Analog-Modem-Besitzer gleichermaßen zufrieden gestellt
werden können.
Für die Audiokompression wurde der MPEG-4-Audio-Codec verwendet.
3.3.2 QUICKTIME VR POST-PRODUKTION
Um die Einzelbilder, die in der Produktionsphase erstellt wurden, am Computer
weiterverarbeiten zu können, müssen sie von der Kamera auf den Computer
übertragen werden. Handelt es sich um eine digitale Kamera, geschieht dies über
FireWire oder USB. Je nach Kamera und Menüeinstellung werden die Bilder in
verschiedenen Kompressionsformaten gespeichert. Meistens liegen die Bilder aber im
JPEG-Format vor. Handelt es sich um eine analoge Kamera, müssen die Bilder
eingescannt werden und in geeigneter Weise auch im JPEG-Format abgespeichert
werden. Da dies eine sehr zeitaufwendige Arbeit ist, bieten viele Foto-
Entwicklungsdienste die Bilder auch auf CD an. Diese liegen dann meist im JPEG-
Format vor und können weiterverarbeitet werden.
Der nächste Schritt der gemacht werden muss, ist die Bilder nach Panorama-Serien
zu sortieren, dafür empfiehlt es sich, für jede Panorama-Serie (18 Bilder) einen extra
Ordner anzulegen. Die Bilder werden von einer digitalen Kamera bzw. vom Foto-
Entwicklungsdienst fortlaufend durchnummeriert, wodurch eine Serie immer am
Stück hängt und leicht gefunden werden kann. Auch die Reihenfolge der Bilder
Daniel Schmidt August 2004 Seite 46
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
innerhalb einer Serie ist dadurch richtig vorgegeben. Um die Bilder nun zu einem
Panorama zusammen zu fügen, benötigt man ein so genanntes Stitching-Programm.
An der Hochschule steht dafür das Programm QuickTime Authoring Studio zur
Verfügung, das gute Ergebnisse liefert und zylindrische und kubische Panoramen
erstellen kann. Für die Diplomarbeit wurden auch noch andere Stitching-
Programme, wie RealVIZ Stitcher, VR Worx, 3DVista und The Panorama Factory im
Bereich zylindrische Panoramen getestet. Davon lieferte das Programm The
Panorama Factory von Smokey City Design die besten Ergebnisse.
Die Vorgehensweise beim Stitchen ist folgende. Es wird eine Panorama-Serie in ein
Stitching-Programm importiert. Dabei ist zu beachten, ob die Bilder in der korrekten
Reihenfolge importiert wurden oder evtl. die Reihenfolge umgedreht werden muss.
Danach können einzelne Parameter, wie zum Beispiel automatische
Belichtungskorrektur, angewählt werden. Diese automatischen Ermittlungen führen
aber nicht immer zum gewünschten Ergebnis. Gerade die automatische
Belichtungskorrektur wird problematisch, wenn innerhalb des Panoramas große
Helligkeitsunterschiede vorkommen. Dann versucht das Programm den
Kontrastumfang zu verringern und die Panoramen erscheinen fahl, wie mit einem
grauen Schleier überzogen. Nachdem man alle Parameter gewählt hat, kann man das
Programm mit der Analyse der Bilder beginnen lassen. Jetzt zeigt sich, ob während
der Produktion sorgfältig gearbeitet wurde. Wurde beispielsweise der Nodalpunkt
nicht sorgfältig eingestellt, so ist es für das Programm schwierig, die Bilder nahtlos
aneinander zu fügen. Ebenfalls sorgen Bilder mit großen Flächen, ohne markante
Kanten, für Ärger, denn auch hier hat das Programm Schwierigkeiten, die Bilder
perfekt zusammen zu fügen. Auf solche Dinge sollte auf jeden Fall während der
Produktion geachtet werden. Hat das Programm die Bilder angeordnet, so kann man
manuell nachkorrigieren. Einzelne Bilder, die das Programm nicht korrekt
zusammengefügt hat, kann man von Hand an die richtige Position setzen. Weiterhin
ist es möglich, die Grenzen der Bilder, die den Mittelpunkt des
Überblendungsbereichs angeben, zu verschieben, sowie die Größe des
Überblendungsbereichs zu verändern. Dies ist natürlich nur in dem Maße möglich,
wie Bildmaterial vorhanden ist (siehe auch Abschnitt 2.3.2 Image Based Rendering),
die Grenze lässt sich nicht über die Grenze eines Einzelbilds hinweg verschieben.
Dadurch lassen sich zum Beispiel Panoramen mit großen Helligkeitsunterschieden
innerhalb des Bildes erstellen, in dem man, wie bereits im Abschnitt 3.2 Produktion
Daniel Schmidt August 2004 Seite 47
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
erwähnt, eine Panorama-Serie aus verschiedenen Belichtungsreihen so
zusammenstellt, dass immer die Einzelbilder mit der optimalen Belichtung
verwendet werden. Die Übergänge von hellen zu dunklen Stellen im Bild kann man
dann an Kanten im Bild verstecken (wie z.B. das rechte Ende der BlueBox im
Virtuellen Studio), indem man die Grenze dorthin verschiebt. Dadurch ergibt sich ein
Panorama, das überall perfekt belichtet ist und zwar ohne Verwendung von HDR-
Images.
Ist das Panoramabild fertig gestellt, hat man noch die Möglichkeit, eine elektronische
Schärfenanhebung auf das Bild anzuwenden, um es qualitativ hochwertiger zu
präsentieren. Zuletzt wird das Bild, das noch aus unregelmäßigen Kanten an der
Ober- und Unterseite besteht, zugeschnitten (cropping), damit ein rechteckiges
Panorama entsteht. Jetzt wird das Panorama noch im QTVR-Format in einem .mov
abgespeichert, dazu wird der Codec und die Qualität ausgewählt, die verwendet
werden sollen. Als Codec empfiehlt es sich wieder JPEG zu verwenden, da bereits die
Einzelbilder mit JPEG komprimiert waren. Eine Qualität von 50%, für die JPEG-
Komprimierung, ist immer noch mehr als ausreichend und produziert Dateigrößen
um ca. 500 KB. Eine Qualität von 100% hingegen um 5 MB. Die Dateigrößen
variieren natürlich je nach Bildinhalt, da der Codec bildabhängig arbeitet. Die beiden
Außenpanoramen lieferten bei 50% Dateigrößen um 1 MB, da viel hochfrequente
Information, wie z.B. die Blätter der Bäume, enthalten ist, greift die intraframe
Codierung nicht sehr gut. Hier wurde eine Qualität von 25% gewählt, die optisch von
der Qualität der Innenpanoramen bei 50% kaum zu unterscheiden ist, so wurden
auch hier Dateigrößen um 500 KB erreicht.
Für die Homepage und das Startmenü wurden die Panoramen zusätzlich zum QTVR-
Format noch im JPEG-Format als plane Bilder gespeichert. Somit können sie, in
verschiedenen Größen, als Hintergrundbilder des Startmenüs, sowie als Thumbnails
für die Homepage eingesetzt werden.
Daniel Schmidt August 2004 Seite 48
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
4 AUTHORING UND LIVESTAGE PROFESSIONAL
Als Authoring wird der vierte Produktionsabschnitt bezeichnet. Hierbei werden
einzelne Medienelemente miteinander kombiniert, um das endgültige Produkt zu
erstellen. Ein sehr bekanntes Beispiel stellt das DVD-Authoring dar. Dabei wird ein
Menü erstellt, über das die Benutzerin oder der Benutzer, zu Hause am Bildschirm,
auf die einzelnen Medienelemente der DVD zugreifen kann. Medienelemente können
dabei der Film an sich sein, evtl. noch in Kapitel unterteilt, sowie Interviews, Making
Of…, Trailer, Fotos, etc. Ziel dabei ist es eine grafisch ansprechende, funktionelle
Oberfläche zu kreieren, die Anwenderin und Anwender dazu einlädt, sich lange mit
dem Film und dem Bonusmaterial zu beschäftigen.
Natürlich gibt es auch im Bereich der Erstellung von QuickTime-Medien den Bereich
des Authoring und während er durch die DVD langsam immer mehr für den
Fernsehbildschirm an Bedeutung gewinnt, ist er im Bereich der interaktiven
Computerproduktionen schon lange ein Begriff.
Das bekannteste Authoring-Programm für QuickTime-Medien ist Livestage
Professional. Dieses Programm wurde auch bei der Erstellung des virtuellen
Rundgangs des Fachbereichs eingesetzt. Schließlich sollten verschiedene
Medienformen wie QuickTime Virtual Reality, Videos, Grafiken und Flash-Filme in
einem interaktiven Projekt kombiniert werden. Somit entstand kein simpler
einfacher Movie, wie die Endung .mov eines QuickTime-Films vermuten lässt,
sondern ein komplexer Wired-Movie mit vielen unterschiedlichen Tracks. Als Wired-
Movies werden Filme bezeichnet, die mit Scripts programmiert wurden, die es
ermöglichen, dass eine Anwenderin oder ein Anwender mit dem Film interagieren
und Ereignisse auslösen können.
Im Folgenden wird erklärt, wie ein solches komplexes QuickTime-Projekt in einem
Authoring-Programm, wie Livestage Professional aus den einzelnen
Medienelementen erstellt wird.13
13 Information für Livestage aus Literatur [6] und [8].
Daniel Schmidt August 2004 Seite 49
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
4.1 PROJEKT
Wie bereits erwähnt, besteht ein QuickTime.mov aus verschiedenen Spuren.
Livestage Pro bietet die Möglichkeit alle von QuickTime unterstützten Track-
Formate zu erstellen und zu bearbeiten. Folgende verschiedene Arten von Tracks
stehen in Livestage zur Verfügung:
Picture-Track, Text-Track, Sprite-Track, Video-Track, Audio-Track, Flash-Track, VR-
Track, Movie-Track, Streaming-Track, Color-Track, Effect-Track, Instrument-Track,
Tween-Track, Modifier-Track, Skin-Track.
"
A
d
i
V
d
e
v
P
M
D
Abbildung 16 - Die verschiedenen Spuren des Projekts "Virtueller Rundgang
bbildung 16 zeigt die Spuren die für den virtuellen Rundgang benötigt wurden. In
ie Tracks können passende Medienelemente integriert werden. Eine Ton-Datei kann
n einen Audio-Track integriert werden, aber eben nicht in einen Picture-Track. Zur
erwaltung der einzelnen Elemente existiert die Library. Im selben Ordner in dem
ie Projekt-Datei gespeichert wird, wird zugleich ein Ordner mit dem Namen Library
rzeugt. In diesen Ordner kann man alle Medienelemente, die man in seinem Projekt
erwenden möchte, hineinkopieren. Ab diesem Zeitpunkt hat man aus dem
rogramm Livestage, über das Library-Fenster, direkten Zugriff auf diese
edienelemente und kann sie in das Projekt integrieren. Bei größeren Projekten
aniel Schmidt August 2004 Seite 50
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
empfiehlt es sich, im Library-Ordner noch Unterordner, wie Video, Audio, VR oder
Text anzulegen und somit eine übersichtliche Trennung der Medien zu gewährleisten.
Manche Tracks sind programmierbar, das Script, das dafür verwendet wird, trägt den
Namen QScript.
Im Folgenden wird beschrieben, wie das Projekt „Virtueller Rundgang“ aus
einzelnen Elementen aufgebaut ist.
4.2 FLASH IN QUICKTIME
QuickTime bietet ab Version 5 die Möglichkeit der Integration von Flash-Medien.
Diese Kombination beider leistungsfähiger Medienformen bietet ein sehr
wirkungsvolles Werkzeug, um Multimediaprojekte zu realisieren. QuickTime verfügt,
wie bereits früher erwähnt, über die Möglichkeit in einem Picture-Track Bilder
einzufügen. Die Bilder, die integriert werden, sind alle in pixelbasierten
Dateiformaten gespeichert. Dadurch nehmen sie zum einen viel Speicherplatz ein,
zum anderen verschlechtert sich die Qualität wenn man die Bilder vergrößert. Dies ist
aber keine Nachlässigkeit von QuickTime, sondern ein absolut normales Handling im
Bereich von Film- und Fernsehproduktion, Diashows, Printmedien, etc. Für eine
interaktive Anwendung ist dies aber manchmal von Nachteil. Ein vektorbasiertes
Format ist hier teilweise besser geeignet. Vektorbasiert bedeutet, dass nicht jeder
Pixel abgespeichert wird, sondern nur Eckdaten (Ortsvektoren). Für ein Quadrat
werden nur die Positionen seiner Eckpunkte abgespeichert, die Farbe seiner Füllung
und seiner Umrisslinie, sowie deren Dicke. Das Erscheinungsbild des Quadrats wird
jeweils berechnet. Dies erklärt, warum man ein solches Bild beliebig vergrößern kann
und es immer in optimaler Qualität abgebildet wird. Flash-Filme basieren auf einem
solchen Format. Ein weiterer Grund für die Verwendung von Flash kann der Wunsch
nach der Einbettung von Schrift, mit bestimmter Schriftart und Formatierung, in
einen QuickTime-Film sein. QuickTime verfügt zwar über einen Text-Track, dieser
speichert aber nur die Textinformation, ist die gewünschte Schriftart nicht auf dem
Zielsystem installiert, wird eine ähnliche Schriftart verwendet, dadurch kann sich die
komplette Schriftsetzung verziehen. Möchte man absolute Kontrolle über das
Erscheinungsbild der Schrift behalten, so bleibt nur der Weg, Schrift als Grafik
einzubinden. Dafür ist ebenfalls Flash hervorragend geeignet; zum einen wegen der
Abbildungsqualität der Schrift, aufgrund des vektororientierten Formats, zum
anderen wegen der geringen Dateigrößen. Für den virtuellen Rundgang wurde
Daniel Schmidt August 2004 Seite 51
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
entschieden, die Karte mit dem Grundriss für die Navigation (nicht die Buttons) und
die Textinformation, die zu Buttons und Hotspots angezeigt wird im Flash-Format zu
erstellen.
Die Flash-Filme werden in Livestage Pro in einen Flash-Track im .swf-Format
(Standard-Format für Flash-Filme) importiert. Für die Benutzerin oder den
Benutzer ist es weiterhin nur notwendig QuickTime auf ihrem System installiert zu
haben, Flash wird nicht benötigt. Wäre dies nicht der Fall würde das die
Benutzerfreundlichkeit sehr einschränken, denn eine Anwenderin oder ein
Anwender, der weder QuickTime noch Flash installiert hat, müsste, bevor er in den
Genuss eines kombinierten Films kommt, erst auf zwei unterschiedlichen
Homepages die ladezeitintensiven Installationsprogramme downloaden. Dies würde
höchstwahrscheinlich viele potentielle Besucherinnen und Besucher des virtuellen
Rundgangs abschrecken. Da aber weiterhin nur QuickTime benötigt wird, können
wir die Vorteile beider Systeme in unserem Virtueller Rundgang.mov einsetzen.
4.2.1 DIE KARTE
Die Karte (siehe Abbildung 17) wurde basierend auf dem Grundriss, der im Internet
auf der Homepage des Fachbereichs Medientechnik abgebildet ist, erstellt. Der
Internet-Grundriss wurde in ein vektorbasiertes Grafikprogramm importiert, danach
wurde der Grundriss auf einer neuen Ebene nachgezeichnet. Alle Linien wurden
gruppiert und die hellblaue CI-Farbe der HAW Hamburg (Farbwert #9CBCDA)
zugewiesen. Anschließend wurde die Ebene mit dem Internet-Grundriss gelöscht und
der vektorbasierte Grundriss als Flash-Film im .swf-Format exportiert.
Daniel Schmidt
Abbildung 17 - Karte
August 2004 Seite 52
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
4.2.2 DIE TEXTE
Die Texte wurden zuerst mit einem Grafikprogramm im PNG-Format (Portable
Network Graphic) erstellt. Dies hat mehrere Gründe, zum einen können die Texte
somit auch als einzelne Bilder verwendet werden, sollte dies jemals benötigt werden,
zum andern hat man dadurch die Möglichkeit, sehr schnell verschiedene Versionen
von Flash-Filmen zu erstellen. Da mehrere Versionen des virtuellen Rundgangs
geplant waren (eine Vollversion, so wie eine Version von jedem Raum einzeln, um im
Internet gezieltes downlaoding von den gewünschten Räumen zu ermöglichen), muss
für jede Version natürlich auch der entsprechende Flash-Film mit den passenden
Texten erstellt werden. Da alle Texte nun im PNG-Format vorliegen, kann in Flash
jeweils pro Flash-Bild (Frame) ein PNG-Bild importiert werden. Es musste im Voraus
natürlich geplant werden, welche Abmessungen die Textfelder im fertigen Projekt
einnehmen sollten. Dementsprechend mussten die Abmessungen für die PNG-Bilder
und den Flash-Film gestaltet werden (320 x 200 Pixel). Flash bietet einen
problemlosen Import vom PNG-Dateien, alle Parameter, wie Schriftart, Schriftgröße
und Schriftstil bleiben erhalten. Weiterhin wird die Schriftart in den Flash-Film
eingebettet, somit wird die Schrift immer korrekt auf dem Zielsystem angezeigt, auch
wenn dort die Schriftart nicht installiert ist. Der .swf-Film wird in einen Flash-Track
in Livestage Pro importiert. Die einzelnen Texte, die im finalen QuickTime-Projekt
dann angezeigt werden sollen, werden erreicht indem der Flash-Film immer an den
entsprechenden Frame springt und dort pausiert. Wie genau dies programmiert wird
und welche Ordnung bei der Organisation der Frames wichtig ist, wird im Bereich
„4.8 Hotspots“ und „4.4 Buttons“ erklärt. Die Texte liegen auf CD2 sowohl im PNG-
Format sowie in der Flash-Projektdatei im .fla-Format, als auch im fertigen Flash-
Film im .swf-Format vor. Im Abschnitt 4.8 Hotspots findet sich eine Tabelle mit der
genauen Zuordnung, welcher Text in welchem Frame gespeichert ist. Im Anhang 8.1
sind die kompletten Texte zu den Hotspots aufgeführt.
Daniel Schmidt August 2004 Seite 53
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
4.2.3 FLASH-BUTTONS
Der Vollständigkeit halber sei erwähnt, dass QuickTime ebenfalls die Möglichkeit
bietet, Buttons, die in Flash programmiert wurden, zu integrieren und ein
entsprechendes Event-Script dafür zu programmieren. Für das Projekt des virtuellen
Rundgangs war dies nicht notwendig, hier wurden die Buttons in Livestage direkt
mit Hilfe von Pixelgrafiken erstellt. Allerdings stellt die Möglichkeit zur Integration
von Flash-Buttons durchaus ein interessantes Feature dar.
Bei der Programmierung in Flash ist dabei zu beachten, dass gleich aussehende
Buttons nicht als Instanz einer Schaltfläche auf die Bühne gezogen werden, da
ansonsten in QuickTime alle Buttons als eine Schaltfläche gesehen werden und somit
ein Script nur für alle Buttons gemeinsam geschrieben werden kann. Vielmehr muss
die Schaltfläche einmal erstellt werden und in der Flash-Bibliothek mehrmals
dupliziert und verschieden benannt werden. Dann können die Schaltflächen einzeln
auf die Bühne gezogen werden.
Um sich die Arbeit in QuickTime zu vereinfachen und das Projekt transparent zu
halten, sollten den Schaltflächen Namen zugeordnet werden, die von Livestage
gelesen werden können. Dafür reicht der Name, den die Schaltfläche im Flash-
Projekt trägt, nicht aus. Als Hilfsmittel dient dazu FSCommand, ein
Kommunikations-Interface von Flash, um mit anderen Programmen zu
kommunizieren. FSCommand wird einer Schaltfläche wie jede andere Aktion in
Flash zu gefügt. Als FSCommand muss jedem Button der Befehl
QuickTimeScript(QScript,ButtonName=Name)
zugefügt werden, wobei Name der Name des jeweiligen Buttons ist. Jetzt muss der
Button in Livestage nicht mühselig identifiziert werden. Alternativ kann auch das
Script dafür in Flash geschrieben werden:
on (release) {fscommand("QuickTimeScript(QScript,ButtonName=Name)");}14
14 Information aus Literatur [1], [6] und Flash Hilfe.
Daniel Schmidt August 2004 Seite 54
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
4.3 GRAFIK IN QUICKTIME
4.3.1 DER PLAYER
Der Player (siehe Abbildung 18) gibt dem Film den entsprechenden Rahmen. Er
bildet die Oberfläche, auf der alle anderen Medien platziert werden. Dazu ist es
notwendig, die Player-Oberfläche in einem Grafikprogramm, wie z.B. Adobe
Illustrator nach Wunsch zu entwerfen. Dies sollte möglichst vektororientiert
geschehen, damit spätere Änderungen leicht und ohne Qualitätsverlust
vorgenommen werden können. Zusätzlich muss dabei beachtet werden, dass
Informationen mitgeliefert werden, die dem Authoring-Programm später „mitteilen“,
welche Bereiche transparent gerendert werden sollen; dort sollen später die
Interviews und QTVR-Panoramen sichtbar sein. Dies kann mittels einer bestimmten
Farbe geschehen oder mit einem Alphakanal.
Abbildung 18 zeigt, da
farbigen Rechtecken b
Panoramen und die In
Authoring-Programm g
wird in einen Picture-T
Daniel Schmidt
Abbildung 18 - Player für Transparenzeffekt
ss die Basis des Players nur aus einer weißen Fläche mit
esteht. Die zwei Fenster, in welchen später die QTVR-
terviews zu sehen sind, sind schwarz gefüllt, damit das
enau diese Bereiche transparent stanzen kann. Dieses Bild
rack in Livestage Pro eingefügt, da es sich um ein statisches
August 2004 Seite 55
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Bild handelt und keinerlei Aktionen ausführen soll, außer sichtbar zu sein. Als
Transparentfarbe wird Schwarz ausgewählt.
Diese Vorgehensweise ist zwar funktionell einwandfrei, hat aber einen erheblichen
Nachteil, denn es erfordert sehr leistungsfähige Computer um das Projekt optimal
darzustellen. QuickTime ist, wie bereits bekannt, ein Mediencontainer und rendert
alle Medien bei der Wiedergabe in Echtzeit. Somit auch den Transparenzeffekt für
den Player, und zwar für das gesamte Bild des Players, das eine Abmessung von 620 x
700 Pixel hat. Ist man mit der Videoproduktion vertraut, so weiß man, dass beim
Hinzufügen eines Transparenzeffekts (Abmessung des Videobildes beträgt 720 x 576
Bildpunkte) die Wiedergabe des Films, mit den meisten Computern, nicht mehr in
Echtzeit möglich ist. Der Bereich des Transparenzeffekts wird dann gerendert und in
einer extra Datei gespeichert, diese kann dann in Echtzeit wiedergegeben werden.
Dies ist bei einem interaktiven Projekt natürlich nicht möglich. Die Lösung des
Problems besteht darin, das Bild des Players als Hintergrundbild zu verwenden und
die Bildbereiche der Panoramen und der Videos exakt einzupassen, damit noch der
entsprechende blaue und orangene Rand zu sehen ist. Somit entfällt die
Rechenleistung für den Transparenzeffekt und tatsächlich verringert sich dadurch die
Ruheprozessorleistung des virtuellen Rundgangs bei einem 2,53 GHz Computer von
80 % auf 6 %. Auf die schwarzen Rechtecke kann somit verzichtet werden und das
Bild des Players, der verwendet wird, sieht somit wie in Abbildung 19 aus.
Abbildung 19 - Player ohne Transparenzeffekt
Daniel Schmidt August 2004 Seite 56
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
4.3.2 DIE INDIVIDUELLE FENSTERFORM
Diese Form wird mittels des Skin-Tracks erzeugt. Im Grunde genommen handelt es
sich hierbei um eine Alpha-Kanal-Spur, die QuickTime die Information liefert, an
welchen Bereichen der Film sichtbar bleiben soll und an welchen Bereichen er
transparent gerendert werden soll, damit das Desktop-Bild des Computers
durchscheint. Die Information liefert man QuickTime mit Hilfe einer Schwarz-Weiß-
Grafik (siehe Abbildung 20). Die schwarzen Bereiche im Bild bedeuten nicht
transparent, die weißen sorgen für die Transparenz. Die Schwarz-Weiß-Grafik muss
dieselben Maße vorweißen wie das QuickTime-Projekt, also 620 x 700 Pixel und sieht
wie folgt aus.
Abbildung 20 - Alpha-Kanal-Grafik für die Fensterform
4.3.3 DIE DRAG AREA
Nachdem nun das Standard-QuickTime-Fenster ausgeblendet ist, fehlt auch der
graue Fensterrahmen, an dem man das Fenster mit der Maus greifen und an einer
beliebigen Stelle auf dem Bildschirm platzieren kann. Dafür ist es notwendig, eine
Drag Area zu definieren, also eine Fläche, die für das Ziehen des Fensters verwendet
werden kann. Dies geschieht wieder mit Hilfe einer Schwarz-Weiß-Grafik (siehe
Abbildung 21), wobei schwarze Bereiche die Information „greifbar“ liefern. Dabei ist
zu beachten, dass diese Fläche keine funktionellen Bildbereiche wie Buttons
überdeckt, denn ansonsten verlieren diese Buttons ihre eigentliche Funktion und
können ebenfalls nur zum Verschieben des Fensters verwendet werden.
Daniel Schmidt August 2004 Seite 57
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Die Form für die Drag Area wird am besten wie folgt erstellt. Es wird ein Screenshot,
des QuickTime-Projekts erstellt. Dieses Bild wird in ein Grafikprogramm importiert.
Jetzt wird eine zweite Ebene erstellt, in die die Schwarz-Weiß-Grafik für die
individuelle Fensterform (Abbildung 20) importiert wird. Dann kann man beginnen,
von innen nach außen, Teile aus der Schwarz-Weiß-Grafik heraus zu schneiden bzw.
zu löschen. Somit kann man sich langsam herantasten und die Bereiche des darunter
liegenden Screenshots freilegen, die nicht zur Drag Area gehören sollen. Schließlich
löscht man die Ebene mit dem Screenshot und hat die Grafik für die Drag Area in
Reinform mit exakt der gleichen Außenform, wie die Schwarz-Weiß-Grafik für die
individuelle Fensterform vorliegen.
Abbildung 21 - Schwarz-Weiß-Grafik für die Drag Area
4.4 DIE BUTTONS
Als Buttons werden ebenfalls Bilder eingesetzt (siehe Abbildung 22). Diese werden
nicht in einen normalen Picture-Track eingefügt, sondern in einen Sprite-Track.
Sprite-Tracks sind programmierbare Tracks, einzelne Sprites können für bestimmte
Ereignisse, wie z.B. „Mouse Over“ (Mauszeiger befindet sich über dem Bild), „Mouse
Down“ (Maus wird gedrückt gehalten), mit verschiedenen Scripts programmiert
werden. So soll sich die Farbe ändern, wenn man mit dem Mauszeiger über den
Button fährt und wieder zur ursprünglichen Farbe wechseln, wenn man den Bereich
verlässt. Drückt man die Maustaste im Buttonbereich, sollen spezielle Aktionen wie
Zoom In, Zoom Out, Schwenk rechts, Schwenk links, Hotspots anzeigen/ausblenden,
Daniel Schmidt August 2004 Seite 58
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Reset, Play, Pause, Stop, Schneller Vor- und Rücklauf und Programm verlassen
ausgelöst werden.
Die Bilder für die Buttons werden wieder mit einem Grafikprogramm erstellt. Für
jeden Button müssen zwei Bilder erstellt werden. In einer Farbe für den Fall, dass
sich die Maus nicht über dem Button befindet und in einer anderen Farbe für den
anderen Fall. Wichtig ist es, einen Alphakanal beizufügen, dazu ist im
Grafikprogramm ein transparenter Hintergrund zu wählen.
Jetzt stellt sich noch die Frage, in welchem Format die Bilder am besten
abzuspeichern sind. Da die Datenmenge möglichst minimal gehalten werden soll,
eignet sich das ansonsten schöne PNG (Portable Network Graphic)-Format nicht sehr
gut. Jeder Button hätte hier eine Größe von 20 KB, was in Summe 440 KB
entsprechen würde. Zur Produktion eignet es sich aber sehr gut, danach müssen die
Dateien nur komprimiert abgespeichert werden. Das bekannteste und sehr gute
Kompressionsformat JPEG eignet sich leider nicht, da es keine transparenten
Hintergründe, also keinen Alphakanal, unterstützt. Letztendlich wurde das GIF-
Format als das am besten geeignete empfunden, welches im Internet sehr verbreitet
ist. Die Größen für jeden Button schrumpften somit von 20 KB auf 1 KB, im Fall der 3
Kreise für Hotspots an/aus auf 2 KB. Dies macht in Summe 24 KB aus und somit eine
Datenreduktion um Faktor 18. Allerdings muss unbedingt der Aspekt Farbe
berücksichtigt werden, da die Grafikelemente des Projekts nur aus offiziellen Farben
der HAW Hamburg bestehen sollen (Hexadezimaler Farbcode: dunkelblau:
#0A1F63, hellblau: #9CBCDA, orange: #FF630E). Dafür ist darauf zu achten, dass
beim Speichern der GIF-Dateien keine Standard-Farbtabellen verwendet werden,
sondern eine exakte Tabelle mit den offiziellen Farben verwendet wird.
Daniel Schmidt
Abbildung 22 - Grafiken für die Buttons
August 2004 Seite 59
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Die Buttons für die QTVR-Navigation und die Video-Navigation wurden jeweils in
einem separaten Sprite-Track realisiert. Für jeden dieser Sprite-Tracks muss
QuickTime die Transparenz berechnen, dadurch empfiehlt es sich, die Bereiche
möglichst klein zu halten. Bei zwei Tracks reduziert sich dieser Bereich auf die
kleinen Rechtecke unter den Monitorfenstern. Würde nur ein Sprite-Track verwendet
werden, so müsste QuickTime auch die Bereiche dazwischen berechnen und die CPU
würde unnötig belastet werden.
In den Sprite-Track für die QTVR-Navigation werden die insgesamt zwölf Bilder
(sechs blau und sechs orange) implementiert und an der gewünschten Position
platziert. Durch Doppelklick auf den Sprite-Track öffnet sich der Editor für den
Sprite-Track. Jetzt können die Bilder aus der Library in den Images-Bereich des
Sprite-Track-Editors gezogen werden. Im Sprite-Bereich des Editors werden sechs
Sprites mit „New Sprite“ angelegt. Für jeden Sprite wird im Properties-Bereich unter
Image-Index das entsprechende Bild gewählt, das beim Start des Virtueller
Rundgang.mov an der Position des Sprites gezeigt wird. Und im Bereich Buttons
können die Bilder für die verschiedenen Zustände „Mouse not over and Button not
pressed“ (1), „Mouse over and Button Not pressed“(2), „Mouse not over and Button
pressed“(3) und „Mouse over and Button pressed“(4) gewählt werden. So würde für
Zustand 1 das jeweilige blaue Bild gewählt werden, für Zustand 2 und 4 das jeweilige
orangene. Zustand 3 wird nicht verwendet. Man sieht hier wie wichtig es ist, eine
ordentliche Arbeitsstruktur zu führen, da man sonst sehr leicht den Überblick
verlieren kann. Es empfiehlt sich deswegen die Bilder logisch zu bezeichnen, um die
Bilder leichter zuordnen zu können.
In unserem Fall wurden alle Bilder nach dem System Monitorfenster/Funktion/
Zustand bezeichnet, wie z.B. VRrechtsUP, VRrechtsOVER, VIDEOplayUP,
VIDEOplayOVER.
Alternativ kann man dies auch im Script-Bereich programmieren, in dem auch alle
anderen Aktionen programmiert werden. Dadurch kann man den Button-Bereich
außer Acht lassen, der zwar einfacher in der Anwendung, aber nicht immer geeignet
ist. Das Prinzip ist jedoch dasselbe, es werden durch bestimmte Ereignisse die Bilder
ausgetauscht. Diese Ereignisse werden im Script-Bereich als Event-Handlers
bezeichnet, die hier durch [EventHandler] gekennzeichnet werden.
Das Script würde wie folgt lauten:
Daniel Schmidt August 2004 Seite 60
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
1 [Mouse Enter] 2 TrackNamed(“VR Control“).SpriteNamed(“VRhotspot”).SetImageIndexTo(7) 3 4 [Mouse Exit] 5 TrackNamed(“VR Control“).SpriteNamed(“VRhotspot”).SetImageIndexTo(1)
Würde man einen Befehl mit der Struktur XXX.YYY.ZZZ bezeichnen, so würde der
XXX-Bereich den Track, der angesprochen ist, identifizieren. Der YYY-Bereich
spricht gezielt einen bestimmten Sprite innerhalb des Tracks XXX an, also
beispielsweise einen bestimmten Button. Diese beiden Bereiche sind also für die
Adressierung des Befehls zuständig. Der ZZZ-Bereich stellt den Befehl an sich dar, er
veranlasst den Sprite, je nach Event, das Bild 7 oder das Bild 1 zu zeigen. Der Index
entspricht der Position, an der sich das Bild in der Liste des Sprite-Tracks befindet.
Bild 7 sind die orangenen drei Kreise, Bild 1 die blauen.
Analog wird dies mit den fünf Buttons für die Video-Navigation gemacht.
Nun sollen die Buttons nicht nur ihre Farbe ändern sondern auch Aktionen auslösen.
Im Folgenden werden die Scripts für die einzelnen Buttons aufgelistet. Diese Scripts
werden ebenfalls im Scripts-Bereich des Sprite-Editors programmiert, in eckigen
Klammern ist wieder der jeweilige [EventHandler] angegeben.
4.4.1 BUTTONS FÜR DIE QTVR-STEUERUNG
4.4.1.a BUTTON - HOTSPOTS AN / AUS
Der Button soll es ermöglichen, sich die Hotspots im Panorama anzeigen zu lassen
oder wieder zu verbergen. Dadurch muss das Script erkennen, ob die Hotspots
bereits an sind oder nicht.
Im Scriptbereich wird unter dem Ereignis [Mouse Click] folgende If-Else-Routine
geschrieben. Bei einem Mausklick prüft das Programm, ob die Hotspots bereits
sichtbar sind, sind sie es nicht, werden sie aktiviert, sind sie es bereits, werden sie
wieder ausgeblendet. So benötigt man nur einen Button für „An“ und „Aus“.
Das Ereignis [Mouse Enter] bewirkt, dass der Flash-Film, der alle Texte für den
Textbereich enthält, auf Frame 200 springt. Dort ist die Textinformation zu dem
Daniel Schmidt August 2004 Seite 61
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Button Hotspots An/Aus gespeichert (Genauer wird dies im Abschnitt 4.8 Hotspots
erklärt, dort findet sich auch eine Zuordnungstabelle Text ⇄ Frame).
Das Ereignis [Mouse Exit] lässt den Flash-Film auf den Frame mit dem
Willkommens-Text des aktiven Raums springen (Genauer wird dies noch im
Abschnitt 4.4.1.d Button - Reset erklärt).
1 [Mouse Click] 2 3 if (AreHotSpotsVisible = FALSE) 4 ShowHotSpots 5 else 6 HideHotSpots 7 endif 8 9 [Mouse Enter] 10 TrackNamed("texte").GoToFrameNumber(200) 11 12 [Mouse Exit] 13 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
4.4.1.b BUTTONS - SCHWENK LINKS / RECHTS
Dieser Button soll bewirken, dass, wenn man auf ihm die Maustaste gedrückt hält,
das Panorama nach rechts bzw. links schwenkt. Somit hat man das Gefühl, sich nach
links bzw. rechts zu drehen. Leider gibt es keinen direkten Befehl für Schwenk links
oder rechts, darum lautet das Script dafür wie folgt:
Linksschwenk:
1 [Idle] 2 globalVars gLeft 3
Daniel Schmidt August 2004 Seite 62
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
4 if(gLeft=1) 5 SetPanAngleBy(1) Min(0) Max(360) Wraparound 6 endif 7 8 [Mouse Enter] 9 TrackNamed("texte").GoToFrameNumber(201) 10 11 [Mouse Exit] 12 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) 13 14 [Mouse Down] 15 globalVars gLeft 16 17 gLeft=1 18 SetIdleDelay(1) 19 20 [Mouse Up] 21 globalVars gLeft 22 23 gLeft=0 24 SetIdleDelay(-1)
Dieses Script arbeitet mit einer Variablen. Es existieren in QuickTime globale, lokale
und Movie-Variablen. Auf globale Variablen können alle Sprite-Tracks zugreifen,
lokale Variablen sind nur innerhalb des Sprites, in dessen Script sie verwendet
werden verfügbar, Movie-Variablen werden in Movie-Tracks verwendet. Um sie
besser unterscheiden zu können, bezeichnet man sie meist mit einem
Anfangsbuchstaben, der ihren Typ kennzeichnet, als gVar, lVar oder mVar.
Unter jedem Eventhandler müssen die Variablen, die verwendet werden, deklariert
werden, dies geschieht für globale Variablen mit globalVars Var1 Var2 Var3…. Für die
anderen Variablen entsprechend mit localVars oder movieVars.
Wird nun die Maustaste gedrückt gehalten, während der Mauszeiger sich über dem
Sprite befindet, so wird die Variable gLeft auf „1“ gesetzt, wird sie losgelassen, wird
gLeft wieder auf „0“ gesetzt.
Daniel Schmidt August 2004 Seite 63
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Der Event Handler [Idle] wird nicht direkt durch ein Ereignis wie [Mouse Down]
ausgelöst, sondern er führt sein Script in vorgegebenen Zeitabständen durch. Diese
Zeitabstände können in Livestage Pro als IdleDelay gewählt werden und werden in
ticks (1/60 Sekunde) angegeben. Der Wert „1“ löst somit den [Idle]-Event jede
sechzigstel Sekunde aus. Setzt man für den Wert „0“, so führt QuickTime den [Idle]-
Event so oft wie möglich durch, setzt man den Wert auf „-1“, wird der Event nie
ausgeführt. Durch die If-Routine fragt das Script den Wert der Variablen gLeft ab. Ist
dieser „1“, d.h. die Maus ist gedrückt, dann verändert er den PanAngle (die Richtung
in der das Panorama gerade gesehen wird, reicht von 0 bis 360) um den Wert „1“, das
heißt bei jeder Abfrage des [Idle]-Event Handlers wird das Panorama um ein Grad
gedreht. Um das System nur dann mit der [Idle]-Abfrage zu belasten, wenn sie auch
notwendig ist, muss der IdleDelay-Wert variable gesetzt werden. Dies geschieht mit
dem Befehl SetIdleDelay(WERT). Wird die Maustaste gedrückt gehalten, wird der
IdleDelay-Wert auf „1“ gesetzt, wird die Maustaste wieder losgelassen, wird er wieder
auf „-1“ gesetzt und das System wird wieder entlastet. Die Entlastung lag, bei einem
Testcomputer, bei 20% der Prozessorleistung und ist dadurch sehr wichtig. Die
Häufigkeit der Abfrage (IdleDelay) und der Wert im SetPanAngleBy-Befehls
bestimmen somit wie schnell sich das Panorama dreht. Mit den Werten für Min und
Max könnte der Schwenkbereich noch eingegrenzt werden, Wraparound bewirkt,
dass sich das Panorama von 360 auf 0 weiter drehen lässt und nicht hängen bleibt.
Die Ereignisse [Mouse Enter] und [Mouse Exit] sorgen dafür, dass die
Textinformation zum Button angezeigt wird, wenn die Maus über den Button fährt
bzw. der Willkommens-Text des aktiven Raums angezeigt wird, wenn die Maus den
Button wieder verlässt (siehe auch Abschnitt 4.8 Hotspots und 4.4.1.d Button -
Reset). Für den Rechtsschwenk sieht das Script dementsprechend wie folgt aus:
Rechtsschwenk:
1 [Idle] 2 globalVars gRight 3 4 If (gRight=1) 5 SetPanAngleBy(-1) Min(0) Max(360) Wraparound 6 Endif 7
Daniel Schmidt August 2004 Seite 64
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8 [Mouse Enter] 9 TrackNamed("texte").GoToFrameNumber(204) 10 11 [Mouse Exit] 12 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) 13 14 [Mouse Down] 15 globalVars gRight 16 17 gRight=1 18 SetIdleDelay(1) 19 20 [Mouse Up] 21 globalVars gRight 22 23 gRight=0 24 SetIdleDelay(-1)
4.4.1.c BUTTONS - ZOOM IN / OUT
Wie beim Schwenk links / rechts gibt es auch hier keinen direkten Befehl und es wird
ebenfalls mit Variablen gearbeitet. Das Script sieht wie folgt aus:
Zoom In:
1 [Idle] 2 globalVars gZoomIn 3 4 If (gZoomIn=1) 5 SetFieldOfViewBy(-1) 6 Endif 7 8 [Mouse Enter] 9 TrackNamed("texte").GoToFrameNumber(203)
Daniel Schmidt August 2004 Seite 65
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
10 11 [Mouse Exit] 12 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) 13 14 [Mouse Down] 15 globalVars gZoomIn 16 17 gZoomIn=1 18 SetIdleDelay(1) 19 20 [Mouse Up] 21 globalVars gZoomIn 22 23 gZoomIn=0 24 SetIdleDelay(-1)
Man sieht, die Variable gZoomIn wird ebenfalls auf „1“ gesetzt, wenn die Maustaste
gedrückt gehalten wird und auf „0“, wenn sie wieder losgelassen wird. Die [Idle]-
Abfrage bewirkt nun die Änderung des Bildausschnitts um jeweils den Wert „-1“ pro
Abfrage. Die Frequenz des [Idle]-Events wird wieder mit SetIdleDelay nur dann auf
„1“ gesetzt, wenn die Maustaste gedrückt wird, wird sie losgelassen, dann wird die
Abfrage wieder gestoppt (IdleDelay auf „-1“). [Mouse Enter] und [Mouse Exit] sind
wieder nur für die Textinformation wichtig (siehe Abschnitt 4.8 Hotspots und 4.4.1.d
Button - Reset). Das Script für Zoom Out sieht wie folgt aus.
Zoom Out:
1 [Idle] 2 globalVars gZoomOut 3 4 If (gZoomOut=1) 5 SetFieldOfViewBy(1) 6 Endif
Daniel Schmidt August 2004 Seite 66
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
7 8 [Mouse Enter] 9 TrackNamed("texte").GoToFrameNumber(202) 10 11 [Mouse Exit] 12 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) 13 14 [Mouse Down] 15 globalVars gZoomOut 16 17 gZoomOut=1 18 SetIdleDelay(1) 19 20 [Mouse Up] 21 globalVars gZoomOut 22 23 gZoomOut=0 24 SetIdleDelay(-1)
4.4.1.d BUTTON - RESET
Der Reset-Button soll das Panorama wieder in die Default-Position bringen, die auch
beim Betreten des Raums zu sehen war. Dies ist zum einen hilfreich, wenn sich
ungeübte Anwenderinnen und Anwender durch starkes Zoomen nicht mehr
orientieren können, zum anderen sind in der Default-Position jeweils die Personen zu
sehen, für die ein Interview verfügbar ist. Somit kommt man in einem Panorama mit
maximal zwei Mausklicks zu einem Interview: Klick auf Reset, dann Klick auf die
Person. Das Script dafür lautet wie folgt:
1 [Mouse Click] 2 ShowDefaultView 3 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) 4
Daniel Schmidt August 2004 Seite 67
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
5 [Mouse Enter] 6 TrackNamed("texte").GoToFrameNumber(205) 7 8 [Mouse Exit] 9 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) Zeile 3 sorgt dafür, dass bei Klicken auf den Reset-Button nicht nur die Default-
Position des Panoramas angezeigt wird (Zeile 2), sondern auch der entsprechende
Willkommens-Text zu dem jeweiligen Raum. Dazu soll der Flash-Film, in dem alle
Texte als einzelne Frames enthalten sind, auf den entsprechenden Frame springen.
Eine elegante Lösung dafür, die ohne If-Routinen auskommt, wird mit einer
mathematischen Formel gelöst:
(NodeID-1)*20
„NodeID“ gibt in der Sprache QScript die ID des Panoramas, das gerade aktiv ist,
zurück. Im Flash-Film wurden für jeden Raum genau 20 Frames reserviert, jeweils
der erste von 20 ist der entsprechende Willkommens-Text. Flash beginnt die
Nummerierung mit 0, also liegen alle Willkommen-Texte auf den Frames 0, 20, 40,
… und somit verweist die angegebene Formel immer auf den passenden
Willkommens-Text. Wichtig ist, dass die Texte in Flash in derselben Reihenfolge wie
die IDs der QTVR-Panoramen in Livestage platziert werden. Eine weitere Variante
wäre, statt einer festen Bildanzahl pro Raum (20), mit einer globalen Variablen zu
arbeiten, z.B. gFPN (frames per node). Nodes (Räume) werden im Abschnitt 4.7
Nodes genauer erklärt. Die Formel würde dann so aussehen:
(NodeID-1)*gFPN
Allerdings darf nicht vergessen werden, die Variable in jedem Script zu deklarieren,
in dem sie vorkommt ( globalVars gFPN). Beim Starten des virtuellen Rundgangs
muss die Variable auf die Anzahl der Frames pro Raum gesetzt werden, die
verwendet werden. Dies könnte im [Node Entered]-Event des ersten Nodes realisiert
werden:
Daniel Schmidt August 2004 Seite 68
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
1 [Node Entered] 2 globalVars gFPN 3 4 gFPN=20
Beim Betreten des ersten Panorams, das automatisch beim Öffnen des virtuellen
Rundgangs geöffnet bzw. betreten wird, wird die Variable gFPN nun auf 20 gesetzt.
Sollten irgendwann mehr als 20 Frames pro Panorama benötigt werden, genügt eine
einzige Änderung an dieser Stelle.
Der [Mouse Enter]-Event sorgt wieder dafür, das die entsprechende Textinformation
zum Button angezeigt wird (siehe auch Abschnitt 4.8 Hotspots).
Das Script aus Zeile 3 des Button-Reset-Scripts wird in allen [Mouse Exit]-Events der
Buttons verwendet. Nach dem die Maus einen Button wieder verlässt, soll der
Willkommens-Text des aktiven Raums (Node) angezeigt werden.
4.4.2 BUTTONS FÜR DIE VIDEO-STEUERUNG
4.4.2.a BUTTON - SCHNELLER RÜCKLAUF
Dieser Button ermöglicht es, in den Interviews zurückzuspulen. Das Script dafür ist
sehr einfach, es setzt die Wiedergaberate, die im normalen Play-Modus „1“,
entspricht, auf einen negativen Wert. In diesem Fall bedeutet die „-2“, dass der Film,
der im Movie-Track mit dem Namen „Movie“ geladen ist, mit doppelter
Wiedergabegeschwindigkeit zurückgespult wird. [Mouse Enter] und [Mouse Exit]
sind wieder für die entsprechende Textinformation wichtig.
1 [Mouse Click] 2 ChildMovieTrackNamed("Movie").SetRateTo(-2) 3 4 [Mouse Enter] 5 TrackNamed("texte").GoToFrameNumber(206) 6 7 [Mouse Exit] 8 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
Daniel Schmidt August 2004 Seite 69
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
4.4.2.b BUTTON - STOP
Dieses Script ist etwas komplexer:
1 [Idle] 2 If (ChildMovieTrackNamed("Movie").movietime=
ChildMovieTrackNamed("Movie").getmovieduration) 3 ChildMovieTrackNamed("Movie").StopPlaying 4 ChildMovieTrackNamed("Movie").GoToBeginning 5 TrackNamed("Movie").LoadChildMovie(7) 6 TrackNamed("Video Control").
SpriteNamed("VIDEObwd").SetImageIndexTo(1) 7 TrackNamed("Video Control").
SpriteNamed("VIDEOstop").SetImageIndexTo(2) 8 TrackNamed("Video Control").
SpriteNamed("VIDEOplay").SetImageIndexTo(3) 9 TrackNamed("Video Control").
SpriteNamed("VIDEOpause").SetImageIndexTo(4) 10 TrackNamed("Video Control").
SpriteNamed("VIDEOfwd").SetImageIndexTo(5) 11 TrackNamed("white").SetEnabled(True) 12 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) 13 SetIdleDelay(-1) 14 TrackNamed("Video Control").SetEnabled(False) 15 Endif 16 17 [Mouse Click] 18 ChildMovieTrackNamed("Movie").StopPlaying 19 ChildMovieTrackNamed("Movie").GoToBeginning 20 TrackNamed("Movie").LoadChildMovie(7) 21 TrackNamed("Video Control").
SpriteNamed("VIDEOstop").SetImageIndexTo(2) 22 TrackNamed("white").SetEnabled(True)
Daniel Schmidt August 2004 Seite 70
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
23 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) 24 SetIdleDelay(-1) 25 TrackNamed("Video Control").SetEnabled(False) 26 27 [Mouse Enter] 28 TrackNamed("texte").GoToFrameNumber(207) 29 30 [Mouse Exit] 31 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
Für die eigentliche Funktion des Stop-Buttons ist nur das Script im [Mouse Click]-
Event Handler von Bedeutung. Die Funktion [Idle]-Event Handler wird weiter unten
im Text erklärt.
Zeile 18 stoppt den Film, der im Movie-Track mit dem Namen „Movie“ gerade
geladen ist. Zeile 19 setzt das geladene Interview im Movie-Track wieder auf den
Anfang zurück, damit es bei erneutem Abspielen stets vom Anfang abgespielt wird
und nicht von der Position, an der die Benutzerin oder der Benutzer den Stop-Button
gedrückt hat. Zeile 20 lädt das Logo der HAW Hamburg im Movie-Track, damit bei
gestoppten Videos nicht das Standbild, sondern das HAW-Logo zu sehen ist. Anders
als die Interviews, die QuickTime-Movies mit MPEG-4 Komprimierung sind, ist das
Logo ein Flash-Film bestehend aus einem Frame. Der Movie-Track ist nicht nur für
Filme geeignet, sondern ein Container für verschiedenste Arten von Medien, somit
kann durchaus auch ein Flash-Film oder eine Grafik im Movie-Track geladen werden.
Zeile 22 aktiviert den Track mit dem Namen „white“. Dieser Track enthält nur ein
weißes Rechteck in der Größe der Video Control-Steuerleiste. Dadurch ist die Leiste
nicht sichtbar, wenn keine Filme laufen. Zeile 21 ist eine kosmetische Operation:
Beim Klicken auf den Stop-Button wird, wie oben erklärt, ein weißes Rechteck
aktiviert, das die Steuerleiste verdeckt. Für den Sprite des Stop-Buttons, der beim
Klicken in der Farbe blau (aktiv) dargestellt wird, kann nun kein Mausereignis
ausgelöst werden, da der Sprite durch das weiße Rechteck „abgeblockt“ wird. Somit
wird die Farbe beim Verlassen des Sprites mit dem Mauszeiger auch nicht wieder auf
die Farbe orange (passiv) zurückgesetzt. Zeile 21 dieses Scripts sorgt dafür. Zeile 23,
ebenfalls eine kosmetische Ausbesserung, setzt den Informationstext zum Button
wieder auf den Willkommens-Text des aktiven Raums, da hier, ebenfalls wegen dem
Daniel Schmidt August 2004 Seite 71
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
weißen Rechteck, das [Mouse Exit]-Event nicht greift. Die Zeilen 24 und 25 dienen
dazu den Prozessor zu entlasten. Zeile 24 deaktiviert die [Idle]-Abfrage, die nur
notwendig ist, wenn ein Film läuft, Zeile 25 deaktiviert noch den Sprite-Track, der ja
sowieso nicht mehr gesehen wird.
Der [Idle]-Event Handler soll alle diese Aktionen ausführen, wenn der Film sein
Ende erreicht hat, ohne dass er mit Stop abgebrochen wurde. Die If-Routine wird für
den Fall ausgeführt (Zeile 2), wenn die aktuelle Zeit des geladenen Movies
(movietime) der Dauer des Films (getmovieduration) entspricht, also der Film das
Ende erreicht hat.
Die Zeilen 3-5 haben die identischen Funktionen der Zeilen 18-20. Die darauf
folgenden Zeilen (Zeilen 6-10) stellen ebenfalls eine kosmetische Ausbesserung dar.
Sollte der Mauszeiger sich über einem der Buttons befinden, während der Film sein
Ende erreicht, so würde dieser ebenfalls in der aktiven Farbe blau bleiben und bei
einem Neustart eines Interviews immer noch blau gezeigt werden. Somit müssen die
Sprites aller Buttons wieder auf die passiven Bilder (orange) gesetzt werden. Zeile 11
aktiviert das weiße Rechteck, um die Videosteuerleiste zu verdecken. Zeile 12 setzt
den Informationstext zum Button wieder auf den Willkommens-Text des aktiven
Raums. Die Zeilen 13 und 14 deaktivieren die [Idle]-Abfrage und den Sprite-Track.
[Mouse Enter]- und [Mouse Exit]-Event sind wieder für die korrekte Textinformation
verantwortlich.
4.4.2.c BUTTON - PLAY
Dieses Script lässt den geladenen Film mit normaler Geschwindigkeit abspielen. War
der Film davor in Pause (Wiedergaberate „0“) oder in Backward (Rate „-2“) bzw.
Fastforward (Rate „2“), so wird die Wiedergaberate auf „1“ gesetzt. [Mouse Enter]
und [Mouse Exit] sind wieder für die korrekte Textinformation zuständig.
1 [Mouse Click] 2 ChildMovieTrackNamed("Movie").StartPlaying 3 4 [Mouse Enter] 5 TrackNamed("texte").GoToFrameNumber(208)
Daniel Schmidt August 2004 Seite 72
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
6 7 [Mouse Exit] 8 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) Alle Interviews werden durch einen Mausklick auf eine Person in einem QTVR-
Panorama gestartet. Das Script dazu befindet sich im Abschnitt 4.8 Hotspots.
4.4.2.d BUTTON - PAUSE
Dieses Script setzt die Wiedergaberate auf „0“, das aktuelle Videobild wird
„eingefroren“. [Mouse Enter] und [Mouse Exit] sind wieder für die Textinformation
verantwortlich.
1 [Mouse Click] 2 ChildMovieTrackNamed("Movie").SetRateTo(0) 3 4 [Mouse Enter] 5 TrackNamed("texte").GoToFrameNumber(209) 6 7 [Mouse Exit] 8 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
4.4.2.e BUTTON - SCHNELLER VORLAUF
Analog zum Button „Schneller Rücklauf” wird hier die Wiedergaberate auf „2” gesetzt
und löst somit ein schnelles Vorspulen aus. [Mouse Enter] und [Mouse Exit] sorgen
wieder für die passende Textinformation.
1 [Mouse Click] 2 ChildMovieTrackNamed("Movie").SetRateTo(2) 3 4 [Mouse Enter] 5 TrackNamed("texte").GoToFrameNumber(210)
Daniel Schmidt August 2004 Seite 73
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
6 7 [Mouse Exit] 8 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
4.4.3 BUTTONS FÜR DIE KARTE (MAP)
Mittels der Map-Buttons kann die Anwenderin oder der Anwender zwischen den
einzelnen Räumen navigieren. Es existieren zwei verschiedene Map-Buttons: runde
und quadratische. Die runden Buttons zeigen die Räume an, für die Panoramen
verfügbar sind. Durch einen Mausklick auf einen runden Button wird das
entsprechende Panorama geladen. Die quadratischen Buttons ergänzen den
virtuellen Rundgang. Fährt man mit der Maus über sie, so wird ein Foto mit
Information zu dem entsprechenden Raum angezeigt. Die quadratischen Buttons
haben keinerlei Funktion, wenn sie angeklickt werden. Im Folgenden werden die
Scripte für beide Button-Arten dargestellt. Natürlich ändern sich die NodeIDs, und
Flash-Frames, die geöffnet werden. Die Zuordnung zwischen Flash-Frames und
Buttons kann der Tabelle im Abschnitt 4.10 Zuordnugstabelle entnommen werden.
4.4.3.a SCRIPT FÜR DIE PANORAMA-BUTTONS
CampusB-Button:
1 [Mouse Click] 2 If(NodeID!=1) 3 ChildMovieTrackNamed("Movie").StopPlaying 4 TrackNamed("white").SetEnabled(True) 5 ChildMovieTrackNamed("Movie").GoToBeginning 6 TrackNamed("Movie").LoadChildMovie(7) 7 TrackNamed("Video Control").SetIdleDelay(-1) 8 TrackNamed("Video Control").SetEnabled(False) 9 Endif 10 11 TrackNamed("QTVR").GoToNodeID(1) 12
Daniel Schmidt August 2004 Seite 74
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
13 [Mouse Enter] 14 If (NodeID=1) 15 TrackNamed("texte").GoToFrameNumber(0) 16 Else 17 TrackNamed("texte").GoToFrameNumber(161) 18 Endif 19 20 TrackNamed("mapbuttons").SpriteNamed("CampusB").SetImageIndexTo(2) 21 22 [Mouse Exit] 23 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) 24 25 If (NodeID=1) 26 TrackNamed("mapbuttons").
SpriteNamed("CampusB").SetImageIndexTo(3) 27 Else 28 TrackNamed("mapbuttons").
SpriteNamed("CampusB").SetImageIndexTo(1) 29 Endif Erklärungen zu [Mouse Click]:
Zeile 2 fragt ab, ob der aktive Node (Raum) nicht der Node mit der ID 1 ist, dies wird
durch das „!“ bewirkt. Sollte die aktive NodeID 1 sein, so wird die If-Routine
übersprungen. Dies wäre also der Fall, wenn man sich in einem Raum befindet und
auf den zugehörigen Button in der Karte klickt, dann möchte man, dass nichts
passiert, denn man möchte ja in dem Raum bleiben. Ein laufendes Video soll dann
nicht abgebrochen werden.
Zeile 11, die in jedem Fall ausgeführt wird, bewirkt, dass der Node mit der ID 1
geöffnet wird. Für den Fall, dass NodeID 1 bereits aktiv ist, hat das die Bewandtnis,
dass das Script im Eventhandler [Node Entered] ausgeführt wird, das im Abschnitt
4.7 Nodes erklärt wird. Kurz umschrieben, sorgt dieses Script dafür, dass das
Panorama wieder auf die Default-Position gesetzt wird, also dieselbe Funktion hat
wie der Reset-Button.
Daniel Schmidt August 2004 Seite 75
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Sollte die NodeID aber nicht 1 entsprechen, so wird durch Zeile 11 der Raum
gewechselt. Zeile 3-8 der If-Routine fangen den Fall auf, für den noch ein Interview
wiedergegeben wird, während der Raum gewechselt wird, denn dann würde das
Interview des Raums mit der NodeID 1 plötzlich neben dem Panorama eines anderen
Raumes dargestellt werden und dies ist nicht erwünscht. Im Detail stoppt Zeile 3 den
aktiven Movie im Movie-Track. Zeile 4 blendet den Track mit dem weißen Rechteck
ein, um die Video-Steuerleiste zu verdecken. Zeile 5 setzt das Movie auf Anfang
zurück. Zeile 6 lädt den Flash-Film mit dem HAW-Logo in den Movie-Track. Zeile 7
deaktiviert die Idle-Abfrage (siehe auch Button Schwenk Links / Rechts). Zeile 8
deaktiviert noch den Sprite-Track mit den Video-Buttons, der sowieso nicht mehr zu
sehen ist.
Der Eventhandler [Mouse Enter] sorgt dafür, dass jeweils der richtige Text zu einem
Button im Textfeld angezeigt wird. Mit der If-Else-Routine erreicht man, dass für
aktiven Node und inaktive Nodes unterschiedliche Texte angezeigt werden. Fährt
man über den Button eines Raumes, der nicht aktiv ist, so soll der Informationstext
angezeigt werde, der angibt, um welchen Raum es sich handelt und dass man auf den
Button klicken soll, um diesen Raum zu öffnen (Zeile 17). Fährt man hingegen über
den Button der zum aktiven Node gehört, soll weiterhin dessen Willkommens-Text
angezeigt werden (Zeile 15).
[Mouse Exit] setzt in Zeile 23 den Flash-Film mit den Texten wieder auf den
entsprechenden Willkommens-Text, falls die Maus den Button wieder verlässt. Die
folgende If-Else-Routine ist notwendig, damit für den Button des aktiven Nodes
orange statt dunkelblau auf der Karte erscheint. Falls der Node Nummer 1 der aktive
Node ist, so wird der Sprite CampusB im Sprite-Track „mapbuttons“ auf Index 3
gesetzt, dies entspricht der orangenen Kreisfläche (Zeile 26). Ist ein anderer Node
aktiv, wird der Sprite auf Index 1 der dunkelblauen Kreisfläche gesetzt (Zeile 28).
Die Scripts zu allen Panorama-Buttons befinden sich im Anhang 8.3.
Daniel Schmidt August 2004 Seite 76
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
4.4.3.b SCRIPT FÜR DIE PLUS-BUTTONS
Caféteria-Button:
1 [Mouse Enter] 2 TrackNamed("texte").GoToFrameNumber(180) 3 4 [Mouse Exit] 5 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
Das Script für das Ereignis [Mouse Enter] bewirkt, dass der Flash-Film im Track
„texte” auf Frame-Nummer 180 springt, dort befindet sich der Text für die Caféteria.
Das Script für das [Mouse Exit]-Event bewirkt, dass immer der Text zu dem
Panorama angezeigt wird, das auch geöffnet ist. Der Flash-Film springt immer auf
den Frame mit der Nummer (NodeID-1)*20. Da sich der Willkommens-Text zu den
einzelnen Panoramen jeweils auf den Frames (0, 20, 40…) befindet, wird, da die
NodeID der Panoramen in derselben Reihenfolge angeordnet sind, wie die Texte im
Flash-Film, immer der korrekte Text zum jeweiligen Panorama angezeigt.
Die Scripte zu allen Plus-Buttons befinden sich im Anhang 8.4.
4.4.4 WINDOW-BUTTON
Der Sprite-Track „window-buttons“, der eigentlich nur einen Sprite enthält, dient
zum Beenden des virtuellen Rundgangs und zum Einblenden der Copyright-
Information.
1 [Mouse Click] 2 CloseThisWindow 3 4 [Mouse Enter] 5 TrackNamed("texte").GoToFrameNumber(211) 6 7 [Mouse Exit] 8 TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
Daniel Schmidt August 2004 Seite 77
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Zeile 2 bewirkt, dass das Fenster, also der virtuelle Rundgang geschlossen bzw.
beendet wird. Zeile 5 blendet den Beenden-Text ein, der darauf hinweist, dass man
mit diesem Button den virtuellen Rundgang beendet, sowie Information zum Autor,
so wie dem Betreuer der Diplomarbeit Herrn Prof. Dr. Robert Fitz und einen
Copyright-Vermerk enthält. Zeile 8 blendet beim Verlassen des Buttons den
Willkommens-Text des aktiven Nodes ein.
4.5 LAYOUT
Dieser Abschnitt dient dazu, eine spätere Rekonstruktion des Projekts zu erleichtern.
Jedem Track ist innerhalb Livestage eine Position zugeordnet und es werden die
Maße des Tracks festgelegt. Der nachfolgenden Tabelle kann man für jeden Track des
virtuellen Rundgangs dessen Namen, Typ, Position (Left und Top bestimmen den
Abstand von der linken bzw. oberen Kante in Pixel), Größe (Breite und Höhe in
Pixel), Draw Mode und Idle Delay entnehmen. Draw Mode gibt an, wie QuickTime
mit einem Track grafisch umgeht. „Dither“ bedeutet, dass QuickTime den Track, so
wie er ist, über den darunter liegenden Tracks abbildet, solange die Bit-Tiefe des
Zielsystems ausreicht, die Farben darzustellen. Dies entspricht dem Draw Mode
„Copy“. Sollte die Farb-Bit-Tiefe des Zielsystems einmal nicht ausreichen, so werden
die Farben durch Dithering dargestellt, dies bedeutet, dass sie aus einzelnen
Farbpunkten gemischt werden, die mit der Bit-Tiefe dargestellt werden können. Ist
der Draw Mode „Alpha Channel“ gewählt, so berechnet QuickTime die Transparenz
für diesen Track anhand der Alpha-Channel-Information, die vorliegt. Als Alpha-
Channel wird ein Graustufenbild bezeichnet, das dem „normalen“ Bild in einem
separaten Alpha-Kanal beiliegt und Information bzgl. der Transparenz liefert.
Schwarze Bereiche im Alpha-Kanal-Bild bedeuten, dass das ursprüngliche Bild dort
100% durchsichtig, also wie nicht vorhanden, erscheinen soll. Weiße Bereiche
bedeuten, dass das ursprüngliche Bild 100% deckend dargestellt werden soll. Graue
Bereiche geben je nach Grauton die Transparenz an. Das ursprüngliche Bild erscheint
in diesen Bereichen durchscheinend. Natürlich kann die Alpha-Channel-Information
auch invertiert werden, dann erscheinen weiße Bereiche 100% durchsichtig, schwarze
Bereiche 100% deckend. Idle Delay gibt den Wert an, der für die Hintergrundabfrage
beim Start des virtuellen Rundgangs gesetzt ist, bzw. auf welchen Wert sie durch ein
Script während des Rundgangs gesetzt werden kann (siehe auch Abschnitt 4.4.1.b
Buttons - Schwenk Links/Recht).
Daniel Schmidt August 2004 Seite 78
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Track-
Name
Track
-Typ
Left Top Width Height Draw
Mode
Idle Delay
QTVR QTVR 32 159 315 236 Dither -1
Movie Movie 353 74 235 177 Dither ---
Player Picture 0 0 620 700 Dither ---
VR Control Sprite 26 400 326 32 Alpha
Channel
-1 oder 1
Video
Control
Sprite 351 257 238 24 Alpha
Channel
-1 oder 10
Map Flash 366 298 219 127 Dither ---
Mapbuttons Sprite 365 291 223 141 Alpha
Channel
-1
Texte Flash 29 443 320 200 Dither ---
Titel Sprite 29 110 319 31 Dither -1
White Picture 351 257 239 25 Dither ---
HAW-Logo Flash 351 74 240 180 Dither ---
Window-
Buttons
Sprite 555 49 40 20 Dither -1
4.5.1 VR CONTROL - LAYOUT
Die Position aller Sprites eines Tracks wird stets relativ zur Position des Sprite-Tracks
angegeben, so bleiben die Werte gleich, auch wenn der Sprite-Track verschoben wird.
Nachfolgend sind die relativen Positionen der einzelnen Sprites im Sprite-Track „VR
Control” angegeben. Diese Sprites stellen die Buttons für die Steuerung der QTVR-
Panoramen dar. Als Render-Modus wird „Copy“ gewählt, damit die Bilder der
Buttons 1:1, bzw. unverändert in den Sprite-Track integriert werden. Für den Sprite-
Track an sich ist wieder der Draw Mode „Dither“ gewählt.
Sprite Left Top Rendering Index
VRhotspot 4 2 Copy 1
VRlinks 57 2 Copy 2
VRminus 110 2 Copy 3
Daniel Schmidt August 2004 Seite 79
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Sprite Left Top Rendering Index
VRplus 164 2 Copy 4
VRrechts 217 2 Copy 5
VRreset 271 2 Copy 6
4.5.2 VIDEO CONTROL - LAYOUT
Nachfolgend sind die relativen Positionen der einzelnen Sprites im Sprite-Track
„Video Control” angegeben. Diese Sprites stellen die Buttons für die Steuerung der
Videos dar. Als Render-Modus wird „Copy“ gewählt, damit die Bilder der Buttons 1:1,
bzw. unverändert in den Sprite-Track integriert werden. Für den Sprite-Track an sich
ist wieder der Draw Mode „Dither“ gewählt.
Sprite Left Top Rendering Index
VIDEObwd 1 1 Copy 1
VIDEOstop 48 1 Copy 2
VIDEOplay 97 1 Copy 3
VIDEOpause 145 2 Copy 4
VIDEOfwd 192 1 Copy 5
4.5.3 MAP-BUTTONS - LAYOUT
Nachfolgend sind die relativen Positionen der einzelnen Sprites im Sprite-Track
„mapbuttons” angegeben. Diese Sprites stellen die Buttons für die Navigation auf der
Karte dar. Als Render-Modus wird „Copy“ gewählt, damit die Bilder der Buttons 1:1,
bzw. unverändert in den Sprite-Track integriert werden. Für den Sprite-Track an sich
ist wieder der Draw Mode „Dither“ gewählt.
Sprite Left Top Rendering Index
Panorama-
Buttons
CampusB 26 76 Copy 1
Computerlabor 178 117 Copy 2
Daniel Schmidt August 2004 Seite 80
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Sprite Left Top Rendering Index
Foyer 48 54 Copy 3
Lichtlabor 69 62 Copy 4
Tonlabor 121 116 Copy 5
Videolabor 140 40 Copy 6
VRStudio 82 116 Copy 7
CampusA 173 40 Copy 8
Plus-Buttons
Cafeteria 28 51 Copy 9
Elektrotechnik 151 114 Copy 10
Fotolabor 76 84 Copy 11
FSR 35 28 Copy 12
Innenhof 111 78 Copy 13
Internet-Café 57 38 Copy 14
Regelungstechnik 205 113 Copy 15
Studienzentrum 158 28 Copy 16
Vorlesungsraum1 92 25 Copy 17
Vorlesungsraum2 195 61 Copy 18
Vorlesungsraum3 153 88 Copy 19
4.5.4 WINDOW-BUTTON - LAYOUT
Nachfolgend ist die relative Position des X-Sprites im Sprite-Track „window-buttons”
angegeben. Dieser Sprite dient als Button für das Beenden des virtuellen Rundgangs.
Als Render-Modus wird „Copy“ gewählt, damit die Bilder der Buttons 1:1, bzw.
unverändert in den Sprite-Track integriert werden. Für den Sprite-Track an sich ist
wieder der Draw Mode „Dither“ gewählt.
Sprite Left Top Rendering Index
X 21 0 Copy 1
Daniel Schmidt August 2004 Seite 81
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
4.6 MOVIE-IN-A-MOVIE IN QUICKTIME
Der Movie-Track ist ein besonderer Track in der QuickTime-Architektur. Er
ermöglicht es, Projekte, die als Movie-In-A-Movie (Film im Film) bezeichnet werden,
zu erstellen. Dies ist vor allem für interaktive Projekte geeignet, denn QuickTime, das
von seiner ursprünglichen Konzeption zeitbasiert ist, erreicht seine Interaktivität
durch das Anspringen von pausierten Bildern (Frames) und durch Sprites. Möchte
man nun aber Filme innerhalb der interaktiven Oberfläche abspielen, soll sich die
Oberfläche nicht verändern, das bedeutet, dass der Film, innerhalb eines pausierten
Frames des Projekts, abgespielt werden soll. Dies wird möglich, da die Medien die in
einen Movie-Track integriert werden, über eine separate Timeline verfügen. Da ein
QuickTime-Movie auch aus anderen Medien wie z.B. Flash, Grafik oder Text
bestehen kann, können auch solche Medien als Movie-In-A-Movie realisiert werden.
Der übergeordnete Projekt-Film wird als Parent-Movie bezeichnet, die einzelnen
Filme, die im Movie-Track enthalten sind, als Child-Movies. Ein Child-Movie kann
wiederum Child-Movies enthalten. Das Verwalten von verschiedenen Timelines stellt
aber für die Performance des QuickTime-Films ein Problem dar, wenn zu große
Filme in den Projekt-Film eingebettet werden. Dann läuft der Parent-Movie nicht
mehr flüssig und erzeugt unerwünschte Effekte. Deswegen dürfen Child-Movies über
150 KB nicht direkt in den Parent-Movie eingebettet werden, sondern es muss darauf
verlinkt werden und die Child-Movies müssen als extra Dateien verfügbar sein.
Funktionell ist ein Movie-Track wie ein Container zu verstehen. Innerhalb des Tracks
existiert eine Liste mit Movies, sowohl eingebettete, als auch verlinkte, die in den
Track integriert werden. Durch Klicken auf einen Button oder Hotspot kann nun ein
bestimmter Film dieser Liste mit dem Befehl
TrackNamed(“Movie“).LoadChildMovie(3)
geladen werden. Dadurch wird der Film, der als dritter in der Liste aufgeführt ist, das
aktive ChildMovie des Movie-Tracks. Wird das ChildMovie des Tracks jetzt von
einem Script angesprochen, ist immer das aktive Movie gemeint.
Für den virtuellen Rundgang wurde Movie-In-A-Movie für die Interviews
angewandt. Klickt man auf eine entsprechende Person, so wird das passende
Interview-Movie im Movie-Track geladen. Zusätzlich zu den Interview-Movies, die
aufgrund ihrer Größe verlinkt sind, ist noch ein Flash-Film mit dem Logo der HAW
Daniel Schmidt August 2004 Seite 82
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Hamburg eingebettet, der immer geladen wird, wenn gerade kein Interview
wiedergegeben wird. Dies wird noch ausführlicher im Abschnitt 4.8 Hotspots erklärt.
Die folgende Tabelle gibt Aufschluss über die Zuordnung von Interview und der
Nummer (Index) des ChildMovies in der Liste des Movie-Tracks.
Movie Format Index
Computerlabor .mov mit MPEG-4-Codec 1
Dekan .mov mit MPEG-4-Codec 2
Licht- und
Produktionslabor
.mov mit MPEG-4-Codec 3
Tonlabor .mov mit MPEG-4-Codec 4
Videolabor .mov mit MPEG-4-Codec 5
Virtuelles Studio .mov mit MPEG-4-Codec 6
HAW-Logo .swf (Flash-Film) 7
Intro-Film .mov mit MPEG-4-Codec 8
4.7 NODES
Als Nodes werden, wie bereits mehrmals zuvor erwähnt, die einzelnen Panoramen
bezeichnet. Die eigentliche Bedeutung basiert auf den Knotenpunkten eines Netzes.
Die einzelnen Knotenpunkte sind über die Netzfäden miteinander verbunden,
genauso wie die einzelnen Panoramen über Links verbunden sind. Die nachfolgende
Tabelle gibt Aufschluss darüber, welchem Panorama welche eindeutige NodeID
zugeordnet ist.
Raum NodeID
Campus (Vorderseite) 1
ERC-Labor 2
Foyer 3
Licht- und
Produktionslabor
4
Tonlabor 5
Videolabor 6
Virtuelles Studio 7
Campus (Rückseite) 8
Daniel Schmidt August 2004 Seite 83
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Für jeden Node steht der Eventhandler [Node Entered] zur Verfügung. Dieses Script
wird jeweils ausgeführt, wenn der Node geöffnet wird.
Node Virtuelles Studio:
1 [Node Entered] 2 movieVars mPrevID 3 4 ShowDefaultView 5 TrackNamed("titel").SpriteNamed("titel").SetImageIndexTo(7) 6 TrackNamed("texte").GotoFrameNumber(120) 7 TrackNamed("mapbuttons").SpriteNamed("VRStudio").SetImageIndexTo(3) 8 TrackNamed("mapbuttons").SpriteOfIndex(1).SetImageIndexTo(1) 9 TrackNamed("mapbuttons").SpriteOfIndex(2).SetImageIndexTo(1) 10 TrackNamed("mapbuttons").SpriteOfIndex(3).SetImageIndexTo(1) 11 TrackNamed("mapbuttons").SpriteOfIndex(4).SetImageIndexTo(1) 12 TrackNamed("mapbuttons").SpriteOfIndex(5).SetImageIndexTo(1) 13 TrackNamed("mapbuttons").SpriteOfIndex(6).SetImageIndexTo(1) 14 TrackNamed("mapbuttons").SpriteOfIndex(8).SetImageIndexTo(1) 15 16 If (mPrevID!=7) 17 TrackNamed("movie").LoadChildMovie(7) 18 TrackNamed("white").SetEnabled(True) 19 TrackNamed("Video Control").SetIdleDelay(-1) 20 TrackNamed("Video Control").SetEnabled(False) 21 Endif 22 23 mPrevID=7
Dieses Script gehört zum Node mit der ID 7. Die Scripte zu allen anderen Nodes sind
im Anhang 8.5 zu finden und analog zu interpretieren.
Zeile 2 dieses Scripts deklariert die Movie-Variable mPrevID, die eingesetzt wird, um
festzustellen, welcher Node vor dem aktuellen geöffnet war. Zeile 4 setzt das
Panorama beim Betreten auf die voreingestellte Ansicht (DefaultView). Zeile 5 setzt
Daniel Schmidt August 2004 Seite 84
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
den Sprite „titel“ im Sprite-Track „titel“ auf Bild 7. Dies ist das Bild mit dem Namen
„Virtuelles Studio“. Dadurch wird garantiert, dass jeweils zum aktiven Node der
passende Titel angezeigt wird. Die folgende Tabelle zeigt die Zuordnung des Titels
zum Index.
Titel Index
Campus 1
ERC-Labor 2
Foyer 3
Licht- und
Produktionslabor
4
Tonlabor 5
Videolabor 6
Virtuelles Studio 7
Zeile 6 des Scripts zeigt den Willkommens-Text zum entsprechenden Panorama an.
Die Zuordnung der entsprechenden Frames können der Tabelle im Abschnitt 4.10
Zuordnungstabelle entnommen werden. Zeile 7 setzt den Button des Nodes, der
soeben geöffnet wurde, auf „orange“. Zeilen 8-14 setzen alle anderen Buttons auf
„dunkelblau“. Hier ist ebenfalls zu sehen, dass man einen Sprite sowohl über seinen
Namen, als auch über seinen Index adressieren kann.
Die If-Routine in den Zeilen 16-21 sorgt dafür, dass ein evtl. noch aktives Video beim
Nodewechsel abgebrochen wird. Dies wurde zwar schon mit dem Script der Buttons
der Karte abgefangen, da eine Benutzerin oder ein Benutzer aber auch innerhalb der
Panoramen durch beispielsweise Hotspots auf Türen zwischen den Räumen wechseln
kann, wird dieses Script noch ergänzt. Da das [Node Entered]-Event jedes Mal
ausgeführt wird, wenn das Panorama geöffnet wird (auch beim Öffnen des aktiven
Panoramas, durch Klicken auf den Button des aktiven Panoramas auf der Karte),
würde das Video ohne If-Routine jedes Mal abgebrochen werden. Die If-Routine wird
für den Fall ausgeführt, für den der Wert der Variablen mPrevID (ID des vorherigen
Nodes) dem Wert des aktiven Nodes nicht (!=) entspricht. Für den anderen Fall läuft
das Video einfach weiter.
In Zeile 23 wird die Variable mPrevID noch auf den aktuellen Wert (für das virtuelle
Studio = 7) gesetzt. Anstatt mit absoluten Werten zu arbeiten, kann auch mit der
Variablen „NodeID“ gearbeitet werden, die stets den Wert des aktiven Nodes enthält.
Daniel Schmidt August 2004 Seite 85
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Die If-Routine würde dann mit If (mPrevID!=NodeID)… beginnen und am Ende
würde mit mPrevID=NodeID die Variable für den vorangegangenen Node
aktualisiert werden.
Das Script für CampusB sieht etwas anders aus als die der anderen Spots, da dort
noch der Intro-Film berücksichtigt werden muss.
1 [Node Entered]
2 movieVars mIntro, mPrevID 3 4 ShowDefaultView 5 TrackNamed("titel").SpriteNamed("titel").SetImageIndexTo(1) 6 TrackNamed("texte").GotoFrameNumber(0) 7 TrackNamed("mapbuttons").SpriteNamed("CampusB").SetImageIndexTo(3) 8 TrackNamed("mapbuttons").SpriteOfIndex(2).SetImageIndexTo(1) 9 TrackNamed("mapbuttons").SpriteOfIndex(3).SetImageIndexTo(1) 10 TrackNamed("mapbuttons").SpriteOfIndex(4).SetImageIndexTo(1) 11 TrackNamed("mapbuttons").SpriteOfIndex(5).SetImageIndexTo(1) 12 TrackNamed("mapbuttons").SpriteOfIndex(6).SetImageIndexTo(1) 13 TrackNamed("mapbuttons").SpriteOfIndex(7).SetImageIndexTo(1) 14 TrackNamed("mapbuttons").SpriteOfIndex(8).SetImageIndexTo(1) 15 16 If (mPrevID!=1) 17 TrackNamed("movie").LoadChildMovie(7) 18 TrackNamed("white").SetEnabled(True) 19 TrackNamed("Video Control").SetIdleDelay(-1) 20 TrackNamed("Video Control").SetEnabled(False) 21 Endif 22 23 If (mIntro!=1) 24 TrackNamed("white").SetEnabled(False) 25 TrackNamed("Video Control").SetIdleDelay(10) 26 TrackNamed("Video Control").SetEnabled(True) 27 TrackNamed("movie").LoadChildMovie(8)
Daniel Schmidt August 2004 Seite 86
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
28 ChildMovieTrackNamed("Movie").StartPlaying 29 30 mIntro=1 31 Endif 32 33 mPrevID=1
Hier kommt eine weitere Variable ins Spiel, die Variable mIntro. Mit ihrer Hilfe soll
erreicht werden, dass der Intro-Film beim ersten Betreten des CampusB, also beim
Öffnen des virtuellen Rundgangs, automatisch abgespielt wird, bei jedem weitern
Betreten des CampusB jedoch nicht. Zeilen 4-21 sind analog zu allen anderen Nodes
gestaltet. Die If-Routine ab Zeile 23 wird für den Fall ausgeführt, dass die Variable
mIntro nicht (!=) gleich 1 ist, was sie beim ersten Betreten auch nicht ist. Innerhalb
der If-Routine werden die bereits bekannten Schritte zur Aktivierung der Video-
Wiedergabe ausgeführt. Das weiße Rechteck wird ausgeblendet, um die
Videosteuerleiste zu zeigen, die Hintergrundabfrage und der Track Video Control
selbst werden aktiviert. Schließlich wird noch der Intro-Film geladen und in Zeile 28
gestartet. Am Ende des Scripts wird die Variable mIntro noch auf „1“ gesetzt, damit
beim nächsten Betreten des Raums, die If-Routine nicht mehr durchlaufen wird.
4.8 HOTSPOTS
Hotspots sind Bereiche im Bild, denen Aktionen zugeordnet sind. Sie werden in das
Panoramabild mittels Rechteck, Kreis, Pinsel und Radiergummi-Werkzeug
eingezeichnet. Dieses Bild, mit unterschiedlichen Farbflächen, wird dann
automatisch von Livestage in einem extra Hotspot-Video-Track zu jedem Panorama
abgespeichert. Jeder Hotspot wird mit einer eindeutigen ID gekennzeichnet, um für
die entsprechende ID später das Script schreiben zu können. Jeder ID ist auch eine
Farbe zugeordnet, so dass man anhand der Farbe einer Fläche erkennen kann, welche
Hotspot ID damit verbunden ist. Ein Hotspot muss nicht aus einer
zusammenhängenden Fläche bestehen, sondern kann durchaus aus mehreren
einzelnen Flächen gleicher Farbe bestehen, wobei diesen Flächen immer nur die
gleiche Aktion zugeordnet werden kann, da sie alle dieselbe ID besitzen. Im
Daniel Schmidt August 2004 Seite 87
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Tonstudio wurde z.B. ein Hotspot auf alle Lautsprecher gelegt, wodurch das
Programm für die Anzeige des Informationstextes zu den Lautsprechern nur einmal
geschrieben werden musste, nämlich für den einen Hotspot, der aus fünf einzelnen
Flächen besteht.
Bewegt man im späteren QTVR-Film die Maus in einen solchen Hotspot-Bereich oder
klickt in ihn, werden die programmierten Aktionen ausgeführt, wie z.B. Öffnen des
nächsten Raums durch Klicken auf eine Tür, oder Informationen zu Elementen im
Bild.
Allerdings haben sich beim Erstellen der Hotspots Probleme innerhalb Livestage Pro
ergeben. Man konnte einmalig Hotspots einzeichnen, öffnete man den Hotspots-
Editor erneut, so wurde anstatt des Bildes mit farbigen Hotspot-Flächen nur ein
schwarzes Bild angezeigt. Wählt man im fertigen QTVR-Film „Hotspots anzeigen“
aus, so werden nicht die einzelnen Hotspots angezeigt, sondern ein einziger Hotspot,
der über dem gesamten Panorama liegt und somit keine Differenzierung zulässt.
Dieses Problem wird bedingt durch die Auflösung des Ausgangsmaterials. Es wurde
eine Testreihe durchgeführt mit vier verschiedenen Auflösungen der Ausgangsbilder,
um heraus zu finden, wann dieses Problem auftritt und wann nicht. Folgende
Bildauflösungen wurden für das Stitching der Panoramen verwendet:
640 x 480 Es tritt kein Problem auf
1024 x 768 Es tritt kein Problem auf
1280 x 960 Das beschrieben Problem tritt auf. Der Hotspot-Editor
zeigt ein schwarzes Bild
1600 x 1200 Das beschrieben Problem tritt auf. Der Hotspot-Editor
zeigt ein schwarzes Bild
Dies ist sicherlich ein Bug des Programms Livestage, da es nicht sein darf, dass man
in der Auflösung beschränkt wird. Dennoch sind 1024 x 768 Pixel mehr als
ausreichend für dieses Projekt. Das QTVR Fenster hat Maße von 320 x 240 Pixel, es
ist also immer noch ein Zoom um den Faktor 3,2 (768/240) möglich, bevor die
Qualität abzunehmen beginnt.
Daniel Schmidt August 2004 Seite 88
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
4.9 QSCRIPT FÜR DIE HOTSPOTS
Im virtuellen Rundgang existieren drei verschiedene Arten von Hotspots bzw. sie
lösen drei verschiedene Aktionen aus: Anzeige von Textinformation, Anzeige von
Textinformation und Wechsel des QTVR-Panoramas bei Mausklick und Anzeige von
Textinformation und Starten eines Videos.
Das einfachste Script ist bei den Hotspots zu finden, die die Anzeige einer
Textinformation zu dem entsprechenden Bildinhalt auslösen. Das Script sieht
folgendermaßen aus:
1 [Mouse Enter] 2 TrackNamed("texte").GoToFrameNumber(84) 3 4 [Mouse Exit] 5 TrackNamed("texte").GoToFrameNumber(80)
Wird die Maus in den Hotspot gezogen, so springt der Flash-Film, der alle Texte
enthält und sich im Track „texte” befindet, an ein bestimmtes Frame (Bild), das den
entsprechenden Text enthält. Die Zuordnung der Frames zu den Hotspots ist der
nachfolgenden Tabelle zu entnehmen. Wird die Maus wieder aus dem Hotspot
herausgezogen, so springt der Flash-Film wieder auf das Bild mit dem Willkommens-
Text. Somit muss für jeden Hotspot im [Mouse Enter]-Script ein anderer Frame
angegeben werden, für das [Mouse Exit]-Script immer der Frame des Willkommens-
Textes eines Raums. Dies ist jeweils ein Vielfaches von 20 (0, 20, 40….), da für jeden
Raum 20 Frames reserviert wurden.
Hotspots, die zur Navigation gedacht sind, sollen ebenfalls Textinformation anzeigen,
wenn die Maus sich über ihnen befindet, die Aufschluss darüber gibt, wohin dieser
Hotspot führt. Die Anzeige der Textinformation geschieht mit demselben Script, wie
oben beschrieben. Die Navigation, also das Wechseln des QTVR-Panoramas,
ausgelöst durch einen Mausklick, kann auf zwei unterschiedliche Arten realisiert
werden. Entweder wird in Livestage Pro im VR Editor als Action „Link to Node“ und
die entsprechende NodeID gewählt, oder es wird folgendes Script verwendet:
Daniel Schmidt August 2004 Seite 89
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
1 [Mouse Click] 2 GoToNodeID
Das komplexeste Script ist in den Hotspots zu finden, die es ermöglichen die
Interviews zu starten.
1 [Mouse Click] 2 TrackNamed("Movie").LoadChildMovie(4) 3 ChildMovieTrackNamed("Movie").StartPlaying 4 TrackNamed("Video Control").SetEnabled(True) 5 TrackNamed("white").SetEnabled(False) 6 TrackNamed(“Video Control”).SetIdleDelay(10) 7 8 [Mouse Enter] 9 TrackNamed("texte").GoToFrameNumber(81) 10 11 [Mouse Exit] 12 TrackNamed("texte").GoToFrameNumber(80)
Zeile 2 des [Mouse Click]-Events lädt den vierten Film der Movie-Liste im Movie-
Track „Movie” als aktiven Film. Der Movie-Track, der einen Medien-Container
darstellt, repräsentiert somit den Film Nummer 4.
Zeile 3 startet den aktiven Film im Track „Movie“, hier also Film Nummer 4.
Zeile 4 aktiviert den deaktivierten Sprite-Track mit den Buttons für die Steuerung der
Videos.
Zeile 5 deaktiviert den Track „white“, der ein weißes Rechteck als Bild enthält, das die
Video-Steuerleiste verdeckt.
Zeile 6 startet die [Idle]-Event Abfrage, die überprüft, wann der Film sein Ende
erreicht hat. Das Script dazu ist im Abschnitt 4.4.2 Buttons für die Video-Steuerung
zu finden.
[Mouse Enter] und [Mouse Exit] funktionieren analog wie oben beschrieben.
Daniel Schmidt August 2004 Seite 90
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
4.10 ZUORDNUNGSTABELLE FLASH-FRAMES –
HOTSPOTS/SPRITES
Bei der Zuordnungstabelle ist zu beachten, dass in Flash die Frames mit Frame 1
beginnend durchnummeriert sind. Die Adressierung aus Livestage heraus beginnt
aber mit Frame 0. Somit muss in QScript in Livestage z.B. Frame 83 angesprungen
werden, wenn man eigentlich Frame 84 sehen möchte. Die Zuordnungstabelle
beginnt mit Frame 0, somit können die angegebenen Frame-Nummern direkt in die
Scripts übernommen werden.
Panorama/Track Hotspots/Sprites Flash-
Frame
CampusB Willkommen 0
Intro-Film 1
Unbenutzt 2-19
Computerlabor Willkommen 20
Wiss. Mitarbeiter 21
DDD 22
E+I 23
Grafik 24
IGT 25
Nachrichtentechnik 26
Serverschrank 27
Tafel/Overhead 28
Whiteboard 29
OPN 30
Regelungstechnik 31
DBA 32
Programmieren 33
Unbenutzt 34
Ausgang 35
Unbenutzt 36-39
Foyer Willkommen 40
Dekan 41
Daniel Schmidt August 2004 Seite 91
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Panorama/Track Hotspots/Sprites Flash-
Frame
Schwarzes Brett 42
Unbenutzt 43-54
Ausgang 55
Unbenutzt 56-59
Licht/Produktionslabor Willkommen 60
Tutor 61
Bühne 62
Gobos 63
Lichtsteuerpulte 64
Moving-Lights 65
Optische Bank 66
Scheinwerfertypen 67
Bildregie 68
Bildtechnik 69
Monitorwand 70
Studiokameras 71
Studiotakt 72
Unbenutzt 73-74
Ausgang 75
Unbenutzt 76-79
Tonlabor Willkommen 80
Tutor 81
Effektgeräte 82
Geräteschrank 83
Audio-Workstation 84
Keyboard 85
Mischpult 86
Monitor 87
Plattenspieler 88
Surroundanlage 89
Tonstudio 90
Zuspieler /Aufzeichnung 91
Daniel Schmidt August 2004 Seite 92
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Panorama/Track Hotspots/Sprites Flash-
Frame
Unbenutzt 92-94
Ausgang 95
Unbenutzt 96-99
Videolabor Willkommen 100
Tutor 101
Archiv 102
Authoring 103
Compositing 104
Kameras 105
Kontrollinstrumente 106
Maschinenraum 107
Zuspieler / Aufzeichnung 108
Schnitt 109
Testtafel Flanschbrennweite 110
Speichenrad 111
Unbenutzt 112-114
Ausgang 115
Unbenutzt 116-119
Virtuelles Studio Willkommen 120
Moderatorin 121
BlueBox 122
Computerraum 123
Studio-Kamera 124
Lichtregie 125
Opera-Folie 126
ORAD-System 127
Scheinwerfer 128
Vorhänge 129
Unbenutzt 130-134
Ausgang 135
Unbenutzt 136-139
CampusA Willkommen 140
Daniel Schmidt August 2004 Seite 93
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Panorama/Track Hotspots/Sprites Flash-
Frame
Wegweiser links 141
Wegweiser rechts 142
Unbenutzt 143-159
Map Campus (Rückseite) 160
Campus (Vorderseite) 161
ERC-Labor 162
Foyer 163
Licht- und Produktionslabor 164
Tonlabor 165
Videolabor 166
Virtuelles Studio 167
Unbenutzt 168-179
Plus-Räume Caféteria 180
Elektrotechniklabor 181
Fotolabor 182
Fachschaftsrat 183
Innenhof5 184
Internet-Café 185
ERC-Labor 2 186
Studienzentrum 187
Vorlesungsraum 1 188
Vorlesungsraum 2 189
Vorlesungsraum 3 190
Unbenutzt 191-199
Panorama-Steuerung Hotspots 200
Schwenk Links 201
Zoom Out 202
Zoom In 203
Schwenk Rechts 204
Reset 205
Video-Steuerung Schneller Rücklauf 206
Stop 207
Daniel Schmidt August 2004 Seite 94
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Panorama/Track Hotspots/Sprites Flash-
Frame
Play 208
Pause 209
Schneller Vorlauf 210
Window-Button Abschlusstext 211
Unbenutzt 212
Daniel Schmidt August 2004 Seite 95
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
4.11 HOMEPAGE
Auf der bestehenden Homepage des Fachbereichs Medientechnik wird vom Internet-
Team des Fachbereichs eine Seite für den virtuellen Rundgang eingebaut. Nach
Absprache mit dem Team benötigen sie nur die so genannten Thumbnails für die
Seite. Thumbnails bezeichnen verkleinerte Bilder, die als Links in einer Homepage
platziert werden können. Die Startseite der Homepage soll folgenden Text
beinhalten:
Willkommen auf der Startseite des virtuellen Rundgangs durch den Fachbereich. Der virtuelle Rundgang bietet Ihnen die Möglichkeit sich am
SmrdkbLMSbT
V
D
Fachbereich umzusehen und über den Studiengang Medientechnik zu informieren. Über eine Karte können Sie zwischen interessanten Räumen navigieren. Für jeden dieser Räume steht ein 360° QuickTime VR Panorama im linken Bildfenster bereit. Zusätzlich können sie in jedem Panorama mit dem Mauszeiger auf Entdeckungsreise gehen, denn vielen Objekten im Bild ist eine aufschlussreiche Textinformation zugeordnet. In den meisten Räumen können Sie ein Interview mit
tudierenden, Tutoren, wissenschaftlichen Mitarbeitern oder dem Dekan erleben. Sie üssen nur auf die entsprechende Person im Panorama klicken und das Interview wird im
echten Bildfenster gestartet. Es stehen Ihnen zwei Versionen unterschiedlicher Qualität es virtuellen Rundgangs zur Verfügung, die sie über nachfolgende Links erreichen önnen. Die High-Quality Version bietet optimale Bildqualität bei längerer Ladezeit und ist esonders für DSL Verbindungen geeignet. Die Low-Quality Version ist mit kürzeren adezeiten, dafür etwas verminderter Bildqualität, für Verbindungen über analoge odems gedacht.
ie können die Panoramen und Interviews auch getrennt vom virtuellen Rundgang etrachten, in dem Sie auf die entsprechenden Links klicken. Allerdings ist die extinformation zu den Räumen nur innerhalb des virtuellen Rundgangs verfügbar.
Virtueller Rundgang (High-Quality)
Virtueller Rundgang (Low-Quality)
Panoramen
Interviews
iel Spaß beim virtuellen Rundgang durch den Fachbereich!
aniel Schmidt August 2004 Seite 96
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Der Screenshot des Rundgangs wird durch Klicken auf dessen Thumbnail vergrößert.
Klickt man auf einen der Links, so wird jeweils eine neue Seite (siehe Abbildung 23)
geöffnet, die wie folgt aussieht:
Natür
Navig
Intern
Durch
Benu
Daniel
Abbildung 23 - Layout für eine Internet-Seite des Virtuellen Rundgangs
lich werden am linken und oberen Rand die standardmäßigen
ationselemente der Homepage zu sehen sein, diese werden nach Auskunft des
et-Teams alle dynamisch geladen und sind deshalb hier nicht zu sehen.
Klicken auf einen entsprechenden Thumbnail kann die Benutzerin oder der
tzer die Vollversion, bzw. die Einzelversionen der Räume herunterladen. Auf der
Schmidt August 2004 Seite 97
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Menüseite für die Panoramen ist, statt dem obersten Bild für die Vollversion, das Bild
für den zweiten Campus sichtbar. Auf der Menüseite für die Interviews werden
Screenshots der Interviews als Thumbnails eingesetzt. Über das QuickTime-Logo
wird auf die Downloadseite von QuickTime verlinkt. Das Logo kann erst nach
abgeschlossener Lizenzvereinbarung mit Apple eingefügt werden. Für die
Lizenzvereinbarung mit Apple ist die HAW Hamburg verantwortlich (Homepage-
Inhaber und Copyright-Träger des Projekts Virtueller Rundgang) und ist nicht Teil
dieser Diplomarbeit.
Fährt man über einen der Thumbnails, wird ein Informationstext eingeblendet, der
die Funktion des Thumbnails erklärt. Alle Thumbnails liegen der Diplomarbeit auf
DVD bei.
4.12 STARTMENÜ
Für die CD-Version des virtuellen Rundgangs steht der Rahmen, den die Homepage
bietet, nicht zur Verfügung. Deshalb wurde ein Startmenü erstellt, das die
Anwenderin und den Anwender führt. Ist der Autostart auf dem Zielsystem nicht
deaktiviert, so startet das Startmenü von selbst, wenn die CD eingelegt wird.
Für die Erstellung eines Startmenüs gibt es diverse Programme. Manche sind
komplexer als andere, bieten dafür aber mehr Möglichkeiten. Dennoch funktionieren
alle nach demselben Prinzip. Als Organisationsstruktur dienen hierbei nicht Tracks
und Frames wie in einem QuickTime-Projekt, sondern Pages, also Seiten, auf die
einzelne Grafik- und Textelemente platziert werden können. Den Elementen können
Scripts für bestimmte Ereignisse wie [On Mouse Click] zugeordnet werden.
Auf der ersten Seite erhält die Benutzerin oder der Benutzer die Möglichkeit den
virtuellen Rundgang zu starten, sowie die Menüs für die Panoramen und die
Interviews aufzurufen. Sollte die Anwenderin oder der Anwender QuickTime 6 nicht
auf seinem System installiert haben, so kann er dies hier auch nachholen. Die
Lizenzvereinbarung mit Apple über die Distribution des Installationprogramms für
den QuickTime Player obliegt der HAW Hamburg (Copyright-Träger des Projekts)
und ist nicht Teil dieser Diplomarbeit.
Ein sehr wichtiges Detail ist es, die Internet-Adresse des Fachbereichs auf jeder Seite
des Startmenüs zu platzieren. Sollten der virtuelle Rundgang auf Messen oder
ähnlichen Events auf CD verteilt werden, so dient die CD als eine Visitenkarte und
Daniel Schmidt August 2004 Seite 98
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
leitet die Benutzerin oder den Benutzer direkt auf die Homepage des Fachbereichs.
Dies hat auch Vorteile für die Anwenderin und den Anwender, denn wurde sein
Interesse am Fachbereich durch den virtuellen Rundgang geweckt, so kann er auf
der Homepage noch mehr Information erhalten.
Das Menü für die Panoramen ermöglicht es Anwenderinnen und Anwender die
Panoramen unabhängig vom virtuellen Rundgang zu betrachten, natürlich steht
dann die Textinformation, die über die Hotspots angeboten wird, nicht zur
Verfügung. Sollte die Benutzerin oder der Benutzer nicht über ein System mit
mindestens einer Monitorauflösung von 1024 x 768 Pixel verfügen (Der virtuelle
Rundgang ist für Auflösungen ab 1024 x 768 Pixel optimiert.), so kann er trotzdem
die Panoramen und die Interviews einzeln betrachten.
Daniel Schmidt
Abbildung 25 - Panoramen-Menü des Startmenüs
Abbildung 24 - Startseite des Startmenüs
August 2004 Seite 99
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Ebenso steht ein Menü zur Verfügung, über das die Interviews einzeln wiedergegeben werden können.
Das Startme
Wird darau
Information
Herrn Prof
automatisch
Daniel Schmid
Abbildung 26 - Interviews-Menü des Startmenüs
nü kann auf jeder Seite über die Ende-Schaltfläche verlassen werden.
f geklickt, so wird für fünf Sekunden die Seite mit der Copyright-
, sowie Information zum Autor und zum Betreuer der Diplomarbeit,
. Dr. Robert Fitz, angezeigt. Danach schließt sich das Startmenü
.
t
Abbildung 27 - Copyright-Seite des Startmenüs
August 2004 Seite 100
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
5 WEITERE MÖGLICHKEITEN UND IDEEN FÜR DIE ZUKUNFT
Im Rahmen der Diplomarbeit hat sich QuickTime als eine erstaunlich leistungsfähige
und interessante Plattform herausgestellt, deren Möglichkeiten sehr weit reichend
sind. Ich möchte zum Abschluss dieser Diplomarbeit einige Anregungen für
zukünftige Projekte, Produktion und Einsatzgebiete von QuickTime im Fachbereich
Medientechnik geben.
Der erste Vorschlag zielt auf die Präsentation von Projekten des Fachbereichs im
Internet ab. Wie hier am Beispiel des virtuellen Rundgangs gezeigt wurde, ist es
möglich, eigene Player-Oberflächen und –Formen zu kreieren, um ein Medium
darzustellen. Dies können zum Beispiel Player sein, die von ihrer Optik perfekt zum
zu präsentierenden Projekt passen. Ich möchte das Ganze am Beispiel des Music-
Clips „Drowning“ von SAY, ein Projekt, das hier am Fachbereich mit mir als
Kameramann entstanden ist, deutlicher machen. Hier würde es sich anbieten, den
Film nicht einfach als DivX-Film auf der Homepage zur Verfügung zu stellen,
sondern man könnte ein Authoring-Team zusammenstellen, das zum einen eine
ansprechende grafische Player-Oberfläche erstellt, zum anderen Fotos von den
Bandmitgliedern schießt. Diese Fotos könnten so gemacht werden, dass jeweils zwei
der Bandmitglieder einzeln an einer Wand lehnen, die zwei weiteren Rücken an
Rücken auf dem Boden sitzen. Jetzt könnten die Bilder so in den Player eingebaut
werden, dass jeweils ein Bandmitglied links am Playerfenster lehnt, sowie einer
rechts davon. Die zwei Weiteren könnten Rücken an Rücken auf dem Fenster sitzen,
in dem der Film zu sehen ist. Stellt man die Fotos sogar noch im virtuellen Studio in
der BlueBox her, so kann man die einzelnen Bandmitglieder ausstanzen und mit
transparentem Hintergrund in das Projekt einbauen, dadurch würde das
Playerfenster genau ihre individuelle Form bekommen. Zudem könnte
Textinformation zum Projekt eingebaut werden.
Eine weitere Möglichkeit wäre es, innerhalb eines Projektes in der Vorlesung
„Grafik“, einen eigenen Player der Hochschule zu kreieren, indem jedes Projekt
abgespielt wird, dadurch würde die Corporate Identity des Fachbereichs stärker
transportiert.
Noch stehen die Projekte nur als Download auf der Homepage zur Verfügung, aber
mit QuickTime bestünde die Möglichkeit, die Projekte als Streaming anzubieten. Dies
Daniel Schmidt August 2004 Seite 101
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
wäre auch ein sehr interessantes Projekt im Bereich „Computergenerierte Medien“,
sowie „Ton- und Videotechnik“.
Der Fachbereich Medientechnik ist ganz klar abgegrenzt vom Bereich der
Filmproduktion und somit von den Filmhochschulen. Die Spezialisierung auf
elektronische Medien könnte weiter ausgebaut werden, indem nicht normale Filme,
sondern interaktive Filme erstellt werden. Dies sind natürlich keine Filme für das
Kino, aber für den DVD-Player, bzw. mit QuickTime für den Computer zu Hause.
Jeder hat dann die Möglichkeit, die Handlung des Films selbst zu bestimmen. Am
Ende einer Szene gehen beispielsweise zwei Personen auseinander. Der Film wird
pausiert und ein Text wird eingeblendet: „Welcher Person möchten Sie folgen?
Klicken Sie sie an!“. Durch einen Mausklick auf die entsprechende Person kann man
ihr dann folgen. Oder noch interessanter wären Forschungsprojekte in denen man
z.B. in Kooperation mit einem Psychologie-Fachbereich den Zusammenhang
zwischen den Antworten auf bestimmte Fragen und dem Filmgeschmack eines
Zuschauers erforscht. Die Medientechnik könnte dann eine Plattform entwickeln, in
welcher Benutzer zu Beginn eines Films einige Fragen durch Anklicken von
vorgegebenen Antworten beantworten, je nach Kombination der Antworten wird der
Film nun individuell aus einem Kontingent verschiedener Szenen zusammengestellt.
Der personalisierte Film sozusagen. Die Fragen müssen nicht in Textform gestellt
werden, sie können bereits filmerisch in einem Intro integriert sein. Schauspieler
oder Erzähler können die Fragen stellen und auch die Antworten müssen nicht durch
das Anklicken von vorgegebenen Wörtern gegeben werde, sondern können auch
durch Anklicken von Bildelementen realisiert werden.
Neben diesen Ideen ist natürlich noch vieles mehr vorstellbar und würde den
Rahmen dieser Diplomarbeit sprengen.
Daniel Schmidt August 2004 Seite 102
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
6 SCHLUSSBEMERKUNG
Der Schwerpunkt dieser Diplomarbeit liegt auf der praktischen Erstellung eines
virtuellen Rundgangs des Fachbereichs Medientechnik, an dessen Ende ein fertiges
Produkt vorliegt. Der theoretische Teil dieser Diplomarbeit stellt eine
Zusammenfassung des Produktionsprozesses dar und gibt einen Einblick in die
Technologie QuickTime, die dahinter steckt. Zudem dient sie Studierenden als ein
Handbuch um den virtuellen Rundgang zu aktualisieren, zu erweitern oder ein neues
Projekt, wie beispielsweise unter Abschnitt 5 Weitere Möglichkeiten und Ideen für
die Zukunft erwähnt, zu erstellen .
Der Produktionsprozess stellte neben der technischen Durchführung auch einen
erheblichen organisatorischen Aufwand dar, da jeweils die Verfügbarkeiten von
Räumen, Equipment, Tutoren, Assistenten und Interview-Partnern abgestimmt
werden mussten. Für den Intro-Film und die Außenpanoramen spielte das Wetter
noch eine entscheidende Rolle. Zudem musste das Projekt, das aus unzähligen
Medienelementen und Dateien besteht, organisiert werden.
Das Hauptaugenmerk der Diplomarbeit lag auf dem Produktionsprozess und auf der
Erstellung eines funktionierenden Rundgangs. Die einzelnen Technologien wurden
für die Bedürfnisse des Rundgangs getestet, konnten aber natürlich nicht bis ins
letzte Detail untersucht werden. Dies ist nicht parallel möglich und könnte eine
Diplomarbeit für sich darstellen, an deren Ende kein fertiges Produkt steht, dafür
viele kleine Test-Projekte, an denen die Möglichkeiten der Technologien vertieft
untersucht werden.
Diese Form einer Diplomarbeit empfinde ich als sehr passend für Studierende einer
Hochschule für angewandte Wissenschaft, da viele Themen aus dem Studium
wiederholt und vertieft werden können, wie beispielsweise, die Bereiche Video, Ton
und Licht für die Produktion der Interviews. Des Weiteren können neue
Themenbereiche erschlossen werden und am Ende ist ein fertiges Produkt
entstanden, das präsentiert werden kann.
Allen Tutoren, wissenschaftlichen Mitarbeitern, Professoren und dem Dekan, die am
virtuellen Rundgang beteiligt waren, möchte ich hiermit noch einmal meinen Dank
aussprechen, für ihre bereitwillige Teilnahme an der Erstellung der Interviews und
Panoramen, sowie das Gegenlesen der Texte für die jeweiligen Räume.
Daniel Schmidt August 2004 Seite 103
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
7 LITERATURVERZEICHNIS
[1] Kastenholz, F. und QuickTime 6 – QuickTime Player, QuickTime Pro.
Vogt, M.: und QuickTime VR.
Galileo Design.
2002.
[2] Filodda, P., QuickTime VR- Virtuelle Welten in 3D.
Henrichs, R. Smart Books.
und Wacker, H.: 2003.
[3] Jacobs, C.: Digitale Panoramen.
Springer.
2003.
[4] Schmidt, Dr. U. Professionelle Videotechnik.
Springer.
2002.
[5] Eggers, D. Filmfinanzierung.
Erich Schmidt Verlag.
2002.
[6] Totally Hip Products: Livestage Pro 4 Handbuch (PDF)
[7] Apple: Inside Macintosh:
QuickTime Reference (PDF).
http://developers.apple.com/documentation/QuickTime/
Stand 15.07.1004.
[8] Apple: Inside QuickTime:
Interactive Movies (PDF).
http://developers.apple.com/documentation/QuickTime/
Stand 15.07.2004.
[9] Apple: Inside QuickTime:
QuickTime VR (PDF).
http://developers.apple.com/documentation/QuickTime/
Stand 15.07.2004.
Daniel Schmidt August 2004 Seite 104
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
[10] Apple: Inside QuickTime:
QuickTime File Format (PDF).
http://developers.apple.com/documentation/QuickTime/
Stand 15.07.2004.
[11] Apple: Gründe für QuickTime.
http://www.apple.com/de/quicktime/whyqt/
Stand 10.07.2004.
[12] Heise: Apple setzt auf H.264-Videocodec.
http://www.heise.de/newsticker/meldung/48527
(vza/c’t) Stand 10.08.2004.
[13] Sohns, E.: Seminar Image Based Rendering.
Kapitel 4 – QuickTime VR.
Universität Karlsruhe – Fakultät für Informatik.
http://www.ubka.uni-karlsruhe.de/cgi-
bin/psview?document=ira/2000/24
Stand 11.08.2004.
[14] Franz, K., New Media Project QT-VR (PDF).
Luley, P. M. und FH Joanneum – Fachbereich Neue Medien.
Unterkofler, P.: http://neue-medien.fh-
joanneum.at/proj/nm/nm5/qtvrdoku.pdf
Stand 11.08.2004.
Daniel Schmidt August 2004 Seite 105
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8 ANHANG
8.1 DIE HOTSPOTS ALLER RÄUME UND DIE TEXTE DAZU
8.1.1 CAMPUS (VORDER- UND RÜCKSEITE)
Willkommen am Fachbereich Medientechnik
Sie befinden sich hier auf dem Campus Berliner Tor der HAW Hamburg am
Fachbereich Medientechnik. Der virtuelle Rundgang bietet Ihnen die Möglichkeit,
sich am Fachbereich umzusehen. Auf der Karte rechts können Sie durch Klicken auf
die runden Buttons den entsprechenden Raum öffnen. Im linken Fenster können Sie
sich im Panorama umsehen, indem Sie die Maus bei gedrückter Maustaste ziehen.
Informationen zu interessanten Bereichen werden angezeigt, indem Sie über sie
fahren. In den meisten Räumen können Sie durch Klicken auf die entsprechende
Person ein Interview mit dieser Person sehen, das im rechten Fenster angezeigt wird.
Viel Spaß beim virtuellen Rundgang durch den Fachbereich!
Hier geht es zum Tonlabor, Virtuellen Studio und zum Elektronik-,
Regelungstechnik- und Computertechniklabor. (Einzelraumversion für
das Internet)
Wenn Sie sich in einem dieser Räume virtuell umsehen möchten, dann laden Sie sich
den entsprechenden QuickTime-Film zu dem jeweiligen Raum von der Startseite des
virtuellen Rundgangs, durch Klicken auf das entsprechende Panorama. In jedem
Raum erwartet Sie auch ein Interview mit Tutoren oder wissenschaftlichen
Mitarbeitern. Oder laden Sie sich gleich die Vollversion auf ihren Computer, dann
haben Sie die Möglichkeit alle Räume durch einen Mausklick auf den entsprechenden
Button der Karte direkt zu öffnen.
Daniel Schmidt August 2004 Seite 106
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Hier geht es zum Videolabor, Foyer und zum Licht- und
Produktionslabor (Einzelraumversion für das Internet)
Wenn Sie sich in einem dieser Räume virtuell umsehen möchten, dann laden Sie sich
den entsprechenden QuickTime-Film zu dem jeweiligen Raum von der Startseite des
virtuellen Rundgangs, durch Klicken auf das entsprechende Panorama. In jedem
Raum erwartet Sie auch ein Interview mit Tutoren oder dem Dekan. Oder laden Sie
sich gleich die Vollversion auf ihren Computer, dann haben Sie die Möglichkeit alle
Räume durch einen Mausklick auf den entsprechenden Button der Karte direkt zu
öffnen.
Intro-Film
Klicken Sie auf das Zahnrad, um den Intro-Film erneut im rechten Fenster zu sehen.
Sie können den Intro-Film mit Pause anhalten, mit Play fortsetzen, sowie mit Stop
abrechen. Mit den Doppelpfeilen starten Sie den schnellen Vor- und Rücklauf.
Während des Intro-Films können Sie sich problemlos weiterhin im linken Fenster
umsehen.
8.1.2 ELEKTRONIK-, REGELUNGSTECHNIK- UND COMPUTERLABOR
Willkommen im Elektronik-, Regelungstechnik- und Computerlabor
Dieser Raum wird für vorlesungsbegleitende Übungen, sowie für die Vorlesungen des
Studienschwerpunktes „Computergenerierte Medien“ verwendet. Insgesamt stehen
den Studierenden in vier Rechnerräumen über 50 Computer zur Verfügung. Als
Betriebssysteme finden sowohl Linux, als auch Windows Einsatz, Apple-Systeme
sind in den AV-Laboren vorhanden.
Ziehen Sie die Maus über das Bild, um sich Informationen anzeigen zu lassen. Den
Computern im Bild ist jeweils eine Information zu Vorlesungen, die hier stattfinden,
zugeordnet. Klicken Sie auf den wissenschaftlichen Mitarbeiter, um das Interview mit
ihm zu starten!
Daniel Schmidt August 2004 Seite 107
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Digitale Bildbearbeitung und Animation
Im Fach „DBA“ nähern wir uns im ersten Teil dem Bild an und versuchen uns in
kleinen Aufgaben an der Praxis der digitalen Montage. Im zweiten Teil werden die
grundsätzlichen Vorgehensweisen bei der Erstellung von Animationen
veranschaulicht und in kleinen Anwendungen erprobt. Hierbei wird darauf geachtet,
dass im Fach „Grafik“ erlerntes Wissen zur Anwendung kommt und der
mediengerechte Umgang mit Form und Fläche, Schrift und Bild unter Hinzunahme
der Bewegung geübt wird. Als Abschluss entstehen abgegrenzte animierte Projekte, in
denen das Gelernte mit Programmen, wie beispielsweise Maya, zusammenfassend
umgesetzt wird.
Dramaturgie, Didaktik, Designtheorie
Wir stellen uns die Frage, warum Menschen sich etwas erzählen – und vor allem wie.
Anhand unterschiedlicher Erzählmedien wie Theater, Rhetorik, Werbung oder Film
und deren Darstellungsweisen lernen wir Dramaturgie als Weltgestaltung oder
Weltentwurf zu begreifen und im zweiten Schritt anzuwenden. Letzteres um unsere
eigenen Erzählwelten zu entwerfen. Seien es Filme, Spiele, Theater oder einfach nur
Geschichten.
Elektronik und Informatik
In der Vorlesung „Elektronik und Informatik“ wird primär Grundlagenwissen
vermittelt. Es ist dabei sowohl von Boolescher Algebra, D/A- und A/D-Umsetzung,
wirkungsgradoptimierten Schaltnetzteilen, sowie Kellerautomaten, Petri-Netzen oder
Softwareengineering und geschwindigkeitsoptimierten Rechnerarchitekturen, als
auch vom Aufbau und der Wirkungsweise von Betriebssystemen die Rede.
Studierende führen dabei zum besseren Verständnis vorlesungsbegleitende Übungen,
wie beispielsweise Fehlersichere Übertragung und Speicherung von Daten mittels
Hamming-Code, Steuerung eines Bühnenaufbaus und Kamerawagensteuerung
mittels SPS selbständig durch.
Daniel Schmidt August 2004 Seite 108
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Grafik
Im Fach „Grafik“ lernen wir bewusster Sehen. Gestaltung ist ein ganzheitlicher
Prozess, ein permanentes Werden. In ihm treffen sich formale, kulturell bedingte
Regeln wie die Dinge wahrgenommen werden und der Geschmack im
kommunikativen Raum. Das Erkennen der ästhetischen und formalen Bedingungen,
deren Vermittlungsstrukturen durch Kommunikation werden theoretisch vermittelt,
dazugehörige (semiotische) Begriffe definiert. In praktischen Seh- und
Tätigkeitsübungen nähern wir uns im zweiten Semester den grundlegenden
gestalterischen Elementen Form, Fläche, Bild, Schrift, Farbe etc. an.
Illustration, Grafik, Typografie
Wir betrachten die Entwicklung von Gestaltung, Schrift, Architektur und
Visualisierung unserer Kultur aus geschichtlicher Perspektive. Formalmechanisches
Denken und Kategorisieren wird mit genauem aber immer neuem und anderem
Sehen konfrontiert. Dies wird von praktischen Übungen, wie analytischem Zeichnen
oder Exkursionen, begleitet, um das Gelernte begreifbar zu machen. Im zweiten Teil
wird ein Thema frei von den Studierenden bearbeitet und visualisiert.
Interaktives Whiteboard
Auf dem Whiteboard ist das Bildschirmbild des Vortragenden zu sehen. So können
die Studierenden problemlos alle Vorgänge mitverfolgen. Zudem ist es drucksensitiv,
d.h. der Vortragende kann am Board stehen und mit einem Stift oder per Hand den
Mauszeiger steuern. Mit digitalen Farbstiften können wichtige Bereiche markiert und
mit einem digitalen Schwamm wieder weggewischt werden. Natürlich können außer
einem Computer auch andere Medien, wie z.B. DVD-Player, an den Beamer, der das
Bild auf das Board projiziert, angeschlossen werden.
Nachrichtentechnik
Für die Vorlesung „Nachrichtentechnik“, die sich z.B. mit Codierung,
Signalbearbeitung und -übertragung beschäftigt, können mit dem Programm
Daniel Schmidt August 2004 Seite 109
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
MATLAB Schaltungen simuliert werden. Dabei kann z.B. ein beliebiges, simuliertes
Signal an den Eingang einer Schaltung gelegt werden, z.B. ein Sinus. Das Programm
berechnet das Signal, das am Signalausgang abgebildet wird. So kann getestet
werden, ob eine Schaltung die gewünschten Ergebnisse liefert, bevor sie real gebaut
wird. Eine praktische Anwendung kann z.B. ein Effektgerät oder ein digitaler Filter
sein, mit dem man aus einem Tonsignal Störungen herausfiltern kann. Die
Ergebnisse sind direkt hörbar.
Online-, Offline-Produktion, Netze
In der Vorlesung „OPN“ bildet das Thema „Netzwerktechniken“ einen wesentlichen
Schwerpunkt. Kenntnisse in diesem Bereich werden nicht nur in traditionellen
Informatikberufen gefordert, sondern zunehmend auch in Berufsfeldern, die sich mit
der Verarbeitung von Daten beschäftigen, so auch der Bereich der Medientechnik,
der sich mit der Bearbeitung und Verbreitung von digitalen Video- oder Audiodaten
befasst. Neben der Vermittlung eines umfassenden Wissens bzgl. Internet-Techniken,
liegt ein wesentlicher Schwerpunkt im Bereich Netzwerk- und Computersicherheit,
sowie Kryptographie. Zudem wird das Thema „Relationale Datenbanken“ behandelt.
Die Vorlesung wird durch praktische Übungen ergänzt.
Programmieren
In der Vorlesung „Programmieren“ beschäftigen sich die Studierenden, bereits im
Grundstudium, mit den so genannten höheren Programmiersprachen, wie
beispielsweise Delphi, C und Java. In vielen Übungen wird trainiert, für vorgegebene
Probleme ein entsprechendes Programm zu entwickeln. Dabei wird auf Aspekte, wie
Effizienz, Anwenderfreundlichkeit, Betriebssicherheit und Wartbarkeit eingegangen.
Regelungstechnik
Regelungen sind fast überall in der Technik anzutreffen. So muss beispielsweise die
Drehzahl eines DVD-Laufwerkes oder die Geschwindigkeit, mit der ein Balken an
zwei Seilen von einer Bühne nach oben gezogen wird, geregelt sein. Die automatische
Entfernungseinstellung einer Kamera kann geregelt werden und inzwischen werden
Daniel Schmidt August 2004 Seite 110
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
zur Verbesserung des Sounds auch geregelte Basslautsprecher eingesetzt. Für das
Verständnis der Regelungstechnik ist eine Menge Theorie erforderlich, die in der
Vorlesung vermittelt wird. Laborversuche, bei denen zu regelnde Systeme zunächst
untersucht und anschließend eine passende Regelung ausgewählt wird, runden die
Lehrveranstaltung ab.
Serverschrank
Hier befinden sich drei Server. Ein Server für unser Internet-Café, ein Webserver für
unsere Homepage und ein Server für die Rechnerräume. Alle Linux-Rechner
verfügen über keine eigenen lokalen Festplatten, sondern greifen über das Netzwerk
auf die zentralen Festplatten hier im Serverschrank zu. Dadurch ergibt sich der
Vorteil, dass nur der Server gewartet werden muss und nicht jeder Computer einzeln.
Dieses Netzwerk wurde ebenfalls von Studierenden des Fachbereichs im Rahmen
eines Projektes errichtet.
Tafel und Overhead-Projektor
Natürlich kommen auch traditionelle Unterrichtsmethoden zum Einsatz. Nicht alles
lässt sich am Computer vermitteln und nicht immer ist der Computer das effektivste
Medium. So findet man natürlich in allen Vorlesungsräumen die klassische Tafel und
den Overhead-Projektor vor. Nebenbei erwähnt, ist ein sehr wichtiger Aspekt, der im
Rahmen des Studiums vermittelt wird, sinnvoll mit den Medien umzugehen. Nicht
immer ist es die neuste, schnellste, teuerste Technik, die am besten geeignet ist. Es
sollte stets die Idee, die vermittelt wird, die Technik bestimmen und niemals
umgekehrt.
Wissenschaftlicher Mitarbeiter
Klicken Sie auf den wissenschaftlichen Mitarbeiter, um im rechten Fenster ein
Interview mit ihm zu starten. Sie können das Interview mit Pause anhalten, mit
Play fortsetzen, sowie mit Stop abrechen. Mit den Doppelpfeilen starten Sie den
schnellen Vor- und Rücklauf. Während des Interviews können Sie sich problemlos
weiterhin im linken Fenster umsehen.
Daniel Schmidt August 2004 Seite 111
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.1.3 FOYER
Willkommen im Foyer
Das Foyer ist der zentrale Raum für das Studium. Hier findet man das Sekretariat,
den Fachschaftsrat, die Caféteria und das Schwarze Brett, das wichtige Informationen
für das Studium bereithält.
Um sich im Raum umzusehen, die Maus bei gedrückter Taste durch das Bild ziehen.
Der Dekan stellt Ihnen den Studiengang Medientechnik vor. Klicken Sie auf den
Dekan, um das Interview mit ihm zu starten!
Dekan
Klicken Sie auf unseren Dekan, Herrn Prof. Dr. Thomas Veeser, um im rechten
Fenster ein Interview mit ihm zu starten. Er stellt Ihnen den Studiengang vor. Sie
können das Interview mit Pause anhalten, mit Play fortsetzen, sowie mit Stop
abrechen. Mit den Doppelpfeilen starten Sie den schnellen Vor- und Rücklauf.
Während des Interviews können Sie sich problemlos weiterhin im linken Fenster
umsehen.
Schwarzes Brett
Das Schwarze Brett informiert über wichtige Termine und Terminänderungen.
Zusätzlich hängen Professoren und Professorinnen Themen für Projektarbeiten aus,
die von den Studierenden bearbeitet werden können. Insgesamt muss jeder
Studierende an drei Projekten während seines Studiums teilnehmen.
Außerdem kann man sich am Schwarzen Brett über Klausurergebnisse informieren.
8.1.4 LICHT- UND PRODUKTIONSLABOR
Willkommen im Licht- und Produktionslabor
Hier haben die Studierenden die Möglichkeit, sich intensiv mit Bühnen- und
Effektausleuchtung, Lichtdesign, Lichtmesstechnik und Live-Produktionssituationen
Daniel Schmidt August 2004 Seite 112
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
zu beschäftigen. Die Studioanlage bietet optimale Voraussetzungen für die
Vorbereitung auf das Studio Hamburg Projekt. Dort steht den Studierenden eine
Woche lang ein Fernsehstudio zur Verfügung.
Um sich im Raum umzusehen, ziehen Sie die Maus bei gedrückter Taste durch das
Bild. Klicken Sie auf den Tutor um ein Interview mit ihm zu starten!
Bühne
Hier werden den Studierenden in einer praktischen Übung die Grundlagen der
klassischen Bühnenausleuchtung vermittelt. Die Bühne kann natürlich für
verschiedene Projekte eingesetzt werden und die Studierenden können ihre
Erfahrungen in der Bühnenausleuchtung, auch in Verbindung mit unterschiedlichen
Oberflächen (Materialien) und dem entstehenden Raumeindruck, vertiefen.
Gobos
Dies ist eine Projektion des Varilite VL 1000 as. Die Struktur in der Lichtprojektion
wird durch ein Gobo im Scheinwerfer erzeugt. Gobos sind Formscheiben, die die
Form des Lichtkegels verändern, somit lassen sich Formen oder Strukturen mit Licht
erzeugen. Es gibt Gobos sowohl aus Metall, als auch Glasgobos. Bei Metallgobos
wird die Struktur aus einer Metallplatte ausgestanzt oder ausgelasert, bei Glasgobos
das Glas mit dichroitischen Farbschichten bedampft. Die Gobos werden dann in den
Strahlengang des Scheinwerfers gebracht und mit der optischen Einheit fokussiert,
um sie scharf abzubilden. Gobos sind allerdings nur eine von vielen Möglichkeiten
der Lichtgestaltung mittels Moving-Lights.
Lichtlabor-Tutor
Klicken Sie auf den Lichtlabor-Tutor, um im rechten Fenster ein Interview mit ihm zu
starten. Sie können das Interview mit Pause anhalten, mit Play fortsetzen, sowie
mit Stop abrechen. Mit den Doppelpfeilen starten Sie den schnellen Vor- und
Rücklauf. Während des Interviews können Sie sich problemlos weiterhin im linken
Fenster umsehen.
Daniel Schmidt August 2004 Seite 113
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Lichtsteuerpulte
Lichtsteuerpulte dienen dazu, Dimmerkreise und daran angeschlossene Scheinwerfer
zu steuern, sowie die einzelnen Parameter der Moving-Lights anzusprechen. Es
können verschiedene Lichtstimmungen (sog. CUEs) abgespeichert und im Show-/
Programmablauf wieder abgerufen werden. So können komplette Lichtshows
programmiert werden. Links zu sehen ist das Lichtpult StrandLight MX, rechts die
Jands Hog 500. Mit dem Strandlight-Pult werden die Stufenlinsen- und
Profilscheinwerfer gesteuert, die Hog übernimmt die Steuerung der Moving-Lights,
ist allerdings als sog. Hybridpult auch geeignet, die komplette Lichttechnik zu
verwalten.
Moving-Lights
Die Moving-Lights werden mit dem Lichtsteuerpult Jands Hog 500 programmiert.
Sie können um zwei Achsen gedreht werden. Die Farbe, sowie Form und Größe des
Lichtkegels können ebenfalls verändert werden. Mit Gobos können dem Licht
interessante Strukturen gegeben werden. Das Lichtlabor verfügt über:
• Varilite: VL 1000 as
• Martin: Mac 250
• Clay Paky: Stage Color 300
• Controlite: Washlite
• Scanner
Optische Bank
Die optische Bank wird für die Lichtmesstechnik benötigt. In praktischen Übungen
beschäftigen die Studierenden sich mit den Lichtgrößen Lichtstrom,
Beleuchtungsstärke und Leuchtdichte, sie stellen Lichtverteilungskurven (LVK) für
verschiedene Scheinwerfertypen auf, vergleichen sie und vermessen die Spektren
verschiedener Scheinwerfer. Eine Übung zur Personenausleuchtung findet im
Virtuellen Studio statt.
Daniel Schmidt August 2004 Seite 114
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Scheinwerfertypen
Hier zu sehen sind vier 2 kW Stufenlinsen- bzw. Fresnel-Schweinwerfer.
Stufenlinsenscheinwerfer werden vorwiegend für eine flächige Ausleuchtung
eingesetzt. Zudem werden für die Bühnenausleuchtung noch Profilscheinwerfer zur
punktuellen Akzentsetzung oder zur Projektion und PAR-Scheinwerfer als Effektlicht
verwendet.
Monitorwand
Jedem der drei kleinen Monitore ist jeweils eine Kamera fest zugeordnet. Sie dienen
der Bildtechnik und der Bildregie als Vorschau. Darüber befinden sich der Program-
(PGM) und der Preview-Monitor (PVW). Der Program-Monitor zeigt das aktuelle
Sendebild und der Preview-Monitor rechts daneben zeigt das vorgelegte Bild, welches
als nächstes auf Sendung gehen wird.
Bildregie
In der Bildregie wird aus verschiedenen Bildquellen das Sendebild zusammengestellt.
Die zentrale technische Einrichtung dafür ist der Bildmischer:
Am Bildmischer (JVC KM-3000) liegen alle Bildquellen an. Er verfügt über acht
Eingänge, somit können zu den drei Kameras noch fünf weitere Quellen wie z.B.
MAZ-Zuspieler, Titelgenerator, DVE (Digitales Video Effekt-Gerät) oder
Senderlogogenerator eingebunden werden. Aus diesen verschiedenen Bildquellen
wird das Sendesignal produziert. Zusätzlich ermöglicht eine Keystufe einen Chroma-
Key (BlueBox-Effekt) in Echtzeit.
Bildtechnik
In der Bildtechnik werden die Kameraparameter, wie z.B. Blende, Schwarzwert oder
Weißabgleich für die einzelnen Kameras justiert. Die Bildtechnik kann dafür jede
Kamera unabhängig von der Bildregie auf ihren Kontrollmonitor und die
Messtechnik (Waveformmonitor und Vektorskop) schalten. Mit diesen Messgeräten
Daniel Schmidt August 2004 Seite 115
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
kann das Signal technisch kontrolliert und ggf. korrigiert werden. Der theoretische
Hintergrund dazu wird in der Vorlesung „Videotechnik“ vermittelt.
Studio-Kameras
Es gibt insgesamt drei Kamerazüge im Produktionslabor, bestehend aus jeweils einer
EFP (Elektronic Field Production)-Kamera LDK 90 von BTS, einer Camera Control
Unit und einem Remote Control Pannel. Das Kamerapersonal ist für den
Bildausschnitt und die Schärfe des Bilds verantwortlich. Alle weiteren
Kameraparameter werden über die Camera Control Unit bzw. das Remote Control
Pannel von der Bildtechnik am Regiepult eingestellt. Über eine Interkom-Anlage
können die Kameras mit der Bildregie über Head-Sets kommunizieren.
Studiotaktgenerator
In einem professionellen Studio müssen alle Geräte auf einen sogenannten Studiotakt
synchronisiert werden, damit jedes Videobild (Videobilder werden zeilenweise
geschrieben) zum selben Zeitpunkt wie die Bilder der anderen Quellen startet. Alle
Geräte, die über einen Sync.-Eingang verfügen, können an den Studiotakt
angeschlossen werden. Semiprofessionelle Geräte verfügen oft nicht über einen
solchen Eingang und müssen deshalb über einen Time-Base-Corrector, der die
Videobilder mit einem internen Speicher puffert und studiotaktsynchron ausgibt,
synchronisiert werden.
8.1.5 TONLABOR
Willkommen im Tonlabor
Hier in der Tonregie können wir sowohl Ton aufzeichnen, der im angrenzenden
Studio produziert wird, als auch die komplette Ton-Postproduktion durchführen.
Dazu stehen Mischpult, Audio-Workstation und viele andere Geräte zur Verfügung.
In mehreren Übungen werden den Studierenden die Grundlagen der Audiotechnik
vermittelt. Die Klangeigenschaften eines Raumes werden ermittelt, Frequenzgänge
von Audiogeräten gemessen und ausgewertet und es findet eine Einführung in die
Daniel Schmidt August 2004 Seite 116
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Geräte des Tonstudios statt, das auch für Projekte zur Verfügung steht. Um sich im
Raum umzusehen, die Maus bei gedrückter Taste durch das Bild ziehen. Klicken Sie
auf den Tutor um ein Interview mit ihm zu starten!
Effektgeräte und Equalizer
Hier wird der Klang eines Tons verändert. Equalizer ermöglichen die
frequenzabhängige Pegelung von Tonmaterial. Effektgeräte werden verwendet, um
einen entsprechenden Sound zu erhalten oder für eine bestimmte Atmosphäre zu
sorgen (z.B. Halleffekt).
Hier zu sehen ist zuerst ein Steckfeld, das es ermöglicht den Ton von einem Gerät zu
dem nächsten weiterzuleiten, ein digitales 16-bit Multieffektgerät von Alesis, zwei
Effektgeräte von Lexicon, ein Kompressor, sowie ein Limiter von Behringer und ein
2-Kanal Equalizer.
Geräteschrank
Im Geräteschrank befinden sich zwei Rechner. Einer wird für das Mischpult benötigt,
der andere für das Harddiskrecording-System. Hier können auch die
Wechselfestplatten getauscht werden.
Des Weiteren befindet sich hier ein Digitalrecorder für Videomaterial, der im
DVCam-Format aufzeichnet. Das Videomaterial, das hier aufgezeichnet wird, kann
mit der Audio-Workstation synchronisiert werden, um Ton synchron zu Video- und
Filmbildern zu bearbeiten.
Der Schrank dämmt die Geräusche der Geräte um 42 dB.
Audio-Workstation
Das Herz des Tonstudios ist das Harddiskrecording-System. Es arbeitet mit Nuendo
von Steinberg und ermöglicht es Ton aufzuzeichnen, zu schneiden, zu mischen, mit
Effekten und Filtern zu versehen und letztendlich wieder auszuspielen.
Das System verfügt über 24 Eingänge, somit können 24 verschiedene Tonspuren
parallel auf Wechselfestplatten aufgezeichnet werden.
Daniel Schmidt August 2004 Seite 117
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Ebenso besteht die Möglichkeit Videomaterial synchron zur Timeline des
Audiomaterials anzulegen und damit Ton für Video- oder Filmmaterial zu bearbeiten.
Keyboard
Das Keyboard ermöglicht es, über MIDI, eigenes Tonmaterial in der Audio-
Workstation zu erzeugen. Man kann dem Keyboard verschiedene
Instrumentenklänge oder Soundeffekte zuordnen.
Mischpult
Das leistungsfähige, digitale Mischpult Mackie d8b verfügt über zwölf
Mikrofoneingänge und beherrscht 48 Kanäle. Somit könnte man 48 verschiedene
Mikrofone und Instrumente gleichzeitig aufzeichnen, indem man sie entweder als
Stereospur mischt, auf acht verschiedenen Spuren auf digitalem Mehrspurband
aufzeichnet oder in 24 getrennten Spuren direkt in das Harddiskrecording-System
einspielt. Auf dem rechten Monitor sind alle Einstellungen des Mischpultes zu sehen
und können per Maus verändert werden.
Monitor
Auf dem Monitor wird das Videomaterial angezeigt, um Ton synchron zum Bild
bearbeiten zu können. Das Videomaterial wird vom Digitalrecorder im Geräteschrank
geliefert und ist mit der Timeline der Tonspuren im Harddiskrecording-System
synchronisiert.
Guter, alter Plattenspieler
Ohne Worte...
Surround-Abhöranlage
Für Sourround-Produktionen ist eine perfekt kalibrierte Sourround-Abhöranlage
unerlässlich. Hierzu wurden die optimalen Aufstellungsorte und Abstrahlwinkel der
Daniel Schmidt August 2004 Seite 118
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
fünf Aktiv-Lautsprecher von Studierenden des Fachbereichs berechnet. In der Audio-
Workstation kann für jede Tonspur eingestellt werden, aus welcher Richtung der Ton
kommen soll. Diese kann sich im Zeitablauf per Automation auch verändern lassen.
Die Software errechnet dann die notwendigen Pegelwerte für die einzelnen
Lautsprecher. Natürlich eignet sich die Anlage auch für Stereo-Produktionen mit zwei
Lautsprechern.
Tonstudio
Das Tonstudio eignet sich für viele Anwendungen. Hier wird gerade eine
Sprachaufnahme durchgeführt. Ein Tonstudio sollte einen möglichst „trockenen“
Klang, also eine geringe Nachhallzeit aufweisen. Mittels schallabsorbierenden Platten
an den Wänden wird die Nachhallzeit hier in etwa (die Nachhallzeit ist
frequenzabhängig) auf 0,5 Sekunden reduziert. Das Tonlabor verfügt über alle
gängigen Mikrofontypen, wie Kondensator-, Dynamische-, Stereo-, Grenzflächen-
und Messmikrofone. In einer Übung werden die Eigenschaften des Raumes gemessen
und ausgewertet.
Tonlabor-Tutor
Klicken Sie auf den Tonlabor-Tutor, um im rechten Fenster ein Interview mit ihm zu
sehen. Sie können das Interview mit Pause anhalten, mit Play fortsetzen, sowie mit
Stop abrechen. Mit den Doppelpfeilen starten Sie den schnellen Vor- und
Rücklauf. Während des Interviews können Sie sich problemlos weiterhin im linken
Fenster umsehen.
Zuspieler und Aufzeichnungsgeräte
Soll Tonmaterial bearbeitet werden, muss es zunächst als sogenanntes Rohmaterial
zur Verfügung stehen. Es wird dann im Aufnahmeraum mit Mikrofonen
aufgenommen oder von einer DAT-Kassette oder einer CD auf das
Harddiskrecording-System überspielt, wo es dann bearbeitet werden kann. Danach
wird das finalisierte Material wieder auf ein Medium wie DAT, MiniDisk oder CD
aufgezeichnet. Hier zu sehen ist der 8-Spur DAT-Recorder TASCAM DA-88, der 8-
Daniel Schmidt August 2004 Seite 119
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Kanal Mikrofonverstärker Octamic, ein CD-Player, ein MiniDisk-Player und ein 2-
Spur DAT(DigitalAudioTape)-Recorder.
8.1.6 VIDEOLABOR
Willkommen im Videolabor
Hier können alle Post-Produktionschritte, die für eine Videoproduktion von
Bedeutung sind, gelernt und durchgeführt werden. Dazu gehören unter anderem der
Schnitt, das Compositing, die Farbkorrektur und das Authoring. Des Weiteren wird
hier der praktische Umgang mit Videokameras und deren Kalibrierung vermittelt.
Messtechnische Geräte wie Vektorskop und Waveformmonitor ermöglichen eine
technische Kontrolle der Signalqualität. Neben dem Raum, den Sie hier sehen
können, besteht das Videolabor noch aus drei weiteren.
Um sich im Raum umzusehen, ziehen Sie die Maus bei gedrückter Taste durch das
Bild. Klicken Sie auf den Tutor um ein Interview mit ihm zu starten!
Archiv
Im Archiv befinden sich alle Projekte, die am Fachbereich produziert wurden. So
auch die Projekte, die im Studio Hamburg entstanden sind. Im Studio Hamburg
Projekt steht den Studierenden seit 1991 jedes Semester eine Woche lang ein
Produktionsatelier zur Verfügung. Hier können sie unter professioneller Anleitung
Produktionserfahrung in einem Fernsehstudio sammeln und ihre Projekte in einem
professionellen Umfeld verwirklichen. Die meisten Projekte sind auf Betacam SP
Bändern gespeichert, bei aktuellen Projekten wird die Archivierung meistens auf
DVCam vorgezogen.
Authoring
Authoring bezeichnet das Zusammenstellen von Audio- und Videomaterial zu einer
ansprechenden, meist interaktiven Präsentation. So wird beim DVD-Authoring
beispielsweise ein Menü erstellt, das Zugriff auf die verschiedenen Medien der DVD,
wie den Film selbst, spezieller Kapitel oder Szenen, Interviews, Filmtrailer, Making
Daniel Schmidt August 2004 Seite 120
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Of… und beliebige andere Medienelemente gewährt. Hierbei ist zu beachten, die
Menüs zwar ästhetisch, aber auch funktionell zu gestalten. Die Funktion einzelner
Schaltflächen sollte aus dem Design erkennbar sein.
Compositing
Das Compositing wird auch als vertikaler Schnitt bezeichnet. Die Videoaufnahmen
werden nicht wie beim Schnitt horizontal aneinandergereiht, sondern
übereinandergelegt und mittels Masken, Effekten und Filtern kombiniert. So kann
beim Bluebox-Verfahren der blaue Hintergrund, vor dem sich beispielsweise ein
Darsteller befindet, durch einen anderen Hintergrund ersetzt werden und es entsteht
der Eindruck, als ob der Schauspieler sich dort real befinden würde. Für das
Compositing stehen eine After-Effects- und eine Combustion-Workstation zur
Verfügung.
Kameras
Im Fachbereich gibt es eine Vielzahl unterschiedlicher Kamerasysteme. Die
Bandbreite reicht von Drei-Chip-Mini-DV-Kameras über DVCam, Betacam SP, bis
hin zu Studiokameras. Ebenfalls ist ein 16mm-Filmkamera von Arri vorhanden. In
einigen Übungen wird der Umgang mit den Kameras, deren Kalibrierung und im
Produktionslabor deren Steuerung über CCU (Camera Control Unit) unter Live-
Produktionsbedingungen trainiert. In sogenannten „Camera Actings“ wird das
künstlerische Zusammenspiel von Kamera, Darsteller und Licht erarbeitet.
Kontrollinstrumente
Der Monitor, der Waveformmonitor und das Vektorskop (nicht im Bild zu sehen)
sind Instrumente zur Beurteilung der Qualität von Videobildern. Der Monitor
ermöglicht die optische Kontrolle, Waveformmonitor und Vektorskop die technische.
Der Waveformmonitor gibt Aufschluss über Helligkeit, Kontrast sowie Schwarz und
Weißwert eines Bildes. Das Vektorskop ermöglicht die Kontrolle der Farben. Die
Grundlagen hierzu werden in der Videotechnikvorlesung vermittelt und in einer
Übung vertieft.
Daniel Schmidt August 2004 Seite 121
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Maschinenraum
Hier werden alle Geräte zentral gelagert, um die Laufgeräusche der Maschinen nicht
direkt am Arbeitsplatz zu haben und die Laufwege zwischen den Geräten kurz zu
halten. Alle Schnittplätze können auf dieselben MAZ-Geräte zugreifen, indem die
Verbindungen über eine Kreuzschiene realisiert werden. Die MAZ-Geräte können
dann direkt vom Schnittplatz ferngesteuert werden. Betacam SP, DVCam und S-VHS
sind die MAZ-Formate die verwendet werden. Signalformen kommen vom
Komponentensignal bis zum Compositesignal vor (YUV, YC und FBAS).
Zuspieler und Aufzeichnungsgeräte
Diese Geräte werden meistens als MAZen (Magnetbandaufzeichnung) bezeichnet.
Bevor mit dem Videomaterial an den Rechnern gearbeitet werden kann, muss es erst
von den Zuspielern auf die entsprechenden Systeme eingespielt werden. Liegt es
analog vor, wie bei Betacam SP, so muss es dabei digitalisiert werden. Digitales
Material, wie DV, kann direkt per Firewire auf die Rechner überspielt werden. Alle
MAZen sind im Maschinenraum untergebracht. Natürlich stehen neben der
Magnetbandaufzeichnung auch DVD-Brenner für das DVD-Authoring zur Verfügung.
Schnitt
Bei dem Schnitt handelt es sich um das zeitliche Anordnen von verschiedenen
Aufnahmen. Dies geschieht in einer sog. Timeline. Einstellungen die nacheinander zu
sehen sein sollen, werden in der Timeline aneinander gereiht. Zudem können
einfache Effekte, wie Überblendungen hinzugefügt werden. Für den Videoschnitt
stehen insgesamt acht Schnittplätze zur Verfügung. Darunter ein Avid Media
Composer, vier Avid Xpress, ein Xpress Pro, ein Media 100 und ein linearer
Schnittplatz. Die Formate Betacam SP, DVCam, DV, MPEG-2 und weitere können
verarbeitet werden. In einer Schnittübung schneiden die Studierenden das Material,
welches sie in der Camera-Acting-Übung gefilmt haben.
Daniel Schmidt August 2004 Seite 122
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Speichenrad
Dient zum Testen des Shutter. Der Shutter ist eine zeitliche (elektronische oder
mechanische) Blende, die sich öffnet und schließt und somit bestimmt, wie lange der
Bildwandler belichtet wird. Ist diese Belichtungszeit groß, so verschwimmen die
Linien des drehenden Speichenrades, ist sie klein, sieht der Bildwandler einen sehr
kurzen zeitlichen Ausschnitt der Drehbewegung und bildet die Speichen somit scharf
ab.
Testtafel für Flanschbrennweite
Die Testtafel (Siemensstern) dient dazu die Flanschbrennweite einer Kamera korrekt
einzustellen. Die Flanschbrennweite ist das Auflagemaß zwischen Objektivflansch
und Bildebene entlang der optischen Achse. Ist sie korrekt justiert, müssen alle
Linien des Sterns sowohl im Telebereich, als auch im Weitwinkelbereich scharf
abgebildet werden, d.h. auch möglichst weit im Inneren des Sterns müssen die Linien
als einzelne Linien erkannt werden. In praktischen Übungen haben die Studierenden
die Möglichkeit sich mit allen Kameraparametern vertraut zu machen.
Videolabor-Tutor
Klicken Sie auf den Videolabor-Tutor, um im rechten Fenster ein Interview mit ihm
zu starten. Sie können das Interview mit Pause anhalten, mit Play fortsetzen, sowie
mit Stop abrechen. Mit den Doppelpfeilen starten Sie den schnellen Vor- und
Rücklauf. Während des Interviews können Sie sich problemlos weiterhin im linken
Fenster umsehen.
8.1.7 VIRTUELLES STUDIO
Willkommen im Virtuellen Studio
Hier können reale Videobilder mit virtuellen Bildern kombiniert werden. Dafür
stehen hier drei Systeme zur Verfügung: Die reine BlueBox, das ORAD-System und
eine Operafolie. Mehr Information erhalten Sie, wenn Sie mit dem Mauszeiger über
Daniel Schmidt August 2004 Seite 123
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
interessante Bereiche im Bild fahren. Um sich im Raum umzusehen, ziehen Sie die
Maus bei gedrückter Taste durch das Bild oder nutzen Sie die Navigationsbuttons.
Klicken Sie auf die Moderatorin um ein Interview mit ihr zu starten!
Moderatorin
Klicken Sie auf die Moderatorin, um im rechten Fenster ein Interview mit ihr zu
starten. Sie können das Interview mit Pause anhalten, mit Play fortsetzen, sowie mit
Stop abrechen. Mit den Doppelpfeilen starten Sie den schnellen Vor- und
Rücklauf. Während des Interviews können Sie sich ohne Probleme weiterhin im
linken Fenster umsehen. Die Personenausleuchtung ist ebenfalls eine praktische
Übung, die von den Studierenden absolviert wird.
BlueBox
Die BlueBox wird für das Chroma-Keying verwendet. Dabei dient die Farbe (Chroma)
Blau als Referenz, um Darsteller in der BlueBox „auszustanzen“ (Keying) und mit
anderen Hintergründen zu kombinieren. Anstatt der Farbe Blau wird später der
gewünschte Hintergrund im Bild zu sehen sein. So kann man Darsteller z.B. fliegen
lassen oder sie in virtuelle Welten versetzen. Die Schwierigkeit liegt in der
gleichmäßigen Ausleuchtung des blauen Hintergrunds, um ein einheitliches Blau für
das Keying zu gewährleisten. Blaues Streulicht, das auf die Darsteller fällt (blue spill)
muss ebenfalls vermieden werden, sonst wird nicht nur der blaue Hintergrund
transparent, sondern auch Teile der Darsteller.
ORAD-System
Dieses System ermöglicht Kamerafahrten in virtuellen Welten (z.B. in einer mit
Maya erstellten 3D-Szene). Bewegt sich die Kamera gegenüber dem Darsteller, so
muss auch die Perspektive des virtuellen Hintergrunds verändert werden, um einen
realistischen Eindruck zu erzeugen. Dazu ist für das System die Kameraposition
wichtig. Diese wird über Infrarotkameras in der Studiodecke und einen
Infrarotsender an der Kamera ermittelt. Die Perspektive, unter der die Kamera das
Bild sieht, also Pan, Tilt, Roll und Zoom Werte, kann aus dem Linienmuster an der
Daniel Schmidt August 2004 Seite 124
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Rückwand vom System errechnet werden. Bei der Installation dieses Systems ist also
eine Raumkalibrierung notwendig.
Opera-Folie
Eine weiße Folie hinter der sich Leuchtstofflampen in den Farben, Weiß, Rot, Grün
und Blau befinden. Aus diesen Farben, lassen sich beliebige Hintergrundfarben
mischen. Trägt ein Darsteller z.B. blaue Kleidung, würde diese in der BlueBox
ebenfalls transparent werden. Hier hätten wir die Möglichkeit, an der Opera-Folie,
Grün als Hintergrundfarbe zu wählen und diese als Referenzsignal für das Chroma-
Keying zu verwenden.
Mit den gleichmäßig angeordneten Leuchtstofflampen wird über eine
Dimmersteuerung für eine gleichmäßige Ausleuchtung des Hintergrundes gesorgt.
Studiokamera
Die Studio-Kamera LDK 90 von BTS ist mit einem Infrarotsender ausgestattet,
wodurch die Infrarotkameras in der Studiodecke jederzeit die Position der Kamera
ermitteln und an das ORAD-System übermitteln können. Das Videosignal wird über
eine Remote Control Unit und einen Analog-Digital-Umsetzer an ein Harddisk-
recording-System übermittelt. Die digitalisierten Videobilder können nun mit
virtuellen 3D-Szenen kombiniert werden.
Der Kameramann verfügt über ein Head-Set, über das ihm Regieanweisungen
mitgeteilt werden können.
Computerraum
Das Herz des Virtuellen Studios. Hier können virtuelle 3D-Räume mit Programmen
wie Maya erstellt werden. Das ORAD-System gleicht die Perspektive der virtuellen
Hintergründe auf die Perspektive der digitalisierten Videobilder ab, in dem es die
Daten der Infrarotkameras verwendet. Eine Remote Control Unit ermöglicht die
Parameter der Kamera, wie Blende, Weißabgleich, etc. zu kontrollieren. Ein
Hardiskrecording-System zeichnet die digitalen Videobilder auf.
Daniel Schmidt August 2004 Seite 125
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Lichtregie
Hier befindet sich das Lichtmischpult StrandLight Genius 520. Über dieses Pult
können alle Scheinwerfer im Studio gesteuert werden. Auch die Hintergrundfarbe der
Opera-Folie kann hier gesteuert werden. Zu den vorhandenen Scheinwerfern können
zusätzliche Scheinwerfer über Multicore-Kabel an die Studiolichtkreise
angeschlossen werden. Über einen Monitor kann das Kamerabild kontrolliert und
das Licht entsprechend abgeglichen werden.
Vorhänge
Die Vorhänge können rund um das Studio platziert werden, um ein geschlossenes
Studio zu erzeugen und einfallendes Licht, von versehentlich geöffneten Türen,
abzublocken.
Scheinwerfer
Die Moderatorenausleuchtung wird mittels klassischer Drei-Punkt-Ausleuchtung
realisiert. Drei Stufenlinsenscheinwerfer werden als Führungs-, Aufhell- und
Spitzlicht verwendet. Zusätzlich werden zwei Kino-Flo-Scheinwerfer eingesetzt um
ein weiches Licht zu erzeugen. Wichtig ist dabei, die Lichttemperatur der
verschiedenen Scheinwerfer aufeinander abzustimmen.
Die Scheinwerfer können, wie alle anderen Studioscheinwerfer, über das
Lichtmischpult in der angrenzenden Lichtregie gesteuert werden.
Daniel Schmidt August 2004 Seite 126
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.1.8 TEXTE FÜR DIE BUTTONS DER KARTE (RÄUME ALS
EINZELVERSIONEN)
Hier befindet sich der Campus (Vorderseite)
Wenn Sie sich virtuell auf unserem Campus umsehen möchten, dann laden Sie sich
den entsprechenden QuickTime-Film von der Startseite des virtuellen Rundgangs
durch Klicken auf das Campus-Panorama. Oder laden Sie gleich die Vollversion auf
ihren Computer, dann haben Sie die Möglichkeit alle Räume durch einen einzigen
Mausklick auf den entsprechenden Button in dieser Karte zu öffnen.
Hier befindet sich der Campus (Rückseite)
Wenn Sie sich virtuell auf unserem Campus umsehen möchten, dann laden Sie sich
den entsprechenden QuickTime-Film von der Startseite des virtuellen Rundgangs
durch Klicken auf das Campus-Panorama. Oder laden Sie gleich die Vollversion auf
ihren Computer, dann haben Sie die Möglichkeit alle Räume durch einen einzigen
Mausklick auf den entsprechenden Button in dieser Karte zu öffnen.
Hier befindet sich das ERC-Labor
Wenn Sie sich in unserem Elektronik-, Regelungs- und Computertechnik-Labor
umsehen möchten, dann laden Sie sich den entsprechenden QuickTime-Film von der
Startseite des virtuellen Rundgangs durch Klicken auf das ERC-Labor-Panorama.
Dort erwartet Sie ein Interview mit einem wissenschaftl. Mitarbeiter. Oder laden Sie
gleich die Vollversion auf ihren Computer, dann haben Sie die Möglichkeit alle
Räume durch einen Mausklick auf den entsprechenden Button in dieser Karte zu
öffnen.
Hier befindet sich das Foyer
Wenn Sie sich in unserem Foyer umsehen möchten, dann laden Sie sich den
entsprechenden QuickTime-Film von der Startseite des virtuellen Rundgangs durch
Klicken auf das Foyer-Panorama.
Daniel Schmidt August 2004 Seite 127
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Dort erwartet Sie ebenfalls ein Interview mit dem Dekan des Fachbereichs. Oder
laden Sie gleich die Vollversion auf ihren Computer, dann haben Sie die Möglichkeit
alle Räume durch einen Mausklick auf den entsprechenden Button in dieser Karte zu
öffnen.
Hier befindet sich das Lichtlabor/Produktionsstudio
Wenn Sie sich in unserem Lichtlabor und Produktionsstudio umsehen möchten,
dann laden Sie sich den entsprechenden QuickTime-Film von der Startseite des
virtuellen Rundgangs durch Klicken auf das Lichtlabor/Produktionsstudio-
Panorama. Sehen Sie ein Interview mit einem Licht-Tutor. Oder laden Sie gleich die
Vollversion auf ihren Computer, dann haben Sie die Möglichkeit alle Räume durch
einen einzigen Mausklick auf den entsprechenden Button in dieser Karte zu öffnen.
Hier befindet sich das Tonlabor
Wenn Sie sich in unserem Tonlabor umsehen möchten, dann laden Sie sich den
entsprechenden QuickTime-Film von der Startseite des virtuellen Rundgangs durch
Klicken auf das Tonlabor-Panorama. Dort erwartet Sie ebenfalls ein Interview mit
einem Ton-Tutor. Oder laden Sie gleich die Vollversion auf ihren Computer, dann
haben Sie die Möglichkeit alle Räume durch einen einzigen Mausklick auf den
entsprechenden Button in dieser Karte zu öffnen.
Hier befindet sich das Videolabor
Wenn Sie sich in unserem Videolabor umsehen möchten, dann laden Sie sich den
entsprechenden QuickTime-Film von der Startseite des virtuellen Rundgangs durch
Klicken auf das Videolabor-Panorama. Dort erwartet Sie ebenfalls ein Interview mit
einem Video-Tutor. Oder laden Sie gleich die Vollversion auf ihren Computer, dann
haben Sie die Möglichkeit alle Räume durch einen einzigen Mausklick auf den
entsprechenden Button in dieser Karte zu öffnen.
Daniel Schmidt August 2004 Seite 128
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Hier befindet sich das Virtuelle Studio
Wenn Sie sich in unserem Virtuellen Studio umsehen möchten, dann laden Sie sich
den entsprechenden QuickTime-Film von der Startseite des virtuellen Rundgangs
durch Klicken auf das Virtuelles Studio-Panorama. Dort erwartet Sie ebenfalls ein
Interview mit einer Studentin. Oder laden Sie gleich die Vollversion auf ihren
Computer, dann haben Sie die Möglichkeit alle Räume durch einen einzigen
Mausklick auf den entsprechenden Button in dieser Karte zu öffnen.
8.1.9 TEXTE FÜR DIE BUTTONS DER KARTE (VOLLVERSION)
Hier befindet sich der Campus (Vorderseite)
Klicken Sie hier auf den Button der Karte, um sich auf unserem Campus umzusehen.
Hier befindet sich der Campus (Rückseite)
Klicken Sie hier auf den Button der Karte, um sich auf unserem Campus umzusehen.
Hier befindet sich das ERC-Labor
Klicken Sie hier auf den Button der Karte, um sich in unserem Elektronik-,
Regelungs- und Computertechniklabor umzusehen.
Im ERC-Labor erwartet Sie ein wissenschaftlicher Mitarbeiter des Fachbereichs. Sie
können ein Interview mit ihm erleben, indem Sie dort auf ihn klicken.
Hier befindet sich das Foyer
Klicken Sie hier auf den Button der Karte, um sich in unserem Foyer umzusehen.
Im Foyer erwartet Sie der Dekan des Fachbereichs. Sie können ein Interview mit ihm
erleben, indem Sie dort auf ihn klicken.
Daniel Schmidt August 2004 Seite 129
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Hier befindet sich das Lichtlabor/Produktionsstudio
Klicken Sie hier auf den Button der Karte, um sich in unserem Lichtlabor und
Produktionsstudio umzusehen.
Im Lichtlabor erwartet Sie ein Licht-Tutor. Sie können ein Interview mit ihm erleben,
indem Sie dort auf ihn klicken.
Hier befindet sich das Tonlabor
Klicken Sie hier auf den Button der Karte, um sich in unserem Tonlabor umzusehen.
Im Tonlabor erwartet Sie ein Ton-Tutor. Sie können ein Interview mit ihm erleben,
indem Sie dort auf ihn klicken.
Hier befindet sich das Videolabor
Klicken Sie hier auf den Button der Karte, um sich in unserem Videolabor
umzusehen.
Im Videolabor erwartet Sie ein Video-Tutor. Sie können ein Interview mit ihm
erleben, indem Sie dort auf ihn klicken.
Hier befindet sich das Virtuelle Studio
Klicken Sie hier auf den Button der Karte, um sich in unserem Virtuellen Studio
umzusehen.
Im Virtuellen Studio erwartet Sie eine Studentin des Fachbereichs. Sie können ein
Interview mit ihr erleben, indem Sie dort auf sie klicken.
Daniel Schmidt August 2004 Seite 130
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.1.10 TEXTE UND BILDER DER ZUSATZRÄUME AUF DER KARTE
Um den virtuellen Rundgang noch interessanter zu gestalten, kann man sich auf der
Karte Informationen zu Räumen, die wichtig, aber nicht als QTVR-Panorama zur
Verfügung stehen, anzeigen lassen. Diese Information ist nicht über die
kreisflächenförmigen Panorama-Buttons, sondern über die quadratischen Plus-
Buttons erreichbar.
Caféteria
Für das leibliche Wohl ist ebenfalls gesorgt. In der
Caféteria können die Studierenden neue Energie
sammeln.
Elektrotechnik
Hier finden die praktischen Übungen zu der
Vorlesung „Elektrotechnik“ statt.
Fotolabor
In der Vorlesung „Farbmetrik, Filmtechnik und
Effekte“ lernen die Studierenden hier eigene 35mm-
Foto-Filme zu entwickeln und auf Schwarz-Weiß-
Fotopapier zu belichten. Das Fotolabor steht
natürlich auch für Foto-Projekte zur Verfügung.
Daniel Schmidt August 2004 Seite 131
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Daniel Schmidt August 2004 Seite 132
Fachschaftsrat
Hier findet man den Fachschaftsrat, eine
studentische Selbstverwaltung, die den Studierenden
allerlei Hilfestellung für das Studium bietet. Was
damit im Einzelnen gemeint ist, wird an dieser Stelle
nicht verraten.
Innenhof
Hier treffen sich Studentinnen und Studenten zur
Erholung in den Pausen oder zum gemeinsamen
Lernen.
Internet-Café
Hier im Internet-Café haben die Studierenden
Zugriff auf das WWW. Natürlich stehen den
Studierenden noch viele weitere Räume mit Internet-
Zugang zur Verfügung.
Elektronik-, Regelungs- und Computertechniklabor 2
Hier zu sehen ist ein weiteres Elektronik-, Regelungs-
und Computertechniklabor, in dem ebenfalls
praktische Übungen zu den entsprechenden
Vorlesungen von den Studierenden durchgeführt
werden.
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Studierendenzentrum
Das Studierendenzentrum ist mit im Gebäude des
Fachbereichs integriert und ist Anlaufstelle für alle
Fragen zu Verwaltungsangelegenheiten, wie z.B. die
Rückmeldung zum nächsten Semester.
Vorlesungsraum
In den Vorlesungsräumen werden die Vorlesungen
oft im Seminarstil gestaltet. Studierende können
Fragen stellen und somit aktiv zur Vorlesung
beitragen. Eine Anonymität, wie sie von der
Universität bekannt ist, ist hier nicht zu finden.
Vorlesungsraum
In den Vorlesungsräumen werden die Vorlesungen
oft im Seminarstil gestaltet. Studierende können
Fragen stellen und somit aktiv zur Vorlesung
beitragen. Eine Anonymität, wie sie von der
Universität bekannt ist, ist hier nicht zu finden.
Vorlesungsraum
Der größte Vorlesungssaal des Fachbereichs.
Hier finden regelmäßig auch Expertenvorträge statt.
Experten aus der Praxis schildern ihre Tätigkeits-
bereiche, diskutieren praxisrelevante Problematiken
und schätzen die Einsatzgebiete für Ingenieure der
Medientechnik ab.
Daniel Schmidt August 2004 Seite 133
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.1.11 BEENDEN-TEXT Dieser Text wird angezeigt wenn die Anwenderin oder der Anwender mit der Maus
über das X zum Verlassen des virtuellen Rundgangs fährt:
Hiermit verlassen Sie den virtuellen Rundgang des Fachbereichs Medientechnik!
Wir würden uns freuen, Sie bald auch real auf dem Campus Berliner Tor begrüßen zu
dürfen.
Dieser virtuelle Rundgang wurde von Herrn Daniel Schmidt, unter Betreuung von
Herrn Prof. Dr. Robert Fitz im Sommersemester 2004, im Rahmen einer
Diplomarbeit des Fachbereichs Medientechnik kreiert.
Das 3D-HAW-Logo wurde von Axel Bohlmann erstellt.
Copyright © 2004 HAW Hamburg. All Rights reserved. Verwendung und Veröffentlichung des
virtuellen Rundgangs, auch auszugsweise bzw. einzelner Medienelemente, nur mit ausdrücklicher
Genehmigung.
8.2 README Kleiner Informationstext, der die Anwendung des virtuellen Rundgangs erklärt und
auf der CD in der Datei ReadMe.txt beiliegt:
Virtueller Rundgang des Fachbereichs Medientechnik der HAW Hamburg!
Besuchen Sie unseren Fachbereich Medientechnik in unserem virtuellen Rundgang.
Sehen Sie sich in aller Ruhe in den wichtigsten Laboren und Studios um, sehen Sie
Interviews mit Tutoren, wissenschaftlichen Mitarbeitern und unserem Dekan.
Sie können sich die Interviews und Panoramen auch unabhängig vom virtuellen
Rundgang ansehen, indem Sie im Startmenü auf „Panoramen“ oder „Interviews“
klicken.
Um unseren virtuellen Rundgang, die Panoramen und die Interviews sehen zu
können, muss QuickTime 6 auf Ihrem System installiert sein. Sollte dies nicht der
Fall sein, können Sie QuickTime 6 durch Klicken auf „QuickTime 6 installieren“
installieren. Folgen Sie dann den Installationsanweisungen. Die Eingabe einer
Daniel Schmidt August 2004 Seite 134
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Seriennummer ist nur für die Freischaltung von QuickTime Pro erforderlich und wird
für die Standardinstallation nicht benötigt.
Sollte das Programm nicht automatisch bei Ihnen starten, so wählen Sie Ihr CD-
Rom-Laufwerk aus und starten Sie das Startmenü mit einem Mausklick auf die Datei
„Start.exe“.
Sollte auch dies nicht funktionieren, so können Sie den virtuellen Rundgang auch
direkt durch Klicken auf die Datei „Virtueller Rundgang.mov“ in Ihrem CD-ROM-
Laufwerk starten. Die einzelnen Interviews und Panoramen können Sie entweder
über das Startmenü oder auch direkt im Ordner „media“ starten.
BEACHTEN SIE:
Der virtuelle Rundgang ist für Auflösungen ab 1024x768 Pixel optimiert. Sollte Ihr
System dies nicht unterstützen und der virtuelle Rundgang bei Ihnen nicht richtig
dargestellt werden, dann haben Sie dennoch die Möglichkeit die Panoramen und
Interviews einzeln, auch bei niedrigerer, Auflösung zu betrachten.
In jedem Fall muss QuickTime 6 auf Ihrem System installiert sein. Sollte dies nicht
der Fall sein, so können Sie dies nachholen, in dem Sie im Startmenü auf „QuickTime
6 installieren“ oder direkt die Datei „QuickTimeFullInstaller6_5.exe“ im Ordner
„QuickTime6“ anklicken. Folgen Sie dann den Installationsanweisungen. Die Eingabe
einer Seriennummer ist nur für die Freischaltung von QuickTime Pro erforderlich
und wird für die Standardinstallation nicht benötigt.
Viel Spaß mit dem virtuellen Rundgang!
Copyright © 2004. All Rights reserved. Verwendung und Veröffentlichung des
virtuellen Rundgangs, auch auszugsweise bzw. einzelner Medienelemente, nur mit
ausdrücklicher Genehmigung.
Daniel Schmidt August 2004 Seite 135
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.3 QSCRIPTS ZU ALLEN PANORAMA-BUTTONS
8.3.1 CAMPUSB-BUTTON [Mouse Click] If (NodeID!=1) ChildMovieTrackNamed("Movie").StopPlaying TrackNamed("white").SetEnabled(True) ChildMovieTrackNamed("Movie").GoToBeginning TrackNamed("Movie").LoadChildMovie(7) TrackNamed("Video Control").SpriteNamed("VIDEOstop").SetImageIndexTo(2) TrackNamed("Video Control").SetIdleDelay(-1) TrackNamed("Video Control").SetEnabled(False) Endif TrackNamed("QTVR").GoToNodeID(1) [Mouse Enter] If (NodeID=1) TrackNamed("texte").GoToFrameNumber(0) Else TrackNamed("texte").GoToFrameNumber(161) Endif TrackNamed("mapbuttons").SpriteNamed("CampusB").SetImageIndexTo(2) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) If (NodeID=1) TrackNamed("mapbuttons").SpriteNamed("CampusB").SetImageIndexTo(3) Else TrackNamed("mapbuttons").SpriteNamed("CampusB").SetImageIndexTo(1) Endif
Daniel Schmidt August 2004 Seite 136
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.3.2 COMPUTERLABOR-BUTTON
[Mouse Click] If (NodeID!=2) ChildMovieTrackNamed("Movie").StopPlaying TrackNamed("white").SetEnabled(True) ChildMovieTrackNamed("Movie").GoToBeginning TrackNamed("Movie").LoadChildMovie(7) TrackNamed("Video Control").SpriteNamed("VIDEOstop").SetImageIndexTo(2) TrackNamed("Video Control").SetIdleDelay(-1) TrackNamed("Video Control").SetEnabled(False) Endif TrackNamed("QTVR").GoToNodeID(2) [Mouse Enter] If (NodeID=2) TrackNamed("texte").GoToFrameNumber(20) Else TrackNamed("texte").GoToFrameNumber(162) Endif TrackNamed("mapbuttons").SpriteNamed("Computerlabor").SetImageIndexTo(2) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) If (NodeID=2) TrackNamed("mapbuttons").SpriteNamed("Computerlabor").SetImageIndexTo(3) Else TrackNamed("mapbuttons").SpriteNamed("Computerlabor").SetImageIndexTo(1) Endif
Daniel Schmidt August 2004 Seite 137
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.3.3 FOYER-BUTTON
[Mouse Click] If (NodeID!=3) ChildMovieTrackNamed("Movie").StopPlaying TrackNamed("white").SetEnabled(True) ChildMovieTrackNamed("Movie").GoToBeginning TrackNamed("Movie").LoadChildMovie(7) TrackNamed("Video Control").SpriteNamed("VIDEOstop").SetImageIndexTo(2) TrackNamed("Video Control").SetIdleDelay(-1) TrackNamed("Video Control").SetEnabled(False) Endif TrackNamed("QTVR").GoToNodeID(3) [Mouse Enter] If (NodeID=3) TrackNamed("texte").GoToFrameNumber(40) Else TrackNamed("texte").GoToFrameNumber(163) Endif TrackNamed("mapbuttons").SpriteNamed("Foyer").SetImageIndexTo(2) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) If (NodeID=3) TrackNamed("mapbuttons").SpriteNamed("Foyer").SetImageIndexTo(3) Else TrackNamed("mapbuttons").SpriteNamed("Foyer").SetImageIndexTo(1) Endif
Daniel Schmidt August 2004 Seite 138
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.3.4 LICHT- UND PRODUKTIONSLABOR-BUTTON
[Mouse Click] If (NodeID!=4) ChildMovieTrackNamed("Movie").StopPlaying TrackNamed("white").SetEnabled(True) ChildMovieTrackNamed("Movie").GoToBeginning TrackNamed("Movie").LoadChildMovie(7) TrackNamed("Video Control").SpriteNamed("VIDEOstop").SetImageIndexTo(2) TrackNamed("Video Control").SetIdleDelay(-1) TrackNamed("Video Control").SetEnabled(False) Endif TrackNamed("QTVR").GoToNodeID(4) [Mouse Enter] If (NodeID=4) TrackNamed("texte").GoToFrameNumber(60) Else TrackNamed("texte").GoToFrameNumber(164) Endif TrackNamed("mapbuttons").SpriteNamed("Lichtlabor").SetImageIndexTo(2) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) If (NodeID=4) TrackNamed("mapbuttons").SpriteNamed("Lichtlabor").SetImageIndexTo(3) Else TrackNamed("mapbuttons").SpriteNamed("Lichtlabor").SetImageIndexTo(1) Endif
Daniel Schmidt August 2004 Seite 139
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.3.5 TONLABOR-BUTTON
[Mouse Click] If (NodeID!=5) ChildMovieTrackNamed("Movie").StopPlaying TrackNamed("white").SetEnabled(True) ChildMovieTrackNamed("Movie").GoToBeginning TrackNamed("Movie").LoadChildMovie(7) TrackNamed("Video Control").SpriteNamed("VIDEOstop").SetImageIndexTo(2) TrackNamed("Video Control").SetIdleDelay(-1) TrackNamed("Video Control").SetEnabled(False) Endif TrackNamed("QTVR").GoToNodeID(5) [Mouse Enter] If (NodeID=5) TrackNamed("texte").GoToFrameNumber(80) Else TrackNamed("texte").GoToFrameNumber(165) Endif TrackNamed("mapbuttons").SpriteNamed("Tonlabor").SetImageIndexTo(2) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) If (NodeID=5) TrackNamed("mapbuttons").SpriteNamed("Tonlabor").SetImageIndexTo(3) Else TrackNamed("mapbuttons").SpriteNamed("Tonlabor").SetImageIndexTo(1) Endif
Daniel Schmidt August 2004 Seite 140
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.3.6 VIDEOLABOR-BUTTON
[Mouse Click] If (NodeID!=6) ChildMovieTrackNamed("Movie").StopPlaying TrackNamed("white").SetEnabled(True) ChildMovieTrackNamed("Movie").GoToBeginning TrackNamed("Movie").LoadChildMovie(7) TrackNamed("Video Control").SpriteNamed("VIDEOstop").SetImageIndexTo(2) TrackNamed("Video Control").SetIdleDelay(-1) TrackNamed("Video Control").SetEnabled(False) Endif TrackNamed("QTVR").GoToNodeID(6) [Mouse Enter] If (NodeID=6) TrackNamed("texte").GoToFrameNumber(100) Else TrackNamed("texte").GoToFrameNumber(166) Endif TrackNamed("mapbuttons").SpriteNamed("Videolabor").SetImageIndexTo(2) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) If (NodeID=6) TrackNamed("mapbuttons").SpriteNamed("Videolabor").SetImageIndexTo(3) Else TrackNamed("mapbuttons").SpriteNamed("Videolabor").SetImageIndexTo(1) Endif
Daniel Schmidt August 2004 Seite 141
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.3.7 VIRTUELLES STUDIO-BUTTON
[Mouse Click] If (NodeID!=7) ChildMovieTrackNamed("Movie").StopPlaying TrackNamed("white").SetEnabled(True) ChildMovieTrackNamed("Movie").GoToBeginning TrackNamed("Movie").LoadChildMovie(7) TrackNamed("Video Control").SpriteNamed("VIDEOstop").SetImageIndexTo(2) TrackNamed("Video Control").SetIdleDelay(-1) TrackNamed("Video Control").SetEnabled(False) Endif TrackNamed("QTVR").GoToNodeID(7) [Mouse Enter] If (NodeID=7) TrackNamed("texte").GoToFrameNumber(120) Else TrackNamed("texte").GoToFrameNumber(167) Endif TrackNamed("mapbuttons").SpriteNamed("VRStudio").SetImageIndexTo(2) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) If (NodeID=7) TrackNamed("mapbuttons").SpriteNamed("VRStudio").SetImageIndexTo(3) Else TrackNamed("mapbuttons").SpriteNamed("VRStudio").SetImageIndexTo(1) Endif
Daniel Schmidt August 2004 Seite 142
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.3.8 CAMPUSA-BUTTON
[Mouse Click] If (NodeID!=8) ChildMovieTrackNamed("Movie").StopPlaying TrackNamed("white").SetEnabled(True) ChildMovieTrackNamed("Movie").GoToBeginning TrackNamed("Movie").LoadChildMovie(7) TrackNamed("Video Control").SpriteNamed("VIDEOstop").SetImageIndexTo(2) TrackNamed("Video Control").SetIdleDelay(-1) TrackNamed("Video Control").SetEnabled(False) Endif TrackNamed("QTVR").GoToNodeID(8) [Mouse Enter] If (NodeID=8) TrackNamed("texte").GoToFrameNumber(140) Else TrackNamed("texte").GoToFrameNumber(160) Endif TrackNamed("mapbuttons").SpriteNamed("CampusA").SetImageIndexTo(2) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20) If (NodeID=8) TrackNamed("mapbuttons").SpriteNamed("CampusA").SetImageIndexTo(3) Else TrackNamed("mapbuttons").SpriteNamed("CampusA").SetImageIndexTo(1) Endif
Daniel Schmidt August 2004 Seite 143
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.4 QSCRIPTS ZU ALLEN PLUS-BUTTONS
8.4.1 CAFÉTERIA-BUTTON
[Mouse Enter] TrackNamed("texte").GoToFrameNumber(180) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
8.4.2 ELEKTROTECHNIK-BUTTON
[Mouse Enter] TrackNamed("texte").GoToFrameNumber(181) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
8.4.3 FOTOLABOR-BUTTON
[Mouse Enter] TrackNamed("texte").GoToFrameNumber(182) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
Daniel Schmidt August 2004 Seite 144
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.4.4 FSR-BUTTON
[Mouse Enter] TrackNamed("texte").GoToFrameNumber(183) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
8.4.5 INNENHOF-BUTTON
[Mouse Enter] TrackNamed("texte").GoToFrameNumber(184) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
8.4.6 INTERNET-CAFÉ-BUTTON
[Mouse Enter] TrackNamed("texte").GoToFrameNumber(185) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
8.4.7 REGELUNGSTECHNIK-BUTTON
[Mouse Enter] TrackNamed("texte").GoToFrameNumber(186) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
Daniel Schmidt August 2004 Seite 145
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.4.8 STUDIENZENTRUM-BUTTON
[Mouse Enter] TrackNamed("texte").GoToFrameNumber(187) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
8.4.9 VORLESUNGSRAUM1-BUTTON
[Mouse Enter] TrackNamed("texte").GoToFrameNumber(188) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
8.4.10 VORLESUNGSRAUM2-BUTTON
[Mouse Enter] TrackNamed("texte").GoToFrameNumber(189) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
8.4.11 VORLESUNGSRAUM3-BUTTON
[Mouse Enter] TrackNamed("texte").GoToFrameNumber(190) [Mouse Exit] TrackNamed("texte").GoToFrameNumber((NodeID-1)*20)
Daniel Schmidt August 2004 Seite 146
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.5 QSCRIPT FÜR DAS [NODE ENTERED]-EVENT ALLER
NODES
8.5.1 CAMPUSB
[Node Entered]
2 movieVars mIntro, mPrevID 3 4 ShowDefaultView 5 TrackNamed("titel").SpriteNamed("titel").SetImageIndexTo(1) 6 TrackNamed("texte").GotoFrameNumber(0) 7 TrackNamed("mapbuttons").SpriteNamed("CampusB").SetImageIndexTo(3) 8 TrackNamed("mapbuttons").SpriteOfIndex(2).SetImageIndexTo(1) 9 TrackNamed("mapbuttons").SpriteOfIndex(3).SetImageIndexTo(1) 10 TrackNamed("mapbuttons").SpriteOfIndex(4).SetImageIndexTo(1) 11 TrackNamed("mapbuttons").SpriteOfIndex(5).SetImageIndexTo(1) 12 TrackNamed("mapbuttons").SpriteOfIndex(6).SetImageIndexTo(1) 13 TrackNamed("mapbuttons").SpriteOfIndex(7).SetImageIndexTo(1) 14 TrackNamed("mapbuttons").SpriteOfIndex(8).SetImageIndexTo(1) 15 16 If (mPrevID!=1) 17 TrackNamed("movie").LoadChildMovie(7) 18 TrackNamed("white").SetEnabled(True) 19 TrackNamed("Video Control").SetIdleDelay(-1) 20 TrackNamed("Video Control").SetEnabled(False) 21 Endif 22 23 If (mIntro!=1) 24 TrackNamed("white").SetEnabled(False) 25 TrackNamed("Video Control").SetIdleDelay(10) 26 TrackNamed("Video Control").SetEnabled(True) 27 TrackNamed("movie").LoadChildMovie(8) 28 ChildMovieTrackNamed("Movie").StartPlaying
Daniel Schmidt August 2004 Seite 147
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
29 30 mIntro=1 31 Endif 32 33 mPrevID=1
8.5.2 ERC-LABOR
[Node Entered] movieVars mPrevID ShowDefaultView TrackNamed("titel").SpriteNamed("titel").SetImageIndexTo(2) TrackNamed("texte").GotoFrameNumber(20) TrackNamed("mapbuttons").SpriteNamed("Computerlabor").SetImageIndexTo(3) TrackNamed("mapbuttons").SpriteOfIndex(1).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(3).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(4).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(5).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(6).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(7).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(8).SetImageIndexTo(1) If (mPrevID!=2) TrackNamed("movie").LoadChildMovie(7) TrackNamed("white").SetEnabled(True) TrackNamed("Video Control").SetIdleDelay(-1) TrackNamed("Video Control").SetEnabled(False) Endif mPrevID=2
Daniel Schmidt August 2004 Seite 148
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.5.3 FOYER
[Node Entered] movieVars mPrevID ShowDefaultView TrackNamed("titel").SpriteNamed("titel").SetImageIndexTo(3) TrackNamed("texte").GotoFrameNumber(40) TrackNamed("mapbuttons").SpriteNamed("Foyer").SetImageIndexTo(3) TrackNamed("mapbuttons").SpriteOfIndex(1).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(2).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(4).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(5).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(6).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(7).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(8).SetImageIndexTo(1) If (mPrevID!=3) TrackNamed("movie").LoadChildMovie(7) TrackNamed("white").SetEnabled(True) TrackNamed("Video Control").SetIdleDelay(-1) TrackNamed("Video Control").SetEnabled(False) Endif mPrevID=3
Daniel Schmidt August 2004 Seite 149
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.5.4 LICHT- UND PRODUKTIONSLABOR
[Node Entered] movieVars mPrevID ShowDefaultView TrackNamed("titel").SpriteNamed("titel").SetImageIndexTo(4) TrackNamed("texte").GotoFrameNumber(60) TrackNamed("mapbuttons").SpriteNamed("Lichtlabor").SetImageIndexTo(3) TrackNamed("mapbuttons").SpriteOfIndex(1).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(2).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(3).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(5).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(6).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(7).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(8).SetImageIndexTo(1) If (mPrevID!=4) TrackNamed("movie").LoadChildMovie(7) TrackNamed("white").SetEnabled(True) TrackNamed("Video Control").SetIdleDelay(-1) TrackNamed("Video Control").SetEnabled(False) Endif mPrevID=4
Daniel Schmidt August 2004 Seite 150
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.5.5 TONLABOR
[Node Entered] movieVars mPrevID ShowDefaultView TrackNamed("titel").SpriteNamed("titel").SetImageIndexTo(5) TrackNamed("texte").GotoFrameNumber(80) TrackNamed("mapbuttons").SpriteNamed("Tonlabor").SetImageIndexTo(3) TrackNamed("mapbuttons").SpriteOfIndex(1).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(2).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(3).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(4).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(6).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(7).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(8).SetImageIndexTo(1) If (mPrevID!=5) TrackNamed("movie").LoadChildMovie(7) TrackNamed("white").SetEnabled(True) TrackNamed("Video Control").SetIdleDelay(-1) TrackNamed("Video Control").SetEnabled(False) Endif mPrevID=5
Daniel Schmidt August 2004 Seite 151
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.5.6 VIDEOLABOR
[Node Entered] movieVars mPrevID ShowDefaultView TrackNamed("titel").SpriteNamed("titel").SetImageIndexTo(6) TrackNamed("texte").GotoFrameNumber(100) TrackNamed("mapbuttons").SpriteNamed("Videolabor").SetImageIndexTo(3) TrackNamed("mapbuttons").SpriteOfIndex(1).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(2).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(3).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(4).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(5).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(7).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(8).SetImageIndexTo(1) If (mPrevID!=6) TrackNamed("movie").LoadChildMovie(7) TrackNamed("white").SetEnabled(True) TrackNamed("Video Control").SetIdleDelay(-1) TrackNamed("Video Control").SetEnabled(False) Endif mPrevID=6
Daniel Schmidt August 2004 Seite 152
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.5.7 VIRTUELLES STUDIO
[Node Entered] movieVars mPrevID ShowDefaultView TrackNamed("titel").SpriteNamed("titel").SetImageIndexTo(7) TrackNamed("texte").GotoFrameNumber(120) TrackNamed("mapbuttons").SpriteNamed("VRStudio").SetImageIndexTo(3) TrackNamed("mapbuttons").SpriteOfIndex(1).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(2).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(3).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(4).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(5).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(6).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(8).SetImageIndexTo(1) If (mPrevID!=7) TrackNamed("movie").LoadChildMovie(7) TrackNamed("white").SetEnabled(True) TrackNamed("Video Control").SetIdleDelay(-1) TrackNamed("Video Control").SetEnabled(False) Endif mPrevID=7
Daniel Schmidt August 2004 Seite 153
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.5.8 CAMPUSA
[Node Entered] movieVars mPrevID ShowDefaultView TrackNamed("titel").SpriteNamed("titel").SetImageIndexTo(7) TrackNamed("texte").GotoFrameNumber(120) TrackNamed("mapbuttons").SpriteNamed("VRStudio").SetImageIndexTo(3) TrackNamed("mapbuttons").SpriteOfIndex(1).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(2).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(3).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(4).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(5).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(6).SetImageIndexTo(1) TrackNamed("mapbuttons").SpriteOfIndex(8).SetImageIndexTo(1) If (mPrevID!=7) TrackNamed("movie").LoadChildMovie(7) TrackNamed("white").SetEnabled(True) TrackNamed("Video Control").SetIdleDelay(-1) TrackNamed("Video Control").SetEnabled(False) Endif mPrevID=7
Daniel Schmidt August 2004 Seite 154
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
8.6 LIZENZVEREINBARUNGEN MIT DEN INTERVIEW-PARTNERN
Daniel Schmidt August 2004 Seite 155
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Daniel Schmidt August 2004 Seite 156
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Daniel Schmidt August 2004 Seite 157
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Daniel Schmidt August 2004 Seite 158
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Daniel Schmidt August 2004 Seite 159
Hochschule für Angewandte Wissenschaften Hamburg • Fachbereich Medientechnik • Diplomarbeit
Daniel Schmidt August 2004 Seite 160
top related