professur mediengestaltung bei output.dd
DESCRIPTION
Die Projekte der Professur Mediengestaltung (TU Dresden) beim achten OUTPUT.DD. OUTPUT.DD - ebenfalls ein Kind der Professur - bietet jährlich Laien und Fachleuten eine Plattform, um spannende Einblicke in die Projekte der Dresdner Informatik Fakultät zu erhalten.TRANSCRIPT
Professur Medien- gestaltung bei outPut
4 Juli 2013
technische universität dresdenfakultät informatikProfessur für Mediengestaltung01062 dresden
fon + 49 (0) 351 – 463 - 38 550
http://mg.inf.tu-dresden.de/
10 * exzellente Jahre Mediengestaltung
* das sind 10 Jahre des Forschens, des Streitens und des Zusammenwachsens. Die Technische Visualistik bietet das Themendach, unter dem dies geschieht. Zum Team gehören Informatiker, Ma-schinenbauer, Psychologen, Architekten und Designer. Informatiker sind in der Mehrheit - und das ist gut so. Denn sie sichern und erschließen uns die Quelle technischer Innovation.
Ausstellung am 2. August 2013
infos unter werkstatt.inf.tu-dresden.de
WerkstAtt IIIinteraktive installationen iM stadtrauM
10 * exzellente Jahre Mediengestaltung
* das sind 10 Jahre des Forschens, des Streitens und des Zusammenwachsens. Die Technische Visualistik bietet das Themendach, unter dem dies geschieht. Zum Team gehören Informatiker, Ma-schinenbauer, Psychologen, Architekten und Designer. Informatiker sind in der Mehrheit - und das ist gut so. Denn sie sichern und erschließen uns die Quelle technischer Innovation.
Ausstellung am 2. August 2013
infos unter werkstatt.inf.tu-dresden.de
WerkstAtt IIIinteraktive installationen iM stadtrauM
Die Werkstatt II
begreifbare interaktionsschnittstellen
Projekt
Im Zentrum des Projektes EmplIT steht ein neuartiger und innovativer Weg der zusätzlichen Wissensvermittlung un-ter Berücksichtigung von aktuellen Trends am Arbeitsmarkt und neuen Qualifikationsbedürfnissen der Wirtschaft. Ziel ist die Entwicklung eines zukunftsfähigen zusätzlichen Qualifikationsangebots, das Studierenden Fertigkeiten im Umgang mit neusten Technologien vermittelt. Innerhalb dieses Angebots, genannt Werkstatt, können sich die Studierenden mit der ganzen Breite an Möglich-keiten der Technologie auseinandersetzen und aktuelle Fragestellungen mit real-wirtschaftlichem Hintergrund bearbeiten.
Inhalte
Das zweite Modul der Werkstatt beschäftigte sich mit der Entwicklung begreifbarer Interaktionsschnittstellen, also handlichen Steuergeräten zur Kontrolle eines intelligenten Autos oder Hauses. Nach der Vermittlung wichtiger Grundlagen aus der Pro-duktgestaltung, dem Interaktionsdesign, der Sensorik und dem Prototyping-Prozess wurde eine greifbare Interakti-onsschnittstelle konzipiert. In Kolloquien diskutierten Ex-perten aus der Wirtschaft die Projektstände und halfen diese weiter zu entwickeln. Der Bau der Schnittstellen erfolgte daraufhin an der Universität und in freien Werk-stätten. Das Modul endete mit einer öffentlichen Projekt-präsentation.Neu erlernte Fertigkeiten der Studierenden setzen sich aus Modellbautechniken, Elektronik, Arduino, Processing und Unity zum Einsatz zusammen.
objektentwurf
objektanalyse
elektronik - Workshop
arduino - Workshop
ausstellung
kolloqui-
konzeption
Dieses Projekt wird gefördert durch die Europäische Union und den
Freistaat Sachsen aus Mitteln des Europäischen Sozialfonds (ESF).
Foyer
Brian Eschrich
Die Werkstatt II
begreifbare interaktionsschnittstellen
Projekt
Im Zentrum des Projektes EmplIT steht ein neuartiger und innovativer Weg der zusätzlichen Wissensvermittlung un-ter Berücksichtigung von aktuellen Trends am Arbeitsmarkt und neuen Qualifikationsbedürfnissen der Wirtschaft. Ziel ist die Entwicklung eines zukunftsfähigen zusätzlichen Qualifikationsangebots, das Studierenden Fertigkeiten im Umgang mit neusten Technologien vermittelt. Innerhalb dieses Angebots, genannt Werkstatt, können sich die Studierenden mit der ganzen Breite an Möglich-keiten der Technologie auseinandersetzen und aktuelle Fragestellungen mit real-wirtschaftlichem Hintergrund bearbeiten.
Inhalte
Das zweite Modul der Werkstatt beschäftigte sich mit der Entwicklung begreifbarer Interaktionsschnittstellen, also handlichen Steuergeräten zur Kontrolle eines intelligenten Autos oder Hauses. Nach der Vermittlung wichtiger Grundlagen aus der Pro-duktgestaltung, dem Interaktionsdesign, der Sensorik und dem Prototyping-Prozess wurde eine greifbare Interakti-onsschnittstelle konzipiert. In Kolloquien diskutierten Ex-perten aus der Wirtschaft die Projektstände und halfen diese weiter zu entwickeln. Der Bau der Schnittstellen erfolgte daraufhin an der Universität und in freien Werk-stätten. Das Modul endete mit einer öffentlichen Projekt-präsentation.Neu erlernte Fertigkeiten der Studierenden setzen sich aus Modellbautechniken, Elektronik, Arduino, Processing und Unity zum Einsatz zusammen.
objektentwurf
objektanalyse
elektronik - Workshop
arduino - Workshop
ausstellung
kolloqui-
konzeption
Dieses Projekt wird gefördert durch die Europäische Union und den
Freistaat Sachsen aus Mitteln des Europäischen Sozialfonds (ESF).
Foyer
Brian Eschrich
Das Projekt »CogITo« SAB Nr.: 12795/2129 wird durch die Europäische
Union und den Freistaat Sachsen aus Mitteln des Europäischen Sozial-
fonds (ESF) gefördert
Nachwuchsforschergruppe CogIto
Cognitive interface technologies
Der technische Fortschritt und die gegenwärtigen Neu-erungen, insbesondere im Bereich der Schnittstelle zwi-schen Mensch und Maschine, erfordern die zunehmen-de Zusammenarbeit von Informatikern und Psychologen sowohl in der Grundlagenforschung als auch in der An-wendung. Um dieser Herausforderung gerecht zu wer-den, hat sich die Nachwuchsforschergruppe Cognitive Interface Technologies (CogITo), bestehend aus insgesamt acht Nachwuchswissenschaftler der Professur Medienge-staltung der Fakultät Informatik und der Professur Ingeni-eurpsychologie und Kognitive Ergonomie der Fakultät Mathe-matik und Naturwissenschaften der TU Dresden, gebildet.
Über einen Zeitraum von 3 Jahren erforschen die Mitarbei-ter der Nachwuchsforschergruppe CogITo verschiedenste Aspekte der Mensch-Maschine-Schnittstelle im gesamten Spektrum von Grundlagenforschung bis Anwendung. Da-bei werden unter anderem Untersuchungen zu Wahrneh-mung und Gestaltung in immersiven 3D-Umgebungen, zur Gestaltung und Zusammenarbeit mit virtuellen Agenten, zu verschiedenen Möglichkeiten der Aufmerksamkeitslenkung sowie zur Erzeugung und Messung von Immersion durch-geführt. Die Nachwuchsforschergruppe wird vom Europäi-schen Sozialfond und dem Freistaat Sachsen gefördert.
Raum 5
Jens R. Helmert
Josephine Hartwig
Johannes Schulz
Mathias Müller
Ingmar S. Franke
Anja Knöfel
Thomas Gründer
Rebekka Renner
Sebastian Walther
Das Projekt »CogITo« SAB Nr.: 12795/2129 wird durch die Europäische
Union und den Freistaat Sachsen aus Mitteln des Europäischen Sozial-
fonds (ESF) gefördert
Nachwuchsforschergruppe CogIto
Cognitive interface technologies
Der technische Fortschritt und die gegenwärtigen Neu-erungen, insbesondere im Bereich der Schnittstelle zwi-schen Mensch und Maschine, erfordern die zunehmen-de Zusammenarbeit von Informatikern und Psychologen sowohl in der Grundlagenforschung als auch in der An-wendung. Um dieser Herausforderung gerecht zu wer-den, hat sich die Nachwuchsforschergruppe Cognitive Interface Technologies (CogITo), bestehend aus insgesamt acht Nachwuchswissenschaftler der Professur Medienge-staltung der Fakultät Informatik und der Professur Ingeni-eurpsychologie und Kognitive Ergonomie der Fakultät Mathe-matik und Naturwissenschaften der TU Dresden, gebildet.
Über einen Zeitraum von 3 Jahren erforschen die Mitarbei-ter der Nachwuchsforschergruppe CogITo verschiedenste Aspekte der Mensch-Maschine-Schnittstelle im gesamten Spektrum von Grundlagenforschung bis Anwendung. Da-bei werden unter anderem Untersuchungen zu Wahrneh-mung und Gestaltung in immersiven 3D-Umgebungen, zur Gestaltung und Zusammenarbeit mit virtuellen Agenten, zu verschiedenen Möglichkeiten der Aufmerksamkeitslenkung sowie zur Erzeugung und Messung von Immersion durch-geführt. Die Nachwuchsforschergruppe wird vom Europäi-schen Sozialfond und dem Freistaat Sachsen gefördert.
Raum 5
Jens R. Helmert
Josephine Hartwig
Johannes Schulz
Mathias Müller
Ingmar S. Franke
Anja Knöfel
Thomas Gründer
Rebekka Renner
Sebastian Walther
Hand, sensorik und Virtualität
Begreifbare Interaktion mit der Virtualität
Josefine Zeipelt, Thomas Gründer
Depth touch
Begreifbare Interaktion mit der Virtualität
Fabian Göbel, Joshua Peschke und Thomas Gründer
elastic Wall
Begreifbare Interaktion mit der Virtualität
Thomas Gründer, Mathias Müller, Anja Knö-fel, Sebastian Walther und Ingmar Franke
Raum 5 Raum 5
CogITo CogITo
handschuh mit dehnungsmessung
sensorkrake zum testen und erfahren der sensorik
reale kugeln auf stoff
elastic Wall
vertikale interaktion
depth touch in aktion
Hand, sensorik und Virtualität
Begreifbare Interaktion mit der Virtualität
Josefine Zeipelt, Thomas Gründer
Depth touch
Begreifbare Interaktion mit der Virtualität
Fabian Göbel, Joshua Peschke und Thomas Gründer
elastic Wall
Begreifbare Interaktion mit der Virtualität
Thomas Gründer, Mathias Müller, Anja Knö-fel, Sebastian Walther und Ingmar Franke
Raum 5 Raum 5
CogITo CogITo
handschuh mit dehnungsmessung
sensorkrake zum testen und erfahren der sensorik
reale kugeln auf stoff
elastic Wall
vertikale interaktion
depth touch in aktion
Wahrnehmungs- realismus
Perspektivkorrekturen in Visualisierungen
Ingmar Franke
tiefenwahrnehmung und gestenbasierte Interaktion in Vr
Wahrnehmung und Interaktion in virtuellen Räumen Matthias Müller
Raum 5 Raum 5
CogITo CogITo
eye-tracking zur sakkadenerkennung in echtzeit
Das Auge im Kontext virtueller Welten
Sebastian Walther, Ingmar Franke und Tobias Günther
User Interface Gestaltung für virtuelle Agenten
Wahrnehmung und Gestaltung virtueller Helfer
Anja Knöfel
assistenzszenarien
illustration eines blickbewegungspfades
zusammengesetzte comp. Projektionen
empirisch ermittelter dialogpfad
visualisierung von räumlicher tiefe relativ zur virtuellen hand blicke machen bilder
verschiedene formen autonomer roboter
Wahrnehmungs- realismus
Perspektivkorrekturen in Visualisierungen
Ingmar Franke
tiefenwahrnehmung und gestenbasierte Interaktion in Vr
Wahrnehmung und Interaktion in virtuellen Räumen Matthias Müller
Raum 5 Raum 5
CogITo CogITo
eye-tracking zur sakkadenerkennung in echtzeit
Das Auge im Kontext virtueller Welten
Sebastian Walther, Ingmar Franke und Tobias Günther
User Interface Gestaltung für virtuelle Agenten
Wahrnehmung und Gestaltung virtueller Helfer
Anja Knöfel
assistenzszenarien
illustration eines blickbewegungspfades
zusammengesetzte comp. Projektionen
empirisch ermittelter dialogpfad
visualisierung von räumlicher tiefe relativ zur virtuellen hand blicke machen bilder
verschiedene formen autonomer roboter
Bildsprache LiveLab
erforschung bildgestützter interaktion in 3d-anwendungen
Was ist BiLL?
Bildsprache LiveLab (BiLL) ist ein Anwendungssystem, das in Echtzeit dreidimensionale Welten visualisiert. Zu-dem kann der Benutzer nicht nur den Inhalt, sondern auch die Art und Eigenschaften der Darstellung ändern. BiLL stellt eine große Anzahl von Komponenten zur Verfügung, die zum Korrigieren oder Manipulieren von visuellen Sach-verhalten dienen. Eine Erweiterung durch zusätzliche Kom-ponenten ist durch die modulare Framework-Architektur von BiLL einfach möglich. BiLL wurde für die Erforschung verschiedener Algorithmen der 3D-Interfacegestaltung entwickelt und unterstützt Analysen im Bereich der Com-putergrafik und der Kognitionspsychologie.
Plattformunabhängigkeit
Um BiLL flexibel einsetzen zu können, wurde die Grund-struktur so angepasst, dass BiLL nun auf den Betriebssys-temen OS X, Linux und Windows genutzt werden kann.Eine weitere neu entwickelte Komponente ermöglicht eine rechner- und betriebssystemübergreifende, synchro-ne Steuerung der Ansicht. Damit sind die Grundlagen gelegt, um BiLL auch in einer interaktiven 3D Umgebung (z.B. CAVE) einsetzen zu können.
Eyetracking
Die Eyetracking-Komponenten von BiLL wurden so er-weitert, dass BiLL flexibel mit verschiedenen Systemen verwendet werden kann. Dadurch konnte BiLL als Experi-mentalumgebung in Kooperation mit der Firma Interactive Minds für ein räumliches Eytrackingexperiment eingesetzt werden. Die Verbindung aus stereoskopischer 3D-Präsen-tation und räumlicher Erfassung eröffnet neue intuitivere Formen der Visualisierungen von Blickbewegungsdaten .Mit einem weiteren Beispiel für die Anwendung von BiLL und Eyetracking befasst sich die Forschergruppe CogITo in Form der sakkadenkontingenten Darstellung.
Bildsprache LiveLab wird an der Professur für Mediengestaltung im Rahmen
des BMBF geförderten Projektes VALABI evaluiert und weiterentwickelt.
BILL – ARBEITSUMGEBUNG
BILDSPRACHE LIVELAB
Bildsprache LiveLab (BiLL) ist ein Anwendungssystem, das die Visualisierung dreidimensionaler Welten in Echtzeit er-möglicht. Zudem kann der Benutzer nicht nur den Inhalt der Darstellung, sondern auch deren Art und Strukturen ändern.
BiLL wurde für die Erforschung verschiedener Sachver-halte der 3D-Interfacegestaltung entwickelt und dient als Plattform für analytische Untersuchungen im Bereich der Computergra k und der Kognitionspsychologie. Dabei erlaubt BiLL die Integration verschiedener Ansätze durch eine Kombination von visualisierungsbezogenen, interakti-onsorientierten und nutzerzentrierten Komponenten.
BiLL präsentiert sich als Zweifenstersystem. Im »View-er«, erfolgt die dreidimensionale Darstellung. Der »Editor« dient der Kontrolle und Manipulation von Objekteigen-schaften und Darstellungsparametern.
BiLL stellt eine reichhaltige Anzahl von Plug-Ins zur Verfü-gung, die zum Korrigieren oder Manipulieren von visuellen Sachverhalten oder der Einbindung von Eyetracking- und Multitouch-Technologien von dienen. Eine unkomplizierte Erweiterung durch zusätzliche Plug-Ins wird von der mo-dularen Framework-Architektur von BiLL unterstützt.
Bildsprache LiveLab
Professur fürMediengestaltung
ArbeitsgruppeTechnische Visualistik
Gefördert vom
Technische Universität DresdenFakultät InformatikProfessur für Mediengestaltung01062 Dresden
E-Mail: [email protected].: (+49) 351 / 463 38550Fax: (+49) 351 / 463 39261
Validierung des Innovations-potentials wissenschaftlicher Forschung - VIP
Bildsprache LiveLab
3D Brille Eyetracking 3D Szene
Realer Raum Virtueller Raum3D Bildschirm
Dietrich Kammer
Andreas Stahl
Martin Zavesky
Romy Müller
Jan Wojdziak
Raum 1
Bildsprache LiveLab
erforschung bildgestützter interaktion in 3d-anwendungen
Was ist BiLL?
Bildsprache LiveLab (BiLL) ist ein Anwendungssystem, das in Echtzeit dreidimensionale Welten visualisiert. Zu-dem kann der Benutzer nicht nur den Inhalt, sondern auch die Art und Eigenschaften der Darstellung ändern. BiLL stellt eine große Anzahl von Komponenten zur Verfügung, die zum Korrigieren oder Manipulieren von visuellen Sach-verhalten dienen. Eine Erweiterung durch zusätzliche Kom-ponenten ist durch die modulare Framework-Architektur von BiLL einfach möglich. BiLL wurde für die Erforschung verschiedener Algorithmen der 3D-Interfacegestaltung entwickelt und unterstützt Analysen im Bereich der Com-putergrafik und der Kognitionspsychologie.
Plattformunabhängigkeit
Um BiLL flexibel einsetzen zu können, wurde die Grund-struktur so angepasst, dass BiLL nun auf den Betriebssys-temen OS X, Linux und Windows genutzt werden kann.Eine weitere neu entwickelte Komponente ermöglicht eine rechner- und betriebssystemübergreifende, synchro-ne Steuerung der Ansicht. Damit sind die Grundlagen gelegt, um BiLL auch in einer interaktiven 3D Umgebung (z.B. CAVE) einsetzen zu können.
Eyetracking
Die Eyetracking-Komponenten von BiLL wurden so er-weitert, dass BiLL flexibel mit verschiedenen Systemen verwendet werden kann. Dadurch konnte BiLL als Experi-mentalumgebung in Kooperation mit der Firma Interactive Minds für ein räumliches Eytrackingexperiment eingesetzt werden. Die Verbindung aus stereoskopischer 3D-Präsen-tation und räumlicher Erfassung eröffnet neue intuitivere Formen der Visualisierungen von Blickbewegungsdaten .Mit einem weiteren Beispiel für die Anwendung von BiLL und Eyetracking befasst sich die Forschergruppe CogITo in Form der sakkadenkontingenten Darstellung.
Bildsprache LiveLab wird an der Professur für Mediengestaltung im Rahmen
des BMBF geförderten Projektes VALABI evaluiert und weiterentwickelt.
BILL – ARBEITSUMGEBUNG
BILDSPRACHE LIVELAB
Bildsprache LiveLab (BiLL) ist ein Anwendungssystem, das die Visualisierung dreidimensionaler Welten in Echtzeit er-möglicht. Zudem kann der Benutzer nicht nur den Inhalt der Darstellung, sondern auch deren Art und Strukturen ändern.
BiLL wurde für die Erforschung verschiedener Sachver-halte der 3D-Interfacegestaltung entwickelt und dient als Plattform für analytische Untersuchungen im Bereich der Computergra k und der Kognitionspsychologie. Dabei erlaubt BiLL die Integration verschiedener Ansätze durch eine Kombination von visualisierungsbezogenen, interakti-onsorientierten und nutzerzentrierten Komponenten.
BiLL präsentiert sich als Zweifenstersystem. Im »View-er«, erfolgt die dreidimensionale Darstellung. Der »Editor« dient der Kontrolle und Manipulation von Objekteigen-schaften und Darstellungsparametern.
BiLL stellt eine reichhaltige Anzahl von Plug-Ins zur Verfü-gung, die zum Korrigieren oder Manipulieren von visuellen Sachverhalten oder der Einbindung von Eyetracking- und Multitouch-Technologien von dienen. Eine unkomplizierte Erweiterung durch zusätzliche Plug-Ins wird von der mo-dularen Framework-Architektur von BiLL unterstützt.
Bildsprache LiveLab
Professur fürMediengestaltung
ArbeitsgruppeTechnische Visualistik
Gefördert vom
Technische Universität DresdenFakultät InformatikProfessur für Mediengestaltung01062 Dresden
E-Mail: [email protected].: (+49) 351 / 463 38550Fax: (+49) 351 / 463 39261
Validierung des Innovations-potentials wissenschaftlicher Forschung - VIP
Bildsprache LiveLab
3D Brille Eyetracking 3D Szene
Realer Raum Virtueller Raum3D Bildschirm
Dietrich Kammer
Andreas Stahl
Martin Zavesky
Romy Müller
Jan Wojdziak
Raum 1
Crawling traces
eroberung des stadtraums durch individuell steuerbare und vernetzte Projektionen – diplomarbeit
Foyer
Deborah Schmidt
Stadtbilder
Stadtbilder wurden historisch betrachtet stets autoritär durch den architektonischen Duktus und durch politische und wirtschaftliche Ämter der entsprechenden Epoche geprägt. Heute dominieren kommerzielle Schaustellungen die Freiflächen der Großstädte. Der öffentliche Raum führt aber individuelle Personen zusammen, die unter Einbezie-hung moderner Techniken befähigt werden können, als Einzelperson oder als Gruppe den Stadtraum zu prägen.
Interaktion
Bereits etablierte Techniken zur Vernetzung von Personen, zur intuitiven Interaktion und die Verwendung von steuer-baren Projektionen binden Passanten als Akteure in einenfreien Dialog ein. Ziel dieser Arbeit ist es, Interaktionskon-zepte für vernetzte Projektionen im Stadtraum auszuarbei-ten, die im Gegensatz zu Werbebildern nicht überblenden, sondern Eigenschaften des Projektionsgrundes aufgreifenund visuell adaptieren.
Umsetzung
Die Installation bietet durch die Verwendung offener Kom-munikation zwischen den Komponenten und durch die Dokumentation eigener Implementierungsmöglichkeiteninnerhalb der Projektionssoftware eine Plattform zur Wei-terentwicklung. Dabei liegt der Fokus auf nicht kommerzi-ellen und offenen Software- und Hardware-Komponenten.
Crawling traces
eroberung des stadtraums durch individuell steuerbare und vernetzte Projektionen – diplomarbeit
Foyer
Deborah Schmidt
Stadtbilder
Stadtbilder wurden historisch betrachtet stets autoritär durch den architektonischen Duktus und durch politische und wirtschaftliche Ämter der entsprechenden Epoche geprägt. Heute dominieren kommerzielle Schaustellungen die Freiflächen der Großstädte. Der öffentliche Raum führt aber individuelle Personen zusammen, die unter Einbezie-hung moderner Techniken befähigt werden können, als Einzelperson oder als Gruppe den Stadtraum zu prägen.
Interaktion
Bereits etablierte Techniken zur Vernetzung von Personen, zur intuitiven Interaktion und die Verwendung von steuer-baren Projektionen binden Passanten als Akteure in einenfreien Dialog ein. Ziel dieser Arbeit ist es, Interaktionskon-zepte für vernetzte Projektionen im Stadtraum auszuarbei-ten, die im Gegensatz zu Werbebildern nicht überblenden, sondern Eigenschaften des Projektionsgrundes aufgreifenund visuell adaptieren.
Umsetzung
Die Installation bietet durch die Verwendung offener Kom-munikation zwischen den Komponenten und durch die Dokumentation eigener Implementierungsmöglichkeiteninnerhalb der Projektionssoftware eine Plattform zur Wei-terentwicklung. Dabei liegt der Fokus auf nicht kommerzi-ellen und offenen Software- und Hardware-Komponenten.
VIseA
visual search interfaces
Projekt
Zusammen mit den Projektpartnern der queo GmbH und der Unister GmbH erforscht die Professur Mediengestal-tung im Projekt VISEA neue Wege zur Exploration kom-plexer Informationsräume. Der Rahmen des Projektes erstreckt sich dabei von der Konzipierung geeigneter und intuitiver Benutzeroberflächen für die Produktsuche - hier am Beispiel der Reise- und Finanzproduktsuche betrachtet - bis hin zur visuellen Unterstützung komplexer Analyse- und Entscheidungsszenarien.
Motivbasierte Suche
Gerade für unerfahrene Nutzer ohne Expertenwissen oder konkrete Zielvorstellungen zeigen heutige Such- systeme mit einfachen Eingabemasken und Ergebnislisten erhebliches Verbesserungspotenzial. Meist ist der Nutzer darauf angewiesen, seine Suchanfrage vorab genau zu formulieren. Unter dem Begriff der „motivbasierten Su-che“ wird beispielsweise die Suche nach dem persönli-chen Traumurlaub oder einem passenden Finanzprodukt verstanden, bei dem noch keine konkrete Vorstellung vom Suchziel vorhanden ist und nur vage Vorstellungen und Motive den Suchprozess auslösen. Dies erfordert alter-native Suchkonzepte, Inspiratoren und ein intelligentes, visuelles Interface, das die Interessen und den Kontext des Nutzers einbezieht.
Das Projekt „VISEA – Visual Search Interfaces“ wird gefördert aus den
Mitteln des Europäischen Sozialfonds und dem Freistaat Sachsen
Foyer
In Kooperation mit
queo GmbH
und Unister GmbH
16:50, Vortrag (Raum 6)
VIseA – Visual search Interfaces
Motivbasierte Suche als Suchparadigma für die Produktsuche
Dr. Andreas Both und Mandy Keck
Mandy Keck
Martin Herrmann
VIseA
visual search interfaces
Projekt
Zusammen mit den Projektpartnern der queo GmbH und der Unister GmbH erforscht die Professur Mediengestal-tung im Projekt VISEA neue Wege zur Exploration kom-plexer Informationsräume. Der Rahmen des Projektes erstreckt sich dabei von der Konzipierung geeigneter und intuitiver Benutzeroberflächen für die Produktsuche - hier am Beispiel der Reise- und Finanzproduktsuche betrachtet - bis hin zur visuellen Unterstützung komplexer Analyse- und Entscheidungsszenarien.
Motivbasierte Suche
Gerade für unerfahrene Nutzer ohne Expertenwissen oder konkrete Zielvorstellungen zeigen heutige Such- systeme mit einfachen Eingabemasken und Ergebnislisten erhebliches Verbesserungspotenzial. Meist ist der Nutzer darauf angewiesen, seine Suchanfrage vorab genau zu formulieren. Unter dem Begriff der „motivbasierten Su-che“ wird beispielsweise die Suche nach dem persönli-chen Traumurlaub oder einem passenden Finanzprodukt verstanden, bei dem noch keine konkrete Vorstellung vom Suchziel vorhanden ist und nur vage Vorstellungen und Motive den Suchprozess auslösen. Dies erfordert alter-native Suchkonzepte, Inspiratoren und ein intelligentes, visuelles Interface, das die Interessen und den Kontext des Nutzers einbezieht.
Das Projekt „VISEA – Visual Search Interfaces“ wird gefördert aus den
Mitteln des Europäischen Sozialfonds und dem Freistaat Sachsen
Foyer
In Kooperation mit
queo GmbH
und Unister GmbH
16:50, Vortrag (Raum 6)
VIseA – Visual search Interfaces
Motivbasierte Suche als Suchparadigma für die Produktsuche
Dr. Andreas Both und Mandy Keck
Mandy Keck
Martin Herrmann
Annäherung an den Bildraum
studie zur bild-betrachter relation
Raum 1
Bild-Betrachter Relation
Die Rolle von Körperlichkeit im Forschungsfeld der Mensch-Computer-Interaktion steigt in den letzten zehn Jahren zunehmend. Mit unserer Forschung möchten wir entsprechende Parameter identifizieren und stärken. Dabei wird die Bedeutung des Betrachters im Sinne der Bild-Betrachter Relation im Museumskontext untersucht.
Studie
Durch diese Studie wird das Betrachterverhalten im Rah-men von Gemäldeausstellungen untersucht. Der Besu-cher betritt den nachempfundenen Museumsraum. Mit-tels Trackingtechnologie wird seine Bewegung vor den Gemälden aufgezeichnet.Bisherige Studien haben gezeigt, dass die Position des Betrachters von der Bildgeometrie beeinflusst wird. Be-sonders die laterale Ausrichtung vor den Gemälden orien-tiert sich an der Saggitalebene. Weitere Studien streben an auch die Abhängigkeit bezüglich der Distanz des Besu-chers bei der Betrachtung des Gemäldes zu untersuchen.Die ausgewählten Renaissancegemälde hängen im Ori-ginal in der Gemäldegalerie Alte Meister der Staatlichen Kunstsammlungen Dresden. Für diese Untersuchungen spielt die Bildgeometrie, damit verbunden ein perspektivi-scher Bildraum, eine große Rolle. Den gewählten Gemäl-den liegt eine gut rekonstruierbare Bildgeometrie zugrun-de. Auf Basis des Rasterfußbodens ist die Ermittlung des Maler-Augpunktes sehr gut möglich.
Stephan Jando
Tobias Hafermalz und
Franziska Hannß
Seitens Dipl.-Medieninf. Franziska Hannß wird diese Arbeit durch die
Europäische Union und den Freistaat Sachsen aus Mitteln des Euro-
päischen Sozialfonds (ESF) gefördert.
Diese Arbeit entstand im Rahmen des Forschungsseminars Medien-
gestaltung im Masterstudiengang Medieninformatik der TU Dresden.
Job
adr
iaen
sz b
erck
heyd
e:in
nena
nsic
ht d
er s
t. b
avok
erk
zu h
aarle
m, 1
665
Paol
o Po
rtog
hesi
: zei
chnu
ng
Annäherung an den Bildraum
studie zur bild-betrachter relation
Raum 1
Bild-Betrachter Relation
Die Rolle von Körperlichkeit im Forschungsfeld der Mensch-Computer-Interaktion steigt in den letzten zehn Jahren zunehmend. Mit unserer Forschung möchten wir entsprechende Parameter identifizieren und stärken. Dabei wird die Bedeutung des Betrachters im Sinne der Bild-Betrachter Relation im Museumskontext untersucht.
Studie
Durch diese Studie wird das Betrachterverhalten im Rah-men von Gemäldeausstellungen untersucht. Der Besu-cher betritt den nachempfundenen Museumsraum. Mit-tels Trackingtechnologie wird seine Bewegung vor den Gemälden aufgezeichnet.Bisherige Studien haben gezeigt, dass die Position des Betrachters von der Bildgeometrie beeinflusst wird. Be-sonders die laterale Ausrichtung vor den Gemälden orien-tiert sich an der Saggitalebene. Weitere Studien streben an auch die Abhängigkeit bezüglich der Distanz des Besu-chers bei der Betrachtung des Gemäldes zu untersuchen.Die ausgewählten Renaissancegemälde hängen im Ori-ginal in der Gemäldegalerie Alte Meister der Staatlichen Kunstsammlungen Dresden. Für diese Untersuchungen spielt die Bildgeometrie, damit verbunden ein perspektivi-scher Bildraum, eine große Rolle. Den gewählten Gemäl-den liegt eine gut rekonstruierbare Bildgeometrie zugrun-de. Auf Basis des Rasterfußbodens ist die Ermittlung des Maler-Augpunktes sehr gut möglich.
Stephan Jando
Tobias Hafermalz und
Franziska Hannß
Seitens Dipl.-Medieninf. Franziska Hannß wird diese Arbeit durch die
Europäische Union und den Freistaat Sachsen aus Mitteln des Euro-
päischen Sozialfonds (ESF) gefördert.
Diese Arbeit entstand im Rahmen des Forschungsseminars Medien-
gestaltung im Masterstudiengang Medieninformatik der TU Dresden.
Job
adr
iaen
sz b
erck
heyd
e:in
nena
nsic
ht d
er s
t. b
avok
erk
zu h
aarle
m, 1
665
Paol
o Po
rtog
hesi
: zei
chnu
ng
Vizamp – ein systemansatz für agiles Multiprojektmanagement
Projektdatenaggregation und Projektplanung für mittel-ständische unternehmen in der Wissensgesellschaft
Raum 1
Mirko de Almeida
Madeira Clemente,
Hannes Leitner
Projektbeschreibung
Zusammen mit der queo GmbH entwickelt und untersucht die Professur Mediengestaltung im Projekt „Vizamp“ neue Interface-Konzepte für Projektmanagementlösungen. Hin-tergrund sind die Unzulänglichkeiten aktueller Lösungen hinsichtlich der Unterstützung kollaborativer Planungssze-narien und die in diesem Kontext bisher noch unzureichend betrachteten Möglichkeiten, die sich aus der technolo-gischen Weiterentwicklung ergeben. Ziel des Projektes ist es, dem Planungsprozess durch ein mehrschichtiges System und die stärkere Einbeziehung der Mitarbeiter zu mehr Agilität und folglich auch mehr Planungssicherheit zu verhelfen, die insbesondere im Multiprojektmanagement eine große Herausforderung darstellt.
Anwendungsszenarien
Die im Projekt angestrebte Prozessmodellierung einer agilen Planung im Multiprojektmanagement fußt auf drei Szenarien: Projektmeeting, Projektplanung und Kapa- Meeting. Sie beeinflussen sich in hohem Maße gegensei-tig, weshalb sich die Steuerung der Kommunikationsflüsse nach dem Middle-out-Paradigma richtet. Dadurch können sowohl die Ergebnisse aus Projektmeetings (Bottom-up) als auch die Vorgaben der Projektmanager (Top-down) in die Gesamtplanung einfließen.
In Kooperation mit
queo GmbH
Das Projekt „Vizamp“ wird gerfördert aus den Mitteln des
Europäischen Sozialfonds und dem Freistaat Sachsen.
Vizamp – ein systemansatz für agiles Multiprojektmanagement
Projektdatenaggregation und Projektplanung für mittel-ständische unternehmen in der Wissensgesellschaft
Raum 1
Mirko de Almeida
Madeira Clemente,
Hannes Leitner
Projektbeschreibung
Zusammen mit der queo GmbH entwickelt und untersucht die Professur Mediengestaltung im Projekt „Vizamp“ neue Interface-Konzepte für Projektmanagementlösungen. Hin-tergrund sind die Unzulänglichkeiten aktueller Lösungen hinsichtlich der Unterstützung kollaborativer Planungssze-narien und die in diesem Kontext bisher noch unzureichend betrachteten Möglichkeiten, die sich aus der technolo-gischen Weiterentwicklung ergeben. Ziel des Projektes ist es, dem Planungsprozess durch ein mehrschichtiges System und die stärkere Einbeziehung der Mitarbeiter zu mehr Agilität und folglich auch mehr Planungssicherheit zu verhelfen, die insbesondere im Multiprojektmanagement eine große Herausforderung darstellt.
Anwendungsszenarien
Die im Projekt angestrebte Prozessmodellierung einer agilen Planung im Multiprojektmanagement fußt auf drei Szenarien: Projektmeeting, Projektplanung und Kapa- Meeting. Sie beeinflussen sich in hohem Maße gegensei-tig, weshalb sich die Steuerung der Kommunikationsflüsse nach dem Middle-out-Paradigma richtet. Dadurch können sowohl die Ergebnisse aus Projektmeetings (Bottom-up) als auch die Vorgaben der Projektmanager (Top-down) in die Gesamtplanung einfließen.
In Kooperation mit
queo GmbH
Das Projekt „Vizamp“ wird gerfördert aus den Mitteln des
Europäischen Sozialfonds und dem Freistaat Sachsen.
GeForMt
gesteneditor auf basis der gestenformalisierung für Multitouch
Raum 7
Anika Wagner
Philipp Siekmann
Dietrich Kammer
Die Entwicklung komplexer Gesten auf Basis der grund-legenden Ereignisse, die über den Beginn (touchStart), den Verlauf (touchMove) und das Ende (touchEnd) einer Berührung informieren, ist ohne weitere Abstraktion mit großem Programmieraufwand verbunden. GeForMT bietet eine kurze, prägnante und plattformunabhängige Beschreibungssprache für einfache und komplexe Mul-titouch-Gesten unter Verwendung einfacher, atomarer Gestenbestandteile. Durch die einfache, formale Beschrei-bung komplexer Gesten in menschenlesbarer Form und dem Abstrahieren von Implementierungsdetails werden Designer und Programmierer unterstützt. Trotz der men-schenlesbaren Form ist die Beschreibung der Gesten auf-grund der spezifischen Syntax und Semantik jedoch nicht trivial. Eine besondere Herausforderung liegt in der Unter-stützung der Entwickler bei der Dekomposition komplexer Gesten in ihre atomaren, durch GeForMT unterstützten Bestandteile.
Diese Arbeit baut auf einem bestehenden Gesten-Editor für GeForMT auf, welcher dem Kennenlernen der Ent-wickler mit der Sprache und der Unterstützung der Forma-lisierung dienen soll, und analysiert dessen Defizite. Auf Grundlage dessen werden die Anforderungen an einen solchen Editor genauer spezifiziert und darauf aufbauend ein neuer Editor konzipiert und prototypisch umgesetzt. Dadurch wird gezeigt, dass die Formalisierung und Imple-mentierung komplexer Multitouch-Gesten mithilfe der Ge-ForMT-Sprache und des konzipierten Editors vereinfacht werden kann. Die mit dem visuellen Editor mögliche, bild-hafte Programmierung von Multitouch-Gesten verringert die notwendige Programmierarbeit.
GeForMt
gesteneditor auf basis der gestenformalisierung für Multitouch
Raum 7
Anika Wagner
Philipp Siekmann
Dietrich Kammer
Die Entwicklung komplexer Gesten auf Basis der grund-legenden Ereignisse, die über den Beginn (touchStart), den Verlauf (touchMove) und das Ende (touchEnd) einer Berührung informieren, ist ohne weitere Abstraktion mit großem Programmieraufwand verbunden. GeForMT bietet eine kurze, prägnante und plattformunabhängige Beschreibungssprache für einfache und komplexe Mul-titouch-Gesten unter Verwendung einfacher, atomarer Gestenbestandteile. Durch die einfache, formale Beschrei-bung komplexer Gesten in menschenlesbarer Form und dem Abstrahieren von Implementierungsdetails werden Designer und Programmierer unterstützt. Trotz der men-schenlesbaren Form ist die Beschreibung der Gesten auf-grund der spezifischen Syntax und Semantik jedoch nicht trivial. Eine besondere Herausforderung liegt in der Unter-stützung der Entwickler bei der Dekomposition komplexer Gesten in ihre atomaren, durch GeForMT unterstützten Bestandteile.
Diese Arbeit baut auf einem bestehenden Gesten-Editor für GeForMT auf, welcher dem Kennenlernen der Ent-wickler mit der Sprache und der Unterstützung der Forma-lisierung dienen soll, und analysiert dessen Defizite. Auf Grundlage dessen werden die Anforderungen an einen solchen Editor genauer spezifiziert und darauf aufbauend ein neuer Editor konzipiert und prototypisch umgesetzt. Dadurch wird gezeigt, dass die Formalisierung und Imple-mentierung komplexer Multitouch-Gesten mithilfe der Ge-ForMT-Sprache und des konzipierten Editors vereinfacht werden kann. Die mit dem visuellen Editor mögliche, bild-hafte Programmierung von Multitouch-Gesten verringert die notwendige Programmierarbeit.
17:30, Vortrag (Raum 6)
Interaktionsdesign für das sammeln und strukturieren kurzlebiger Informationen
Marius Brade
Effiziente Visualisierungsmethoden zur Repräsentation von Zusammenhängen im Kontext ständiger Veränderung
Raum 6
arduino Workshop – are We on
show and tell – are We on
17:30, Vortrag (Raum 6)
Interaktionsdesign für das sammeln und strukturieren kurzlebiger Informationen
Marius Brade
Effiziente Visualisierungsmethoden zur Repräsentation von Zusammenhängen im Kontext ständiger Veränderung
Raum 6
arduino Workshop – are We on
show and tell – are We on
F-A-s-t Framing-Art-science-technology
entwicklung eines postgradualen bildungsangebotes
Idee
F-A-S-T ist ein Pilotprojekt, das den Aufbau eines postgra-dualen Bildungsangebots beabsichtigt und mit ESF-Mit-teln gefördert wird. Es verbindet künstlerische, wissen-schaftliche und technische Forschung und Umsetzung. Die Vernetzung von Kunst, Wissenschaft und Technologie bilden den Schwerpunkt der Lehre bei F-A-S-T, um inter-disziplinäre Kommunikations-, Denk und Handlungsfor-men zu entwickeln und zu etablieren.
Erprobung
Wissenschaftler, Künstler und Ingenieure bringen jeweils unterschiedliches spezifisches Fachwissen gekoppelt mit ihrem eigenen Sprachverständnis mit. Als Basis der Kom-munikation zwischen den Disziplinen muss zunächst eine gemeinsame Sprache durch gegenseitiges in Beziehung- setzen entwickelt werden, welches über das eigene Sprachverständnis hinaus verweist. Erst durch gegensei-tiges Begreifen entsteht Raum für gemeinsames Denken und Handeln über die Begrenzung der eigenen Kompe-tenzen hinaus. So wird durch die vielfältige Zusammen-setzung und Zusammenführung theoretischer und prak-tischer Lehrangebote ein Austausch für gemeinsame Projektarbeiten geschaffen. Auf der Grundlage interdiszi-plinären Denkens und Vorgehens entstehen neue Hand-lungsräume und Erkenntnisstrukturen, die im Rahmen des Bildungsangebots F-A-S-T entwickelt und erprobt werden und zum Aufbau des Bildungsangebots beitragen.Die Arbeit an interdisziplinären Projekten wird durch Vorle-sungen, Seminare, Workshops und Projektkonsultationen aus unterschiedlichen Fach- und Wissensgebieten beglei-tet. In diesem offenen System der Lehre und Wissensver-mittlung werden die studentischen Teilnehmer von exter-nen Dozenten aus den verschiedensten Disziplinen sowievon künstlerischen und wissenschaftlichen Mitarbeitern des Projekts betreut. Die Aufbauphase des Bildungsange-bots läuft bis Dezember 2014.
Dieses Projekt wird gefördert durch die Europäische Union und den
Freistaat Sachsen aus Mitteln des Europäischen Sozialfonds (ESF).
Kooperationspartner
Das Pilotprojekt F-A-S-T
ist eine Kooperation der
Hochschule für Bildende
Künste Dresden mit der
Technischen Universität
Dresden und der
Hochschule für Technik
und Wirtschaft Dresden
Prof. Christian Sery
Prof. Dr.-Ing. habil.
Rainer Groh
Prof. Dr. Markus Wacker
Grit Koalick
Deborah Schmidt
Axel Berndt
Claudia Schötz
Jonas Loh
Erik Zimmermann
Sebastian Gassel
show and tell. herzprojekt von franziska hoffmann, Jakoba schönbrodt-riehl und Wolff-roberto schimpf
visualisierung von tCP-Paketen.
Materialisierung und darstellungsweisen von gedankenprozessen – Workshop von gunnar green und dominique hurth (bauhaus universität Weimar)
Foyer
F-A-s-t Framing-Art-science-technology
entwicklung eines postgradualen bildungsangebotes
Idee
F-A-S-T ist ein Pilotprojekt, das den Aufbau eines postgra-dualen Bildungsangebots beabsichtigt und mit ESF-Mit-teln gefördert wird. Es verbindet künstlerische, wissen-schaftliche und technische Forschung und Umsetzung. Die Vernetzung von Kunst, Wissenschaft und Technologie bilden den Schwerpunkt der Lehre bei F-A-S-T, um inter-disziplinäre Kommunikations-, Denk und Handlungsfor-men zu entwickeln und zu etablieren.
Erprobung
Wissenschaftler, Künstler und Ingenieure bringen jeweils unterschiedliches spezifisches Fachwissen gekoppelt mit ihrem eigenen Sprachverständnis mit. Als Basis der Kom-munikation zwischen den Disziplinen muss zunächst eine gemeinsame Sprache durch gegenseitiges in Beziehung- setzen entwickelt werden, welches über das eigene Sprachverständnis hinaus verweist. Erst durch gegensei-tiges Begreifen entsteht Raum für gemeinsames Denken und Handeln über die Begrenzung der eigenen Kompe-tenzen hinaus. So wird durch die vielfältige Zusammen-setzung und Zusammenführung theoretischer und prak-tischer Lehrangebote ein Austausch für gemeinsame Projektarbeiten geschaffen. Auf der Grundlage interdiszi-plinären Denkens und Vorgehens entstehen neue Hand-lungsräume und Erkenntnisstrukturen, die im Rahmen des Bildungsangebots F-A-S-T entwickelt und erprobt werden und zum Aufbau des Bildungsangebots beitragen.Die Arbeit an interdisziplinären Projekten wird durch Vorle-sungen, Seminare, Workshops und Projektkonsultationen aus unterschiedlichen Fach- und Wissensgebieten beglei-tet. In diesem offenen System der Lehre und Wissensver-mittlung werden die studentischen Teilnehmer von exter-nen Dozenten aus den verschiedensten Disziplinen sowievon künstlerischen und wissenschaftlichen Mitarbeitern des Projekts betreut. Die Aufbauphase des Bildungsange-bots läuft bis Dezember 2014.
Dieses Projekt wird gefördert durch die Europäische Union und den
Freistaat Sachsen aus Mitteln des Europäischen Sozialfonds (ESF).
Kooperationspartner
Das Pilotprojekt F-A-S-T
ist eine Kooperation der
Hochschule für Bildende
Künste Dresden mit der
Technischen Universität
Dresden und der
Hochschule für Technik
und Wirtschaft Dresden
Prof. Christian Sery
Prof. Dr.-Ing. habil.
Rainer Groh
Prof. Dr. Markus Wacker
Grit Koalick
Deborah Schmidt
Axel Berndt
Claudia Schötz
Jonas Loh
Erik Zimmermann
Sebastian Gassel
show and tell. herzprojekt von franziska hoffmann, Jakoba schönbrodt-riehl und Wolff-roberto schimpf
visualisierung von tCP-Paketen.
Materialisierung und darstellungsweisen von gedankenprozessen – Workshop von gunnar green und dominique hurth (bauhaus universität Weimar)
Foyer
technische universität dresdenfakultät informatikProfessur für Mediengestaltung01062 dresden
fon + 49 (0) 351 – 463 - 38 550
http://mg.inf.tu-dresden.de/
Professur Medien- gestaltung bei outPut
4 Juli 2013