Ein Projekt zwischen Design-Sprint, Minimum Viable Product und User Centered Design.
Schwerpunkte der Interaktionsgestaltung und Internet der Dinge
Wie macht man ein Design-Projekt in einem interdisziplinärem Team?
Wie erlangt man schnell zu Erkenntnissen und Entwürfen im Lösungsraum?
Ein Projekt zwischen Design-Sprint, Minimum Viable Product und User Research.
Workshops mit Externen und Internen Dozierenden ergänzen das Projekt.
Lehrinhalt
Lean Frameworks und Designmethoden.
Lernziel »Wir irren uns empor« (Harald Lesch).
Analytische Herangehensweise und Erkenntnisgewinn aus (gescheiterten) Projekten.
Mit einigen Leitplanken ist das Fehler-Machen erwünscht und dient dem Lernprozess! Nicht das Ergebnis steht im Vordergrund, sondern der Prozess.
Prof. Hans Krämer, Prof. Jens Döring, Lena Fricke, Prof. Günther Biste, Prof. Dr. Markus Weinberger, Vanessa Stoeckel
StageTime - Live Musik Online
Zu Beginn beobachteten wir, dass Plattformen wie Youtube keine guten Interaktionsmöglichkeiten für das Publikum bei Live Konzerten bieten. Auf den gängigsten Live Plattformen im Web ist die Kommunikation meist auf Chats beschränkt und die anderen User sind nicht visuell dargestellt. Ausserdem gibt es selten gute Filter möglichkeiten, was mit sich führt das jeder alles lesen und verstehen muss und nicht einfach nur mit seinem direkten nebensitzer Kommunizieren kann.
Wir formulierten folgende Question Zero:
Wie können wir Musik Liebhabern helfen emotionen und begeisterung im Internet auszuleben und mit anderen zu teilen?
Die Hauptanforderungen
Durch Stagetime soll es möglich werden, dass Leute während sie sich unterhalten auch ihr Körperbewegung visuell via Motion Capture wiedergeben. Dadurch sollen Leute ermutigt werden auch daheim am Computer sich zur Musik zu bewegen. Ausserdem soll der Input der Masse gefilter werden. Durch einen Annäherungs Voice Chat machen wir es möglich das nur eine direkte Kommunikation entsteht, das Bild auf die ganze Masse aber erhalten bleibt. Natürlich gibt es kein Konzert ohne Musik, deshalb soll die Musik und der visuelle eindruch der Musiker immer im Mittelpunkt stehen und sichtbar sein. Zu guter letzt soll die Anwendung für jeden zugänglich sein. Deshalb entschieden wir uns gegen VR um zusätzliche Hardware zu vermeiden.
Interaktionselemente
Anfangs wollten wir das Konzert in unterschiedliche Räume unterteilen um möglichst viele Anwendungsfälle abzudecken. Im Verlauf des Prozesses entdeckten wir möglichkeiten um alle in einem Raum zu behalten und trotzdem möglichst viele Use Cases abzudecken.
*die einzelnen Interaktionen werden im Video dargestellt
Figuren
Dynamischer Detailgrad
Figuren in der Nähe werden mit voller Motion-Capture Pose angezeigt, entfernte Figuren werden vereinfacht.
Räumliche Verzerrung
Der Raum wird gedehnt, um nahe Figuren übersichtlicher darzustellen.
Dynamische Lautstärke
Die Lautstärke der Musik passt sich abhängig der Distanz zur Bühne an.
Freunde finden im Getümmel
Ist die Freundesliste ausgeklappt, werden Richtungsweiser zu Freunden angezeigt.
Durch klicken auf diese wird man zu den entsprechenden Nutzern teleportiert.
Anonym aktiv
Der anonyme Modus bietet Motion-Capture ohne das Gesicht zu zeigen.
Sprechblase
Gespräche in einem eigenen Space innerhalb des Konzerts.
Hinterlasse einen Kommentar