Der Mensch-Maschine-Dialog erfolgt auf verschiedenen Ebenen (u.a. optisch, akustisch und haptisch). Es wurden Interaktionsmöglichkeiten für Produkte entwickelt, die die verschiedenen Sinneskanäle der Nutzer*innen berücksichtigen.
Hands on ;)
Multimodale Interaktion
Der Drehknopf für die Programmwahl, der Taster zur Selektion weiterer Vorgaben, das Piepen beim Ein- und Ausschalten, die Lichtinformation über den Betriebsstatus, das Display zur Anzeige von gewählten Funktionen und die Statusanzeige über den Fortschritt des Bearbeitungsprozesses sowie Vibration und Geräusche während der Ausführung der gewünschten Arbeitsschritte. Mit vielen Produkten, die uns tagtäglich umgeben – aber auch im industriellen Umfeld – sind die Formen der Interaktion, des Dialogs zwischen Mensch und Maschine optisch, akustisch und haptisch vielfältig – kurz multimodal.
Wir haben uns mit diesen unterschiedlichen Modalitäten von Interaktion auseinandergesetzt und anhand eines beispielhaften Anwendungsfalls neue Lösungsoptionen erarbeitet. Das Projektthema – ob Automaten, Haushaltsprodukte, Maschinen oder Fahrzeugkomponenten etc. – war dabei frei wählbar. Der Arbeitsprozess umfasste User Research, Anforderungsdefinition, Lösungsentwicklung / Prototyping sowie die Evaluation interaktiver Systeme.
In Deutschland leiden ca. 16 Millionen Menschen an einer Hörschädigung. Hörgeräte können zwar dabei helfen die Wahrnehmung der Lautstärke auszugleichen, jedoch ist das Richtungshören weiterhin stark beeinflusst. So werden auditive Signale - wie beispielsweise die Sirene eines Einsatzfahrzeuges - oftmals zu spät und ohne Orientierung wahrgenommen. Mit SIGNALUX helfen wir Menschen, die an einer Hörschädigung leiden, sich im Staßenverkehr besser zurecht zu finden.
Research
Durch Interviews mit Hörgeschädigten, Einsatzkräften aus Polizei und Rettungsdienst, einer Fahrlehrerin und einer Hörakustikerin konnten wir wichtige Insights zum Thema Verkehrssituationen und Hören gewinnen. “Wie reagieren die meisten Verkehrsteilnehmer auf Einsatzfahrzeuge mit aktiviertem Folgetonhorn?” und “Welche Warnsignale werden bei welchen Verkehrssituationen ausgesendet?”. Dabei stellte sich heraus, dass vor allem im städtischen Straßenverkehr die meisten Gefahrensituationen entstehen. Zum einen durch die erhöhte Verkehrsdichte und zum anderen durch die Vielzahl der verschiedenen Verkehrsteilnehmer, wie sie in keinem anderen Bereich des Straßenverkehrs zu beobachten ist. Neben anderen auditiven Warnsignale spielen vor allem das Folgetonhorn, die Hupe und die Fahrradklingel die Hauptrollen.
Use Cases
Auf Basis unseres Research haben wir Personas definiert. Da die größten Gefahren im innerstädtischen Straßenverkehr für Fußgänger und Radfahrer lauern, basiert unser Konzept auf den beiden Personas und Use Cases “Fußgänger” und “Radfahrer”.
Funktionsprinzip
SIGNALUX wandelt auditive Warnsignale in visuelles und haptisches Feedback um. Hierdurch werden Betroffene rechtzeitig auf mögliche Gefahren hingewiesen und ihnen eine rechtzeitige und gefahrlose Reaktion zu ermöglicht. Das visuelle Feedback wird in Form einer Annäherungsanimation auf dem Display des Hauptmoduls angezeigt. Die Animation variiert je nach Typ des Warnsignals. So gibt es auch Unterschiede zwischen einer Hupe und einem Einsatzfahrzeug, welches sich nährt. Das auditive Signal einer Hupe ändert ihre Entfernung nur geringfügig, während das Folgetonhorn eines Einsatzfahrzeugs sich je nach Situation nährt/ entfernt. Dabei werden die Animationen erst ab dem Erkennen eines Warnsignals bis zum letzten Ton des Signals angezeigt. Demnach muss die Visualisierung der Hupe und der Fahrradklingel nach dem letzten Signalton so lange angezeigt, bis die Anzeige manuell über den Button am Hauptmodul deaktiviert wird. Im Ruhezustand wird dann eine Uhr angezeigt. Das haptischee Feedback wird als Vibrationspattern ausgegeben.
Module
SIGNALUX basiert auf dem Modulprinzip. Das Hauptmodul ist mit Mikrofonen ausgestattet, welche auditive Signale der Umgebung aufnehmen. Eine Recheneinheit sorgt für die Umrechnung der Signale und spielt diese auf das Display auf. Mit einem Button wird das Hauptmodul gesteuert. Mit einem Bajonettverschluss wird das Hauptmodul an die Befestigungsmodule Armband und Fahrradlenkerhalterung gekoppelt. Zum Armband gehören Vibrationsmotoren, welche nach dem definierten Vibrationspattern angesteuert werden. Im Gegensatz zum Armband sind an der Fahrradlenkerhalterung keine Vibrationsmotoren angebracht, da diese beim Fahren nicht richtig wahrgenommen werden können, da sie durch den Lenker nicht ausreichend übertragen werden. Wenn als Fußgänger Oberteile mit längeren Ärmeln getragen werden, können die Mikrofone des Hauptmoduls alleine nicht mehr ausreichen. Dafür kann ein weiteres Modul, das 360° Lavalier Mikrofon verwendet werden.
Umsetzung
Die Umsetzung des Projektes basiert auf einem Designprototyp und einem Funktionsprototyp. Zum Designprototyp zählen die 3D Modellierung der Module mit Hilfe von Cinema 4D und dem 3D Druck der Modelle. Das Screen Designs und Animationen, welche in AfterEffects erstellt wurden zählen ebenfalls zum Designprototyp. Der Funktionsprototyp basiert auf verschiedenen elektronischen Bauteilen (Mikrofone, Vibrationsmotoren, …), welche mit einem Arduino verbunden und mit Code bespielt wurden. Beide Prototypen wurden nach der Umsetzung mit der Zielgruppe vertestet.
Vielen Dank für das Interesse.
Wir wünschen viel Spaß beim Betrachten der Videos.
Nähere Informationen zum Projekt finden sich in der Dokumentation.
Bei Fragen oder Anmerkungen freuen wir uns über einen Kommentar.
Hinterlasse einen Kommentar