Der Drehknopf für die Programmwahl, der Taster zur Selektion weiterer Vorgaben, das Piepen beim Ein- und Ausschalten, die Lichtinformation über den Betriebsstatus, das Display zur Anzeige von gewählten Funktionen und die Statusanzeige über den Fortschritt des Bearbeitungsprozesses sowie Vibration und Geräusche während der Ausführung der gewünschten
Arbeitsschritte: Eine ganze Menge, was wir da als Nutzer im Umgang mit Maschinen erfassen, interpretieren und ausführen müssen. Und das für z.T. vergleichbar einfache Prozesse wie z.B. Wäschewaschen, eine Erfrischung ziehen oder einen Kaffee zubereiten. An vielen Produkten, die uns tagtäglich umgeben – aber auch im industriellen Umfeld – sind die Formen der Interaktion, des Dialogs zwischen Mensch und Maschine optisch, akustisch und haptisch vielfältig – kurz multimodal.
Wir haben uns in den beiden Projektgruppen jeweils anhand eines beispielhaften Anwendungsfalls mit unterschiedlichen Modalitäten von Interaktion auseinandergesetzt und das Vorgehen der menschzentrierten Produktentwicklung interaktiver Systeme strukturell wie methodisch bearbeitet: Von User Research, über Anforderungsdefinition, Lösungsentwicklung / Prototyping bis hin zur Evaluation interaktiver Systeme.
Im Kurs Interface Design II beschäftigten wir uns über das Semester hinweg mit der nutzerzentrierten Gestaltung von Schnittstellen zwischen Mensch und Maschine. Ziel des Semesterprojektes war es, ein solches Interface auf die Nutzerbedürfnisse einer Zielgruppe zugeschnitten zu gestalten. Dabei sollte das Projekt eine haptische Komponente aufweisen und die Interaktion im Detail ausgearbeitet werden.
Für unser Semesterprojekt wählten wir die Gestaltung eines Gaming-Controllers, der mit einer Hand bedienbar ist. Konventionelle Controller sind auf eine Bedienung mit beiden Händen ausgelegt und in der Interaktion recht simpel, allerdings müssen die Eingaben am Controller oft reaktionsschnell erfolgen, daher ist eine intuitive Bedienung notwendig. Körperlich eingeschränkte Gamer oder solche, die mit nur einer Hand spielen möchten, müssen bisher auf unpraktische Lösungen zurückgreifen oder haben ein stark eingeschränktes Spielerlebnis. Um das Projekt in einen konkreteren Kontext stellen zu können, fokussierten wir uns auf das Spielgenre der Egoshooter. Spiele dieser Art gehören zu den komplexesten und gleichzeitig schnellsten Spielen.
Nach einer ausführlichen Recherche und Analyse von gängigen Controllersystemen und deren Funktionsweise testeten und befragten wir einige Nutzer, um die Anforderungen an unseren Controller zu definieren.
Auf dieser Grundlage entwickelten wir erste Konzepte und kneteten Prototypen, um die Ergonomie und Umsetzbarkeit unserer Ideen zu testen.
In mehreren Iterationen verfeinerten wir das Konzept bis hin zum finalen Prototypen, den wir dann digital modellierten.
Die Funktionsweise des OneCon ist in unserem Produktvideo genauer erklärt.