Wie lassen sich Controller entwickeln, die die Aktionen und Bewegung eines Roboters im Raum steuern? Die Studierenden haben entsprechende Interfaces bearbeitet, um die Interaktion zwischen Mensch und Maschine zu optimieren.
„IBF 4.3“ ist ein Interface für die Bedienung bodenfahrender Fahrzeuge. In unserem erdachten Kontext wird er als Gerät des Technischen Hilfswerks im öffentlichen Dienst (hier: bei der Feuerwehr) eingesetzt. Ziel ist es, eine optimale Affordance, Ergonomie und Multitasking-Fähigkeit zu ermöglichen.
Aufgabenstellung
Im Kurs „Interface I“ bestand die Aufgabe darin, einen Controller für ein ferngesteuertes Fahrzeug zu gestalten, das neben den üblichen Richtungsbewegungen zusätzlich mit einem Greifarm ausgestattet ist. Dabei wurde von Beginn an besonderer Wert auf die Nützlichkeit und intuitive Bedienbarkeit des Interfaces gelegt. Ziel war es, am Ende des Kurses mithilfe des Controllers und des Fahrzeugs eine Flasche mit dem Greifarm aufzunehmen, diese durch einen Hindernisparcours zu transportieren und sicher an einem Zielort abzustellen.
Skizzen
Die zentralen Gestaltungskriterien unseres Interfaces waren Ergonomie, Multitasking und intuitive Bedienbarkeit. Die ergonomische Ausrichtung, symbolisiert durch die SZ-Stange als roter Faden, sollte eine freie Nutzung im Sitzen, Stehen oder Gehen ermöglichen. Gleichzeitig musste das System erlauben, Fahrzeug und Greifarm parallel zu steuern. Eine klare Affordanz war entscheidend, damit die Bedienung schnell verständlich ist. Wir entschieden uns früh für eine beidhändige Steuerung, da sie bessere Kontrolle und leichteres Multitasking bietet. Zudem legten wir Wert auf hohe Responsiveness mit stufenlosen Einstellungen, sofortigem Feedback und einer Return-to-Center-Funktion.
Modelle
In den ersten beiden Modellen arbeiteten wir mit einer statischen SZ-Stange mit Gashebel rechts und Rückwärtshebel links; weitere Funktionen sollten über die Daumen gesteuert werden. Dabei zeigte sich jedoch, dass das Mapping wenig intuitiv war und die Daumen mit Aufgaben überladen wurden.
Modell 3 verfolgte daher einen anderen Ansatz: Die Steuerung des Greifarms wurde vollständig auf die Bewegung der Stange gemappt, sodass beide Daumen klar und einfach zugeordnet werden konnten. In der Recherche stellten wir fest, dass eine Stange mit zwei Händen sechs Freiheitsgrade ermöglicht – Vor/Zurück, Rechts/Links, Oben/Unten sowie horizontale Rotation, vertikale Rotation und Torsion –, die wir gezielt für unser Interface nutzbar machen wollten.
Mapping
Nach internen Tests entschieden wir uns für folgendes Mapping: Torsion der Stange steuert Vor- und Rückwärtsfahrt, da dies von den meisten intuitiv so ausgeführt wurde. Seitliches Verschieben entspricht dem seitlichen Fahren, was aufgrund des offensichtlichen Mappings eine klare Affordance schafft. Vertikale Rotation dient zum Lenken in einer autoähnlichen Bewegung, die ebenfalls überwiegend intuitiv gewählt wurde.
Ein Drehregler steuert das Aus- und Einfahren des Greifarms; hier verzichteten wir bewusst auf Selbstzentrierung, um präzise Einstellungen zu ermöglichen. Das Greifen des Hebels löst das Schließen des Greifarms aus – auch hier wegen des naheliegenden Mappings, wobei ein standardmäßig geschlossener Griff Multitasking zusätzlich erleichtern könnte.
Funktionsprototypen
Der erste Prototyp nutzte eine kardanische, mit Gummibändern selbstzentrierende Aufhängung und Schiebepotentiometer zur Erfassung der Bewegungen. In der Praxis erzeugten jedoch Lagerung, Potis und Gummis zu viel Reibung, sodass sich eine große Lücke zwischen Konzept und realer Benutzbarkeit zeigte.
Beim zweiten Prototypen kamen Stretch-Sensoren zum Einsatz. Diese erwiesen sich jedoch als ungeeignet für präzise Steuerung, da sie nur einen sehr kleinen nutzbaren Wertebereich hatten und ihre Messwerte durch Dehnung und Temperatur drifteten. Sie funktionierten eher als binäre Sensoren als für kontinuierliche Eingaben.
Im dritten Prototypen wurde das Seitwärtsfahren gestrichen, wodurch ein einfacher Joystick eingesetzt werden konnte. Reibungsprobleme blieben, konnten aber mit Graphitschmierung verbessert werden. Gleichzeitig wurde die Stange ergonomisch überarbeitet und entfernte sich von der SZ-Stangen-Idee hin zu einer Form, die stark an ein Flugzeug-Steuerhorn (Boeing Yoke) erinnert. Diese Parallele zu einem bewährten Interface bestärkte das Team darin, dass das Konzept grundsätzlich tragfähig und markttauglich sein könnte.
User -Testings
Die User-Testings haben wir in drei Teile gegliedert:
1. Erstes Modell – Grundgefühl für Halterung und Lenkung
Die Probanden sollten anhand unseres ersten Modells ein Gefühl für die Halterung und die Lenkung entwickeln und dabei idealerweise bereits erkennen, welche Lenkung für welche Steuerung vorgesehen ist.
2. Funktionsprototyp – Trockenübung und Simulation
Anschließend sollten sich die Probanden mit dem Funktionsprototypen zunächst „trocken“ an die Lenkung gewöhnen und durften danach mithilfe einer Simulation den Prototypen praktisch testen.
3. Überprüfung der Anwendbarkeit unseres Use Cases
Um die Anwendbarkeit unseres Use Cases zu testen, sollten die Probanden beantworten, ob sich die Gestaltung und Steuerung unseres Controllers für die Nutzung beim Videospielen, bei der Lenkung eines Gabelstaplers in der Logistik und bei der Bedienung eines Baggers in der Baustellenarbeit eignen würde.
Insgesamt war das Feedback der Probanden sehr positiv. Allerdings äußerten zwei Probanden im dritten Teil des Testings ihr Wissen über die genannten Nutzungskontexte und kamen zu dem Schluss, dass der Controller für diese spezifischen Anwendungen weniger geeignet sei. Grund dafür ist, dass unsere Lenkung stärker auf grobe Bewegungen ausgelegt ist und weniger auf präzise Steuerung.
Diese Rückmeldung führte zur Neuausrichtung unseres Use Cases. Nach längerer Überlegung entschieden wir uns für eine neue Anwendung: die Nutzung des Controllers in öffentlichen Diensteinsätzen als Ergänzung zu den bereits präsenten Hilfskräften vor Ort.
Neue Nutzungskontexte
Ausgehend von unseren Kriterien wählten wir Nutzungskontexte, in denen ein großes, robustes und kostspieliges Interface sinnvoll ist – insbesondere Industrie und kritische Infrastruktur. Es sollte schnell erlernbar sein, hohe Nutzerfluktuation verkraften und mobil einsetzbar sein.
Aufgrund der Bedienbeschränkungen auf Daumen und Zeigefinger eignet sich das Interface eher für überschaubare Aufgaben statt für komplexe Maschinen.
Daraus leiteten wir konkrete Use Cases ab: Lagerwirtschaft mit mobilen Greifrobotern, Landwirtschaft in räumlich engen Bereichen wie Weinbau oder Gewächshäusern, und Feuerwehr/Katastrophenschutz für ferngesteuerte Erkundungs- und Löschroboter. Weitere potenzielle Einsatzfelder sind Forstwirtschaft, Wachschutz oder kommunale Dienste, konzentriert haben wir uns jedoch auf die ersten drei Szenarien.
Unser Interface
Geschirr:
Das Interface ist als robuster Rucksack konzipiert, der bekannt, verständlich und anpassungsfähig ist. Die Höhe lässt sich einhändig über einen Schraubknopf verstellen, um schnelle Anpassungen zu ermöglichen.
Lenkstange:
Die Lenkstange nutzt ein kulturell vertrautes Steuerkonzept: Der Zylinder signalisiert durch seine Form die Drehbewegung, die Richtung ist intuitiv erfassbar. Die Tiefenverstellung erfolgt über einen Druckknopf mit Griffplatte, die Skala auf der Stange dient als Signifier für die Torsionsfunktion. Der An-/Aus-Knopf ist bewusst außerhalb des Lenkbereichs platziert.
Armsteuerung:
Ein Drehregler ermöglicht stufenlose Einstellungen zwischen definierten Anschlagpunkten, sodass der Arm innerhalb einer Daumenbewegung präzise positioniert werden kann. Das Material ist texturiertes Hartplastik für haptisches Feedback.
Greifersteuerung:
Der Greifer wird über einen großflächigen Druckknopf gesteuert, der graduelles Greifen erlaubt. Ein abstehender Hebel wurde vermieden, um Verriegelungsprobleme, besonders mit Handschuhen, zu verhindern.