In der Bachelor-Arbeit im 7. Semester bearbeiten die Studierenden anhand eines frei wählbaren Themas ein Gestaltungsprojekt, in dem sie ihre erlernten Kenntnisse in Recherche, Konzept und Entwurf praktisch anwenden.
ArcherAI — Eine virtuelle Trainingsassistenz für traditionelle Bogenschützen
ArcherAI ist ein konzeptioneller Ansatz für eine mobile Applikation, die das Smartphone zum Trainingspartner für Bogenschützen macht. Ziel der Arbeit war es, eine technologische Lösung zu entwickeln, die das technische Training zu Hause ermöglicht, ohne dabei auf externes Feedback verzichten zu müssen.
Das System nutzt Computer Vision (Google’s MediaPipe), um die Körperhaltung des Schützen über die Frontkamera zu analysieren und in Echtzeit auszuwerten. Dabei positioniert sich die Anwendung nicht als Ersatz für den Vereinstrainer, sondern als ergänzendes Werkzeug zur Qualitätssicherung im Heimtraining.
Ausgangslage
Bogenschießen erfordert eine hohe Präzision und konstante Wiederholbarkeit der Bewegungsabläufe. Im Vereinssport betreut ein Trainer jedoch oft bis zu 15 Schützen gleichzeitig, wodurch individuelle Korrekturen limitiert sind. Übt ein Anfänger daraufhin alleine zu Hause, besteht ohne Feedback das Risiko, sich fehlerhafte Bewegungsmuster ins Muskelgedächtnis anzutrainieren, die später mühsam korrigiert werden müssen.
Die Kernfrage:Wie können Schützen zu Hause trainieren — mit Feedback, aber ohne Trainer?
Zielsetzung & Aufgabenverteilung
Ein zentraler Aspekt des Konzepts ist die klare Abgrenzung der Kompetenzbereiche zwischen App und Mensch. Das System erhebt nicht den Anspruch, die gesamte Komplexität des Sports abzubilden, sondern fungiert als “verlängerter Arm” des Trainers:
ArcherAI (App): Übernimmt die Überwachung grobmotorischer Parameter und biomechanischer Grundlagen (z.B. Stand, Schulterlinie, Körperrotation) bei repetitiven Trockenübungen.
Vereinstrainer (Mensch): Konzentriert sich auf feinmotorische Details (z.B. Fingerhaltung, Release, mentale Aspekte) und die Arbeit mit Pfeil und Bogen auf der Schießbahn.
Aufgabenverteilung zwischen App und Trainer
Funktionsweise & Interaktionskonzept
Der Kern des Konzepts ist die Analyse von Trockenübungen. Da der Blick des Schützen während des Auszugs auf dem Ziel ruht und nicht auf ein Display gerichtet werden kann, wurde ein multimodales Feedback-System entwickelt:
Auditiv: Primäre Fehlerkorrektur durch Sonifikation (Tonhöhenänderung bei Haltungsfehlern bzw. Fehlerimpulsen bei direkten Fehlern) und Text-to-Speech-Hinweise.
Visuell: Ein reduziertes Interface mit Ampel-System (Grün/Rot) und Skelett-Visualisierung, das auch aus mehreren Metern Entfernung gut erkennbar ist.
Durchlauf einer Lektion
Trainer-Integration
Um die fachliche Korrektheit zu gewährleisten, ist das System eng an den Vereinstrainer gekoppelt. Über ein webbasiertes Dashboard kann der Trainer Übungspläne erstellen und den Fortschritt seiner Schützen asynchron einsehen.
Trainer Kopplung und Trainer Dashboard
Kritische Parameter, wie etwa die korrekte Endposition, werden initial gemeinsam mit dem Trainer über ein Referenzbild kalibriert. Dies verhindert, dass die KI eine falsche Haltung als “korrekt” erlernt.
Posen Kalibrierung als Teil des Onboardings
Didaktischer Aufbau
Die Anwendung dekonstruiert den komplexen Schussablauf in sieben isolierte Lektionen, die in vier Phasen gegliedert sind (Fundament, Aufbau, Anker, Abschluss). Das System erzwingt dabei ein nachhaltiges Lerntempo: Um das nächste Level freizuschalten, reicht ein einmaliger Erfolg nicht aus.
Stattdessen greift ein Konsistenz-Mechanismus: Ein Level gilt erst dann als permanent gemeistert, wenn es über mehrere Trainingseinheiten hinweg erfolgreich absolviert wurde. Dies verhindert das schnelle “Durchspielen” der App und stellt sicher, dass sich die motorischen Abläufe tatsächlich im Muskelgedächtnis verfestigen, bevor die Komplexität gesteigert wird.
Aufteilung des Schussablaufs in 7 Lektionen
Technischer Prototyp & Prozess
Im Rahmen der Arbeit wurde ein funktionaler Web-Prototyp entwickelt, der die Machbarkeit der Bilderkennung im Browser demonstriert. Die technische Umsetzung basiert auf MediaPipe Pose für das Tracking von 33 Körper-Keypoints sowie Tone.js für das Echtzeit-Audio-Feedback.
Tech Stack der Funktionsprototypen
Ursprünglich zu Beginn des Projekts wurden auch hardware-basierte Ansätze (Sensoren am Bogen) überlegt. Diese wurden jedoch nach weiterer Recherche und Nutzerbefragungen zugunsten der Barrierefreiheit verworfen, um eine Lösung zu schaffen, die ohne zusätzliche Hardware auf jedem modernen Smartphone funktioniert.
Fazit
Das Projekt zeigt, dass präzises Bewegungs-Tracking heute keine kostenintensive Spezialhardware mehr erfordert, sondern durch intelligente Software auf Alltagsgeräten gelöst werden kann. ArcherAI validiert den Ansatz des “Audio-First”-Feedbacks für Sportarten, die hohe visuelle Aufmerksamkeit fordern, und zeigt, wie hybride Trainingsmodelle die Lücke zwischen Präsenzunterricht und Eigenstudium schließen können. Das System ersetzt dabei nicht das menschliche Coaching, sondern skaliert dessen Reichweite und Qualität in den häuslichen Bereich.