Zusammenfassung der letzten Wochen, Fazit

In den letzten Wochen haben wir einige Versuche unternommen die anfangs geplante „direkte“ Steuerung, statt die Steuerung über Neigung umzusetzen. Leider stellte sich heraus das wir diese im Rahmen des Projekts nicht umsetzen können werden. Wir haben stattdessen zwei Features hinzugefügt die schon länger geplant waren.

Zunächst die Möglichkeit Gegenstände über einen Drucksensor an den Händen der Puppe aufzuheben und bei gleichzeitiger Bewegung und gedrücktem Drucksensor diese Gegenstände auch zu bewegen. Da der Drucksensor bereits seit einigen Wochen problemfrei lief war die Umsetzung dieses Features nicht so kritisch, und es funktioniert nun auch problemfrei.Beim zweiten Feature, der Erkennung vordefinierter Gesten haben wir uns auf eine einfache Geste beschränkt, die Erkennung dieser funktioniert dafür recht zuverlässig. Bei schnellem Anheben der Puppe führt die Figur nun eine Sprunganimation aus. Aus Zeitgründen habe ich es leider nicht mehr geschafft die Animationen per Geste und die Zustände der Gegenstände in die eigentliche Aufnahme (per XML) zu übernehmen, die abgesprochenen Funktionen sind allerdings fertig geworden.

Insgesamt fand ich das Projekt sehr interessant, die Entwicklung von der ürsprünglichen Idee zum funktionsfähigen Prototypen mit allen Hürden und Wendungen hat mir zumindest einige neue Denkansätze im Bereich Interaktionstechnologien gebracht. Die Ergebnisse der beiden Evaluationen waren besonders hilfreich, hier hat sich gezeigt welche Teile unserer Ideen kritisch waren, und im Regelfall haben wir den Ansatz der Verbesserung direkt aus dem Feedback der Evaluation ableiten können, bspw. bei Problemen mit bestimmten Begriffen in der UI. Wenn es möglich ist die direkte Steuerung zufriedenstellend umzusetzen wäre dies wohl der wichtigste Punkt für eine Weiterentwicklung des Projekts, abgesehen von „mehr Features“ die bei der Benutzung der Animationspuppe mehr Kombinationen erlauben um vielfältigere Aufnahmen zu ermöglichen. In dem Bereich sind viele Möglichkeiten denkbar, angefangen von Sprachaufnahme, über das hinzufügen eines zweiten Charakters (entweder gesteuert von einem Menschen oder einfach mit geskripteten Aktionen) bis hin zu kontextsensitiven Gesten die bestimmte Animationen mit der Levelarchitektur triggern (wir haben uns ja bisher nur auf 2D-Hintergründe beschränkt).

Hinterlasse einen Kommentar