Mid-Air Gesture-Based Interface: Developing, Modeling and Use
Authors
Hummersgaard, Rasmus ; Andreasen, Lasse
Term
4. term
Education
Publication year
2012
Abstract
Dette projekt undersøger, i hvilken grad man kan bruge mid-air gestik—håndbevægelser i luften uden berøring—til at styre en PC. Vi byggede en gestikbaseret grænseflade til basal webbrowser-brug ved hjælp af en Kinect-sensor, som kan registrere krops- og håndbevægelser. Grænsefladen blev udviklet trinvist gennem tre prototyper, som vi løbende udviklede og evaluerede. Den gør det muligt at styre markøren, klikke på elementer, rulle op og ned samt gå frem og tilbage i browserens historik med bevægelser. Derudover tilpassede vi den oprindelige Keystroke-Level Model, et værktøj til at forudsige opgavetider ud fra grundlæggende handlinger, så den dækker mid-air gestik, og vi validerede modellen i et eksperiment. Endelig gennemførte vi et feltstudie for at se, hvordan brugere i et offentligt miljø nærmede sig, lærte og oplevede grænsefladen.
This project examines how far mid-air, gesture-based interaction—moving your hands in the air without touching a device—can be used to control a PC. We built a gesture-based interface for basic web browsing using a Kinect sensor that tracks body and hand movements. The interface was developed incrementally through three prototypes that were iteratively developed and evaluated. It lets users control the cursor, click elements, scroll up and down, and navigate forward and backward in the browser history with gestures. We also adapted the original Keystroke-Level Model, a method for predicting task completion time from basic actions, to account for mid-air gestures and validated the model in an experiment. Finally, we ran a field study to observe how people in a public setting approached, learned, and experienced the interface.
[This abstract was generated with the help of AI]
Keywords
Documents
