Inferring Input Hand from Index Finger Interactions
Author
Arberg, Roman
Term
4. term
Education
Publication year
2016
Submitted on
2016-11-01
Pages
19
Abstract
Denne afhandling undersøger, om det er muligt at afgøre, om venstre eller højre pegefinger bruges ved tabletinteraktioner ud fra spor i touchdata. Motiveret af manglen på kontekstbevidsthed i nutidens touch-enheder og behov i fx selv-rehabilitering og crowdsourcing, indsamlede projektet et større datasæt fra 15 deltagere, der udførte pegefinger-tryk på en tablet. Med udgangspunkt i etableret begrebsapparat om land-on, stabile og lift-up faser samt mål for touch bias, finger slide og interaktionstid, blev data analyseret for forskelle mellem venstre og højre hånd. Tre touchparametre viste systematiske forskelle, hvor særligt horisontale touch-forskydninger skilte sig ud på tværs af brugertyper (højre-/venstrehåndede) og måltyper (tilskygget/ikke-tilskygget). En enkel klassifikation baseret på gennemsnitlig horisontal forskydning pr. session opnåede 93,33% nøjagtighed. Tilgangen er let at implementere i eksisterende touch-applikationer og bygger videre på tidligere fund om systematiske offsets og håndpræferencer for at adressere pegefingerinteraktioner på tablets.
This thesis examines whether the input hand (left vs. right index finger) can be inferred from touch traces on a tablet. Motivated by the lack of context awareness in current touch devices and use cases in self-rehabilitation and crowdsourcing, the project collected a large dataset from 15 participants performing index finger taps on a tablet. Using established concepts of land-on, stable, and lift-up touch phases and measures such as touch bias, finger slide, and interaction time, the data were analyzed for differences between left and right hand input. Three touch parameters showed systematic differences, with horizontal touch offsets standing out across user types (left-/right-handed) and target conditions (occluded/non-occluded). A simple per-session classifier based on mean horizontal offset achieved 93.33% accuracy. The approach is straightforward to integrate into existing touch applications and extends prior work on systematic touch offsets and handedness to index finger interactions on tablets.
[This summary has been generated with the help of AI directly from the project (PDF)]
Documents
