Eye Gaze Tracking for Tracking Reading Progress
Author
Vigo, Julia Alexandra
Term
4. term
Publication year
2013
Submitted on
2013-06-03
Pages
100
Abstract
Dette projekt undersøger, hvordan mennesker læser, ved hjælp af en øjensporingsenhed, der registrerer, hvor man kigger i teksten. Vi gennemførte tests med personer med ordblindhed. Systemet kombinerer øjensporing med en eksisterende læsetræner, der bruger talegenkendelse. Hovedopgaven er at knytte hvert blikpunkt til det ord i teksten, læseren sandsynligvis fokuserer på. Vi implementerede algoritmer, der håndterer problemer, som opstår ved øjensporing under læsning (for eksempel usikkerhed i målinger og naturlige øjenbevægelser). For at måle nøjagtigheden beregnede vi en sporingsfejlrate ved at sammenligne manuelle transskriptioner af den optagede tale med systemets kortlægning af blikpunkter til ord. Den rene øjensporingsløsning gav en høj fejlrate på 114,6 %. Når øjensporing blev kombineret med talegenkendelse i læsetræneren, blev nøjagtigheden bedre. Øjensporing bidrager således med information, der forbedrer en læsetræner, som ellers kun bygger på talegenkendelse.
This project investigates how people read using an eye-tracking device that records where they look on the text. We ran tests with people with dyslexia. The setup combines an eye tracker with an existing reading tutor that uses speech recognition. The core task is to map each gaze data point to the word in the text the reader is likely focusing on. We implemented algorithms to address challenges inherent to eye tracking during reading (such as measurement uncertainty and natural eye movements). To evaluate accuracy, we computed a tracking error rate by comparing manual transcriptions of the recorded speech with the system’s mapping of gaze points to words. The standalone eye-tracking approach produced a high error rate of 114.6%. When eye tracking was combined with speech recognition in the reading tutor, accuracy improved. This shows that eye tracking adds useful information beyond speech recognition alone.
[This abstract was generated with the help of AI]
Keywords
Documents
