AAU Student Projects - visit Aalborg University's student projects portal
A master's thesis from Aalborg University
Book cover


Vision System for Indoor UAV flight

Author

Term

4. term

Publication year

2015

Submitted on

Pages

94

Abstract

Dette projekt udvikler en todelt løsning, der skal hjælpe droner (UAV'er) med at flyve sikkert indendørs, hvor GPS ikke virker. De to delsystemer—visuel odometri (at beregne bevægelse ud fra kameraer) og forhindringsundgåelse—er udviklet og testet uafhængigt af hinanden. For den visuelle odometri foreslås en ny metode med både et nedadskuende og et opadskuende kamera. Systemet sporer visuelle punkter med Shi-Tomasi og Lucas-Kanade, estimerer en homografi for hvert kamera (en matematisk sammenhæng mellem billedet og bevægelsen) og kombinerer disse til ét samlet bevægelsesestimat. I test viser systemet en middel absolut fejl pr. prøve på 0,16–0,54 cm og rotationsfejl på 0,13–0,19°. For forhindringsundgåelse deles kamerabilledet op i venstre, midte og højre, som klassificeres hver for sig. De samme algoritmer bruges til at spore punkter, som forbindes til trajektorier og klassificeres med den foreslåede metode. I 82 tests på tværs af tre scenarier opnås en detektionsrate på 78,3% i venstre og højre områder og 100% i midten. Resultaterne peger på, at to kameraer kan give præcise bevægelsesestimater indendørs, og at den enkle, regionsbaserede forhindringsdetektor er meget pålidelig i midten, men mindre konsekvent i siderne.

This project develops a two-part framework to support safe indoor flight of drones (UAVs) where GPS is unavailable. The two subsystems—visual odometry (estimating motion from cameras) and obstacle avoidance—are designed and tested independently. For visual odometry, a novel setup uses both a downward- and an upward-facing camera. The system tracks visual features with Shi-Tomasi and Lucas-Kanade, estimates a homography for each camera (a mathematical link between images and motion), and fuses them into a single motion estimate. Tests show a mean absolute error per sample of 0.16–0.54 cm and rotation errors of 0.13–0.19°. For obstacle avoidance, the camera view is split into left, center, and right regions, which are classified separately. The same algorithms track features, which are linked into trajectories and classified by the proposed method. Across 82 tests in three scenarios, detection was 78.3% in the left and right regions and 100% in the center. These results indicate that two cameras can provide accurate indoor motion estimates, and that the simple region-based obstacle detector is highly reliable in the center but less consistent at the sides.

[This abstract was generated with the help of AI]