Udtræk af 3D struktur ved hjælp af tekstur flow
Translated title
Extraction of 3D Structure using Texture Flow
Author
Buus, Ole Thomsen
Term
10. term
Publication year
2008
Pages
140
Abstract
Rapporten undersøger, om tekstur-flow – den rumlige og tidslige ændring i, hvor tæt et mønster fremstår i et billede – kan bruges til direkte at bestemme lokal 3D-struktur på en stiv, tekstureret overflade, der bevæger sig i forhold til et fast perspektivkamera. Her defineres tekstur-flow som en rum-tids-gradient baseret på estimering af lokal billedtekstur-tæthed og dens afledte (hvordan tætheden ændrer sig). Arbejdet fokuserer primært på syntetiske forsøg: et simuleringsframework blev udviklet til præcist at simulere lokal overflade- og billedtekstur-tæthed. Der blev også bygget en eksperimentel opstilling med et digitalt kamera og en bevægende plan flade. To hovedresultater: (1) I de syntetiske data er det muligt direkte at estimere lokal overfladeretning og dybde ud fra afledte af teksturtæthed; i nogle tilfælde også hastigheder for egen-bevægelse. (2) Kameraeksperimenterne kræver yderligere arbejde, da det er vanskeligt at estimere teksturtæthed i virkelige billeder, og den valgte segmentering af teksturenheder er meget følsom over for lysforhold.
This report explores whether texture flow—the spatial and temporal change in how dense a pattern appears in an image—can be used to directly estimate the local 3D structure of a rigid, textured surface moving relative to a fixed perspective camera. Here, texture flow is defined as a space–time gradient derived from estimates of local image texture density and its derivatives (how that density changes). The work focuses mainly on synthetic experiments: a simulation framework was developed to accurately model local surface properties and image texture density. An experimental setup with a digital camera and a moving planar surface was also built. Two main findings emerge: (1) In synthetic data, local surface orientation and depth can be estimated directly from derivatives of texture density, and in some cases self-motion velocities as well. (2) The camera experiments need further development; estimating texture density in real images is difficult, and the chosen segmentation of texture units is highly sensitive to lighting.
[This abstract was generated with the help of AI]
Keywords
