Surround Vehicle Analysis
Authors
Kristoffersen, Miklas Strøm ; Dueholm, Jacob Velling
Term
4. term
Publication year
2016
Abstract
Keeping track of vehicles around a car is challenging for human perception, motivating automatic camera‑based tracking for both passive and active safety. This thesis develops a panoramic, multi‑camera computer vision framework for detecting, tracking, and analyzing vehicles in full surround. The setup uses four synchronized GoPro cameras, a vehicle detector, and a modified tracker optimized for multi‑perspective inputs. Per‑view tracks are transformed to the road plane and associated in real‑world coordinates to produce consistent trajectories across cameras. A vision dataset with more than 4,000 annotated vehicles is collected to evaluate the detector, single‑view tracker, and multi‑perspective tracker. Using 50 sequences processed by the framework, a trajectory dataset is built, and machine learning (unsupervised, supervised, and online classification) is applied for trajectory analysis to illustrate applications in naturalistic driving studies and advanced driver assistance systems. The report details camera placement, synchronization and calibration, as well as transformation to the road plane and Kalman filtering for robust trajectory estimation. While the excerpt does not present quantitative performance results, it indicates that the framework enables consistent full‑surround tracking and provides datasets and analyses that support future research in intelligent vehicles and traffic surveillance.
At bevare overblikket over omkringliggende køretøjer er svært for mennesker, hvilket motiverer automatisk sporing med kameraer til både passive og aktive sikkerhedsformål. Denne afhandling udvikler et panoramisk, multi-kamera computer vision‑framework til detektion, sporing og analyse af køretøjer rundt om bilen. Opsætningen består af fire synkroniserede GoPro‑kameraer, en køretøjsdetektor og en modificeret tracker optimeret til multi‑perspektiv input. Spor fra hvert kamera transformeres til vejplanet og associeres i virkelige koordinater for at opnå konsistente trajektorier i full‑surround. Der indsamles et visions‑datasæt med mere end 4000 annoterede køretøjer til evaluering af detektor, enkelt‑perspektiv tracker og multi‑perspektiv tracker. Med 50 sekvenser behandlet af frameworket opbygges et trajektorie‑datasæt, hvorefter maskinlæring (uovervåget, overvåget og online klassifikation) anvendes til trajektorieanalyse, med sigte på naturlistiske kørselsstudier og avancerede førerassistentsystemer. Rapporten beskriver kameraplacering, synkronisering og kalibrering, samt transformation til vejplanet og Kalman‑filtrering for robust trajektorieestimering. Udklippet indeholder ikke kvantitative præstationsresultater, men indikerer, at frameworket muliggør konsistent full‑surround sporing og leverer datasæt og analyser, der kan understøtte fremtidig forskning i intelligente køretøjer og trafikovervågning.
[This apstract has been generated with the help of AI directly from the project full text]
