Maritime Anomaly Detection - A Probabilistic Deep Learning approach using GeoTrackNet and Transformers
Author
Nielsen, Alexander Førgaard
Term
4. semester
Publication year
2025
Submitted on
2025-06-04
Pages
33
Abstract
Denne afhandling evaluerer empirisk GeoTrackNet, et usuperviseret deep learning-rammeværk udviklet til at opdage anomalier i skibstrajektorier—altså usædvanlige mønstre i, hvordan skibe bevæger sig. I modsætning til den oprindelige artikel, som manglede mærkede data, tilføjer vi en mærket evaluering med facit (ground truth) for kvantitativt at måle modellens ydeevne. For at sammenligne med og eventuelt forbedre den gængse model udvider vi GeoTrackNet med en transformer-encoder-blok, så modellen kan fange langsigtede afhængigheder via attention (en mekanisme, der lader modellen fokusere på de mest relevante dele af inputtet), inspireret af arbejde som TrAISformer. Efter at begge modeller er trænet kun på normal adfærd for at lære, hvordan “normalen” ser ud, anvender vi a contrario-detektion—en statistisk metode, der bruger en tærskel epsilon (ε) til at styre antallet af tilladte falske alarmer. Vi tester modellerne på flere epsilon-værdier og bruger standard klassifikationsmetrikker til at vurdere ydeevnen. Under de nuværende træningsbetingelser er forskellen i ydeevne mellem den oprindelige og den udvidede model ubetydelig. Begrænset tid til tuning af hyperparametre—særligt vigtig for transformerbaserede modeller—kan have begrænset den udvidede models potentiale og dermed resultaterne.
This thesis empirically evaluates GeoTrackNet, an unsupervised deep learning framework designed to detect anomalies in vessel trajectories—unusual patterns in how ships move. Unlike the original paper, which lacked labeled data, we add a labeled evaluation with ground-truth annotations to measure model performance quantitatively. To compare with and potentially improve the state of the art, we extend GeoTrackNet with a transformer encoder block so the model can capture long-term dependencies using attention (a mechanism that lets the model focus on the most relevant parts of the input), inspired by work such as TrAISformer. After training both the original and the extended model only on normal behavior to learn what “normal” looks like, we apply a contrario detection, a statistical method that uses a threshold epsilon (ε) to control the number of allowed false alarms. We test the models across several epsilon values and use standard classification metrics to assess performance. Under the current training conditions, the performance difference between the original and the extended model is negligible. The limited time available for hyperparameter tuning—especially important for transformer-based models—may have constrained the extended model’s potential and thus the results.
[This summary has been rewritten with the help of AI based on the project's original abstract]
Documents
