AAU Student Projects - visit Aalborg University's student projects portal
A master's thesis from Aalborg University
Book cover


Predictive Policing- and Investigative Tools: A Comparative Analysis of Danish and Norwegian Regulation

Translated title

Prediktive politi- og etterforskningsverktøy: En komparativ analyse av dansk og norsk regulering

Author

Term

3. term

Education

Publication year

2025

Submitted on

Pages

50

Abstract

Artificial intelligence is increasingly used in policing and investigations. Predictive analysis tools help sift large amounts of data to spot patterns and areas with higher crime risk. At the same time, this raises concerns about whether basic fair-trial protections are upheld when such tools inform decisions. This thesis examines to what extent predictive policing and investigative tools can be used under Danish and Norwegian law without violating the right to adversarial proceedings (each side can see and challenge evidence), verifiability (decisions can be explained and checked), and the presumption of innocence. Because Article 6 of the European Convention on Human Rights sets key fair-trial standards, it is included in the analysis. To answer the research question, the thesis analyzes applicable law in Denmark and Norway and assesses how each jurisdiction handles AI-based assessments in criminal evidence and decision-making. The analysis shows that both countries, in principle, allow predictive tools, but they take notably different approaches. Denmark has a broad, function-based legal framework that gives the police wide room to deploy such tools in ordinary investigations (rules focus on what the tool does rather than its label). Norway is far more restrictive, limiting the use of such systems to the Norwegian police security service. A common feature is the lack of detailed procedural rules on how algorithmic assessments should be controlled and evaluated. Where no specific rules exist, general safeguards must protect the individual. Rights such as access to information, the opportunity to challenge evidence, judicial control over the presentation of evidence, and strict necessity and proportionality in data collection are essential. Together with the presumption of innocence, these mechanisms set boundaries for algorithmic use and require designs and practices that enable transparency and verification. The thesis concludes that predictive policing and investigative tools may be used in both legal systems, but only under clearly defined conditions. While the technology can improve efficiency, it must remain a support tool and not an independent basis for decisions. Human judgment and oversight are essential to prevent algorithms from gaining undue influence in the criminal process. To maintain legal safeguards, AI use must be transparent and compatible with the fundamental procedural principles that underpin the rule of law.

Kunstig intelligens fylder mere i politi- og efterforskningsarbejde. Værktøjer til forudsigende analyse gør det muligt at gennemgå store datamængder og finde mønstre og områder med øget kriminalitetsrisiko. Det rejser samtidig spørgsmål om, hvorvidt grundlæggende retssikkerhedsprincipper kan opretholdes, når sådanne værktøjer informerer beslutninger. Afhandlingen undersøger, i hvilket omfang forudsigende politiarbejde og efterforskningsværktøjer kan bruges inden for dansk og norsk ret uden at krænke kontradiktionsprincippet (retten til at kende og kunne anfægte beviser), efterprøvbarhed (at afgørelser kan forklares og kontrolleres) og uskyldsformodningen. Da Den Europæiske Menneskerettighedskonventions artikel 6 fastlægger vigtige standarder for en retfærdig rettergang, inddrages den i analysen. For at besvare spørgsmålet analyserer afhandlingen gældende ret i Danmark og Norge og vurderer, hvordan hver retskreds håndterer AI-baserede vurderinger i straffesagers beviser og beslutninger. Analysen viser, at begge lande i princippet tillader brugen af forudsigende værktøjer, men de griber det markant forskelligt an. Danmark har en bred, funktionsbaseret retlig ramme, som giver politiet vide muligheder for at anvende sådanne værktøjer som led i almindelig efterforskning (reglerne tager udgangspunkt i, hvad værktøjet gør, ikke hvad det kaldes). Norge er langt mere tilbageholdende og begrænser brugen af sådanne systemer til den norske politis sikkerhedstjeneste. Et fælles træk er fraværet af detaljerede procesregler for, hvordan algoritmiske vurderinger skal kontrolleres og vurderes. Når særlige regler for teknologien ikke findes, må de generelle garantier beskytte den enkelte. Rettigheder som adgang til information, mulighed for at anfægte beviser, domstolskontrol med bevisførelse samt krav om nødvendighed og proportionalitet ved dataindsamling er afgørende. Sammen med uskyldsformodningen fungerer de som vigtige værn og sætter grænser for, hvordan algoritmiske analyser kan bruges, forudsat at teknologien designes og praktiseres, så gennemsigtighed og efterprøvbarhed er mulig. Afhandlingen konkluderer, at forudsigende politi- og efterforskningsværktøjer kan anvendes i begge retssystemer, men kun under klart definerede betingelser. Teknologien kan øge effektiviteten, men den skal altid være et støtteværktøj og ikke et selvstændigt beslutningsgrundlag. Menneskelig dømmekraft og kontrol er nødvendige for at forhindre, at algoritmiske vurderinger får for stor vægt i straffeprocessen. For at bevare retssikkerheden skal brugen af kunstig intelligens være gennemsigtig og forenelig med de grundlæggende procesprincipper, der bærer retsstaten.

[This apstract has been rewritten with the help of AI based on the project's original abstract]