AAU Studenterprojekter - besøg Aalborg Universitets studenterprojektportal
Et kandidatspeciale fra Aalborg Universitet
Book cover


Hvordan finder eksisterende erstatningsregler anvendelse på skader forvoldt af kunstig intelligens?

Oversat titel

How does the current liability regime apply to damages caused by artificial intelligence?

Forfattere

;

Semester

4. semester

Uddannelse

Udgivelsesår

2020

Afleveret

Resumé

Specialet undersøger, hvordan gældende danske erstatningsregler kan anvendes på skader forvoldt af kunstig intelligens (AI), med fokus på culpareglen (uagtsomhed), produktansvarsloven (PAL) og ulovbestemt objektivt ansvar. Med en retsdogmatisk tilgang analyseres lovgivning, forarbejder, retspraksis, EU-retskilder, kommissionsmeddelelser og juridisk litteratur; et ekspertinterview bidrager med teknisk forståelse. Indledningsvis beskrives AI’s særlige kendetegn—kompleks teknisk struktur, mange aktører i værdikæden, selv-læring og autonom beslutningstagning—som skaber afstand mellem udvikling og skadevoldende handling. Analysen viser, at culpaansvaret udfordres af påregnelighed og bevis: AI kan handle uforudsigeligt eller uden, at en bestemt aktør har handlet uforsvarligt, og det er vanskeligt at placere skyld i et komplekst samspil af udviklere, trænere og operatører. Efter produktansvarsloven opstår tvivl om, hvorvidt AI falder inden for lovens snævre definitioner af “produkt”, “producent” og “defekt”, og den tekniske kompleksitet gør det ofte svært at bevise, at en defekt forelå. For ulovbestemt objektivt ansvar belyses Ussings tese om strengt ansvar for farlig virksomhed; selv om visse AI-produkter kan opfylde de risikobetragtninger, er domstolene generelt tilbageholdende, og anvendelsen på AI er usikker. Samlet konkluderer specialet, at betydelige retlige uklarheder og bevismæssige udfordringer gør, at den nuværende ordning mindst kræver præciseringer for at dække AI-skader, og at særskilt regulering af ansvar for AI bør overvejes.

This thesis examines how existing Danish liability rules apply to harm caused by artificial intelligence (AI), focusing on negligence, product liability (the Danish Product Liability Act) and non-statutory strict liability. Using a doctrinal legal method, it analyzes legislation, preparatory works, case law, EU sources, European Commission communications and legal scholarship; an expert interview informs the technical context. The opening chapter outlines AI’s distinctive features—complex technical architecture, multiple actors across the supply chain, self-learning and autonomous decision-making—which widen the gap between development and harmful outcomes. The analysis finds that negligence is strained by foreseeability and proof: AI may act unpredictably or without any clearly negligent operator, and assigning fault among developers, trainers and users is difficult. Under product liability, uncertainty arises because AI may not fit the statute’s narrow definitions of “product,” “producer,” and “defect,” and the technology’s complexity often makes proving a defect challenging. For non-statutory strict liability, Ussing’s theory of strict liability for dangerous activities is considered; although some AI systems could meet its risk-based rationale, courts are generally cautious, making its application to AI uncertain. Overall, the thesis concludes that significant legal ambiguities and evidentiary hurdles mean the current framework requires at least targeted clarifications to cover AI-related harm, and dedicated AI liability legislation should be considered.

[Dette resumé er genereret med hjælp fra AI direkte fra projektet (PDF)]

Emneord