Erstatningsansvar for skader forvoldt af kunstig intelligens
Oversat titel
Liability for damages caused by artificial intelligence
Forfattere
Olesen, Lukas Alexander Tranholm ; Nygaard-Mortensen, Amalie
Semester
4. semester
Uddannelse
Udgivelsesår
2025
Afleveret
2025-05-14
Abstract
Specialet undersøger erstatningsansvar for skader forvoldt af kunstig intelligens i et overordnet dansk-europæisk perspektiv. Med en retligt-dogmatisk metode analyseres EU’s nye produktansvarsdirektiv, det retspraksisudviklede produktansvar (RUP) og den almindelige culparegel for at klarlægge, hvordan AI-relaterede skader reguleres. Den indledende del sætter AI ind i en juridisk ramme, forklarer centrale tekniske begreber som svag/stærk AI, machine- og deep learning og belyser udfordringer ved autonomi og black-box, samt fastslår at AI ikke er et retssubjekt. Herefter gennemgås de almindelige erstatningsbetingelser (tab, ansvarsgrundlag, kausalitet, adækvans) og produktansvar. Analysen af produktansvarsdirektivet viser, at direktivet eksplicit omfatter AI, behandler AI som et produkt, udvider kredsen af ansvarlige aktører i moderne, globale forsyningskæder og lemper bevisbyrden på grund af komplekse systemer og black-box-problemer. For RUP konstateres, at mange regler om især defektbegrebet harmonerer med direktivet, men at ansvaret er baseret på culpa frem for objektivt ansvar; culpaprøvelsen er streng og kan nærme sig en objektiv standard, hvilket kan få betydning for AI. RUP kan pålægge ansvar i flere led af distributionskæden, bevisbyrden kan lempes i AI-sager, men ansvar kan også nedsættes ved skadelidtes medvirken. Endelig viser gennemgangen af den almindelige culparegel, at traditionelle momenter kan anvendes på AI med særligt fokus på transparens, sikkerhed og systemers evne til at udvikle sig; samtidig taler flere hensyn for ansvarsskærpelse og muligvis objektivt ansvar for dem, der er ansvarlige for AI, og bevisreglerne kan forventes fortolket til fordel for skadelidte.
This thesis examines liability for harms caused by artificial intelligence from a general Danish–EU perspective. Using a doctrinal legal method, it analyses the EU’s new Product Liability Directive, Danish case law–based product liability (RUP), and general tort law (culpa) to map how AI-related damage is regulated. The opening chapters situate AI in a legal context, outline key technical notions such as weak/strong AI and machine/deep learning, highlight challenges linked to autonomy and black-box effects, and confirm that AI itself is not a legal subject. The thesis then reviews the standard conditions for liability (loss, basis of liability, causation, foreseeability) and product liability. The analysis of the Product Liability Directive finds that it explicitly covers AI, treats AI as a product, broadens the circle of potentially liable actors in modern global supply chains, and eases the burden of proof in light of complex systems and black-box issues. Regarding RUP, many provisions—especially around the defect concept—align with the directive, but RUP relies on negligence rather than strict liability; its negligence assessment is stringent and can approximate an objective standard, which may affect AI cases. RUP can impose liability on intermediaries across the distribution chain, the burden of proof may be alleviated in AI contexts, and liability may be reduced due to contributory negligence. Finally, under general tort law, traditional negligence factors can be applied to AI with particular emphasis on transparency, security, and systems’ capacity to evolve; several considerations point toward heightened, possibly strict, liability for those responsible for AI that causes harm, and evidentiary rules are likely to be interpreted in favor of the injured party.
[Dette resumé er genereret ved hjælp af AI]
