Ansvar for skader forvoldt af AI inden for Unionen
Oversat titel
Liability for damages caused by AI within the Union
Forfattere
Le, Thang Minh ; Place, Oliver Foss
Semester
4. semester
Uddannelse
Udgivelsesår
2020
Afleveret
2020-05-17
Antal sider
60
Resumé
Dette speciale undersøger, hvordan gældende EU-ret håndterer erstatningsansvar for skader forvoldt af kunstig intelligens (AI), og om alternative tilgange kan understøtte reguleringen. Med afsæt i eksempler som selvkørende biler og sundhedsteknologi motiveres behovet for klarhed, da der ikke findes særskilt AI-lovgivning, og eksisterende regler er udviklet til kontrollerbare handlinger. Specialet anvender en retsdogmatisk metode med fortolkning af retskilder, forarbejder og praksis for at analysere de generelle erstatningsretlige principper samt produktsikkerheds- og produktansvarsdirektiverne. Det vurderes bl.a., om AI og software falder inden for produktbegrebet, og der peges på centrale udfordringer som autonomi, bevisbyrde og dataafhængighed. Specialet er struktureret i tre hoveddele: (1) en introduktion til AI-teknologien, (2) en gennemgang af de juridiske rammer med fokus på rækkevidde og mangler, og (3) en drøftelse af alternative tilgange som etisk regulering, forsikring og juridisk personstatus. Konklusionen er, at EU’s nuværende regler er robuste, men utilstrækkelige til fuldt ud at regulere AI-relaterede skader, og at flere alternative tiltag kan være hensigtsmæssige til at styrke den eksisterende regulering.
This thesis examines how current EU law addresses liability for harm caused by artificial intelligence (AI) and whether alternative approaches can support the regulatory framework. Motivated by use cases such as self-driving cars and healthcare—and the absence of AI-specific legislation—the study highlights the need for clarity because existing rules are designed for controllable human actions. Using a legal dogmatic method that draws on statutory interpretation, preparatory works, and case law, the thesis analyzes general tort principles alongside the General Product Safety and Product Liability Directives. It assesses whether AI/software fits within the EU product concept and identifies key challenges, including autonomy, burden of proof, and data dependence. The work is structured in three parts: (1) an overview of AI, (2) a review of the legal framework with an emphasis on scope and gaps, and (3) an exploration of alternatives such as ethical regulation, insurance, and legal personhood. The conclusion finds that while EU law is robust, it remains inadequate to fully regulate AI-related harm, and that several alternative measures could usefully reinforce the current regime.
[Dette resumé er genereret med hjælp fra AI direkte fra projektet (PDF)]
