AAU Studenterprojekter - besøg Aalborg Universitets studenterprojektportal
Et kandidatspeciale fra Aalborg Universitet
Book cover


Erstatningsretlige udfordringer ved kunstig intelligens

Oversat titel

Liability challenges caused by artificial intelligence

Forfattere

;

Semester

4. semester

Uddannelse

Udgivelsesår

2023

Afleveret

Antal sider

94

Resumé

Specialet undersøger de erstatningsretlige udfordringer, der opstår, når kunstig intelligens (AI) indlejres i fysiske produkter, og hvordan EU søger at løse disse. Med en retsdogmatisk metode gennemgås først AI-teknologiens hovedtyper og karakteristika (bl.a. machine learning, deep learning, autonomi og black box) samt den juridiske afgrænsning af AI og EU’s definitionsovervejelser. Dernæst introduceres grundtræk i dansk erstatningsret, herunder skade, tab, skadelidte, skadevolder, ansvarsgrundlag, årsagssammenhæng og adækvans, og samspillet mellem AI og erstatningsretten skitseres. I analysen sammenholdes gældende dansk ret med udfordringer, som EU-Kommissionen har fremhævet, og med Kommissionens løsningsforslag. Centrale problemer er: 1) vanskeligheder ved at identificere ansvarssubjektet i komplekse værdikæder, forbundne digitale produkter og den cirkulære økonomi; 2) culpareglens utilstrækkelighed over for AI’s autonomi, manglende adfærdsmønstre og uigennemsigtighed; 3) usikkerhed om, hvorvidt software omfattes af produktbegrebet i produktansvarsreglerne; 4) udfordringer i defektvurderingen, herunder forventet sikkerhed og om vurderingen angår enkeltprodukter eller hele produktserier; samt 5) bevis- og kausalitetsproblemer pga. black box og teknisk kompleksitet. Foreslåede løsninger omfatter bl.a. editionspålæg og sikring af, at der altid findes et ansvarssubjekt inden for EU, sikkerhedskrav til visse systemer med formodning om culpa ved overtrædelse, en opdateret produktdefinition der udtrykkeligt omfatter software, udvidede momenter i defektvurderingen og anerkendelse af, at en defekt algoritme kan medføre defekt i hele serien, samt formodningsregler for årsagssammenhæng kombineret med adgang til relevant bevismateriale. Specialet konkluderer, at Kommissionens lovgivningsinitiativer retter sig mod AI’s særlige egenskaber, men at skadelidte kan få vanskeligheder med at opfylde betingelserne for anvendelse af reglerne, hvilket gør den praktiske rækkevidde usikker.

This thesis examines the liability challenges that arise when artificial intelligence (AI) is embedded in physical products and how the European Union seeks to address them. Using a legal dogmatic method, it first outlines key AI technologies and traits (including machine learning, deep learning, autonomy, and the black-box effect) and the legal definition of AI, highlighting EU efforts to balance certainty and flexibility. It then introduces core elements of Danish liability law—damage, loss, victim, tortfeasor, bases of liability, causation, and adequacy—and situates the interaction between AI and liability law. The analysis compares current Danish law with challenges identified by the European Commission and with the Commission’s proposed solutions. Key issues include: 1) difficulty identifying a liable party due to complex value chains, connected digital products, and the circular economy; 2) the insufficiency of the culpa rule given AI’s autonomy, lack of accepted behavior patterns, and opacity; 3) uncertainty whether software falls within the product concept in product liability law; 4) challenges in assessing defect, including expected safety and whether to assess individual products or entire product lines; and 5) evidentiary and causation hurdles due to black-box effects and technical complexity. Proposed responses include orders to disclose evidence and ensuring a liable entity exists within the EU, safety requirements for certain systems with rebuttable presumptions of fault upon violation, an updated product concept that expressly includes software, expanded factors in defect assessments with recognition that a flawed algorithm can render an entire product line defective, and rebuttable presumptions of causation combined with access to relevant evidence. The thesis concludes that while the Commission’s legislative initiatives target AI’s specific characteristics, victims may struggle to meet the conditions for their application, leaving practical effectiveness uncertain.

[Dette resumé er genereret med hjælp fra AI direkte fra projektet (PDF)]