AAU Studenterprojekter - besøg Aalborg Universitets studenterprojektportal
Et kandidatspeciale fra Aalborg Universitet
Book cover


Erstatningsansvar for skader forvoldt af AI-systemer

Oversat titel

Liability for damages caused by AI-systems

Forfattere

;

Semester

4. semester

Uddannelse

Udgivelsesår

2022

Afleveret

Resumé

Afhandlingen undersøger, hvordan dansk ret i dag og kommende EU-regulering håndterer operatørers erstatningsansvar for skader forvoldt af AI-systemer, med særligt fokus på ansvarsgrundlag og kausalitet. Med udgangspunkt i den retsdogmatiske metode systematiseres gældende regler, retspraksis og lovforslag. AI-systemers autonomi og evne til at udvikle sig skaber bevis- og ansvarsudfordringer, som belyses bl.a. gennem Blumes model (input–processing–output), der viser, at fejl kan opstå på forskellige driftsstadier med betydning for ansvarsvurderingen. Analysen fremhæver, at faktorer som sikkerhedsforanstaltninger, løbende opdateringer, risikovurderinger, IT-sikkerhed og beredskabsplaner er centrale ved vurderingen af culpa, og peger på en risikoallokerende tilgang inspireret af retspraksis (U 1983.866/2 H), hvor ansvar kan pålægges, selv om den konkrete skadeårsag er uafklaret, hvis skaden kunne imødegås gennem teknisk og økonomisk planlægning. Produktansvar gennemgås i to spor: RUP (culpabaseret og anvendelig på både fysiske produkter og ydelser) og PAL (objektivt præget ansvar for defekte, materielle produkter). Endelig analyseres forslaget til en EU-forordning om AI-ansvar, der opdeler systemer i højrisiko og øvrige; operatører af højrisikosystemer pålægges et objektiveret ansvar og forsikringspligt, mens andre systemer fortsat er underlagt en culparegel med visse ansvarsfritagelser. Afhandlingen peger samlet på et skifte fra snæver individuel skyldvurdering mod større vægt på risikoallokering og forudsigelighed i reguleringen af AI-skader.

This thesis examines how Danish law and forthcoming EU rules address operators’ liability for harm caused by AI systems, with a specific focus on the basis of liability and causation. Using a legal dogmatic method, it systematizes applicable rules, case law, and legislative proposals. The autonomy and self-developing capabilities of AI create evidentiary and liability challenges, explored through Blume’s model (input–processing–output), which shows that faults may occur at different stages of operation with implications for liability. The analysis highlights that safety measures, ongoing updates, risk assessments, IT security, and contingency planning are central to assessing negligence, and points to a risk-allocation approach inspired by case law (U 1983.866/2 H), where liability may be imposed even if the exact cause of damage is unknown, provided the harm could have been addressed through technical and economic planning. Product liability is reviewed along two tracks: RUP (fault-based and applicable to both tangible goods and services) and PAL (more objective liability tied to defects in tangible products). Finally, the proposed EU regulation on AI liability is analyzed, which distinguishes high-risk AI systems from others; operators of high-risk systems face strict liability and a duty to insure, while other systems remain under a fault-based regime with specified exemptions. Overall, the thesis indicates a shift from narrow individual fault assessments toward greater emphasis on risk allocation and foreseeability in regulating AI-related harm.

[Dette resumé er genereret med hjælp fra AI direkte fra projektet (PDF)]