AAU Studenterprojekter - besøg Aalborg Universitets studenterprojektportal
Et kandidatspeciale fra Aalborg Universitet
Book cover


Ansvar for skader forårsaget af Kunstig Intelligens

Oversat titel

Liability for damages caused by Artificilial Intelligence

Forfatter

Semester

4. semester

Udgivelsesår

2025

Afleveret

Antal sider

60

Abstract

Specialet undersøger de juridiske og regulatoriske udfordringer ved brug af kunstig intelligens i sundhedsvæsenet med fokus på et AI-baseret diagnostisk system til tumorpåvisning via billedgenkendelse. Formålet er at klarlægge, hvordan ansvar for skader bør placeres, når AI indgår som støtte i kliniske beslutninger. Analysen anvender en retsdogmatisk metode til at fastlægge gældende ret og sammenholder den nye EU AI-forordning med forordningen om medicinsk udstyr (MDR) samt relevante regler om produktansvar og dansk erstatningsret. Et centralt tema er risikoklassificeringen efter AI-forordningen, som former både udbyderes design- og dokumentationskrav og idriftsætteres pligter i klinisk anvendelse, herunder løbende overvågning og opdatering. Specialet behandler særligt udfordringerne ved kausalitet og adækvans, når skade følger af et samspil mellem AI’s anbefalinger, klinikerens selvstændige skøn og patientens sygdomsforløb, og diskuterer, hvordan ansvar kan fordeles retfærdigt mellem udbydere og idriftsættere. På tværs af de to regelsæt peger analysen på dobbelte og komplekse krav, der fordrer dynamisk risikostyring i lyset af lærende og foranderlige systemer. Konklusionen er, at mere praksisnær vejledning og en integreret regulerings- og ansvarsmodel er nødvendig for at reducere usikkerhed, beskytte patienter og sikre tillid til AI, samtidig med at ansvarsreglerne udvikles i takt med den teknologiske udvikling.

This thesis examines the legal and regulatory challenges of deploying artificial intelligence in healthcare, focusing on an AI-based diagnostic system for tumor detection through image recognition. Its aim is to clarify how liability for harm should be allocated when AI supports clinical decision-making. Using a doctrinal legal method, the analysis maps the applicable law by comparing the forthcoming EU AI Act with the Medical Device Regulation (MDR) and relevant product and tort liability rules in Danish law. A central theme is risk classification under the AI Act, which shapes providers’ design and documentation duties and operators’ obligations in clinical use, including continuous monitoring and updates. The thesis highlights the complexity of causation and foreseeability where harm arises from the interplay between AI outputs, a clinician’s independent judgment, and a patient’s disease progression, and it discusses fair allocation of responsibility between providers and operators. Across the dual regime, the study identifies overlapping and stringent requirements that call for dynamic risk management in light of learning, evolving systems. It concludes that practice-oriented guidance and an integrated regulatory and liability approach are needed to reduce uncertainty, protect patients, and build trust in AI, while ensuring liability rules evolve alongside technological progress.

[Dette resumé er genereret ved hjælp af AI]