AAU Studenterprojekter - besøg Aalborg Universitets studenterprojektportal
Et kandidatspeciale fra Aalborg Universitet
Book cover


Kunstig Intelligens & GDPR - Efterlevelse af forordningens principper

Oversat titel

Artificial Intelligence & GDPR - Compliance with the principles of the regulation

Forfatter

Semester

4. semester

Udgivelsesår

2021

Afleveret

Antal sider

71

Resumé

Afhandlingen undersøger, hvilke konsekvenser og praktiske udfordringer databeskyttelsesforordningen (GDPR) medfører for anvendere og udviklere af kunstig intelligens, og har til formål at give behandlingsansvarlige retningslinjer for efterlevelse ved brug af AI-modeller. Udgangspunktet er en juridisk analyse af de grundlæggende principper i GDPR, navnlig lovlighed, rimelighed, gennemsigtighed, formålsbegrænsning, dataminimering, datakvalitet og sikkerhed (herunder privacy by design og by default), samt reglerne om automatiske afgørelser, profilering og ansvarlighed, suppleret af et overblik over AI’s tekniske rammer (machine learning, deep learning, offline/online modeller og ”black box”-problematikken). Analysen peger på, at komplekse og dynamiske modeller, især deep learning og online modeller, udfordrer muligheden for at angive specifikke formål på forhånd og for at sikre gennemsigtighed i behandlingen. Særligt transparens fremstår som en hovedudfordring, fordi det er vanskeligt at forklare og dokumentere, hvordan modellerne træffer beslutninger. Samtidig har modellernes skala og kompleksitet stor betydning for efterlevelsesbyrden. Afhandlingen fremhæver, at efterlevelse er mulig, men ofte forudsætter tekniske foranstaltninger, som GDPR ikke detaljerer – herunder især pseudonymisering som et relevant middel. Afslutningsvis præsenteres de identificerede udfordringer og skitseres mulige løsninger, med fokus på at kombinere juridiske krav med praktiske, tekniske tiltag.

This thesis examines the consequences and practical challenges that the General Data Protection Regulation (GDPR) creates for users and developers of artificial intelligence, with the aim of providing controllers with guidance on how to comply when deploying AI models. The approach is a legal analysis of GDPR’s core principles—lawfulness, fairness, transparency, purpose limitation, data minimization, data quality, and security (including privacy by design and by default)—and the rules on automated decision-making, profiling, and accountability, complemented by an overview of the technical landscape of AI (machine learning, deep learning, offline/online models, and the “black box” issue). The analysis finds that complex, dynamic models, particularly deep learning and online models, make it difficult to define specific purposes in advance and to ensure transparency in processing. Transparency emerges as a central challenge because explaining and documenting how such models operate is hard. The scale and complexity of the model significantly affect the compliance burden. The thesis concludes that compliance is achievable but often requires technical measures not specified in GDPR—most notably pseudonymization as a relevant tool. It closes by outlining the identified difficulties and briefly pointing to possible solutions that bridge legal requirements with practical, technical measures.

[Dette resumé er genereret med hjælp fra AI direkte fra projektet (PDF)]