AAU Studenterprojekter - besøg Aalborg Universitets studenterprojektportal
Et kandidatspeciale fra Aalborg Universitet
Book cover


Maskinlæring som demokratisk værn - Cybersikkerhed, deepfakes og politisk legitimitet i europæiske valg: Cybersikkerhed, deepfakes og politisk legitimitet i europæiske valg

Oversat titel

Machine Learning as a Democratic Safeguard - Cybersecurity, Deepfakes, and Political Legitimacy in European Elections: Cybersecurity, Deepfakes, and Political Legitimacy in European Elections

Forfatter

Semester

4. semester

Udgivelsesår

2002

Afleveret

Antal sider

52

Resumé

Demokratiske valg er kernen i europæiske samfund. Når politik og offentlig debat flytter mere online, opstår nye digitale risici: fra klassiske cyberangreb mod it‑systemer til manipulation af information, herunder AI‑fremstillede lyd og video – såkaldte deepfakes. Specialet undersøger, hvordan europæiske valgmyndigheder og relaterede aktører bruger maskinlæring (ML) – computersystemer, der lærer mønstre fra data – til at beskytte valg, og hvordan det påvirker politisk legitimitet og borgernes tillid. Arbejdet kombinerer politisk teori, forvaltningsforskning, kvalitative casestudier og teknisk viden fra maskinlæring. Empirien bygger på to sammenlignelige europæiske sager: 1) brugen af deepfakes og desinformation under det slovakiske parlamentsvalg i 2023, og 2) cyberangreb mod digital valgrelateret infrastruktur under valget til Europa-Parlamentet i 2024. Sagerne dækker to forskellige trusselsområder – informationsrummet og den tekniske infrastruktur – og gør det muligt at se, hvordan ML anvendes under forskellige institutionelle og styringsmæssige forhold. Analysen viser, at ML allerede spiller en vigtig rolle, men at anvendelsen er ujævn og afhænger af konteksten. På infrastruktursiden er ML‑baserede cybersikkerhedsløsninger relativt modne og indlejrede i arbejdet, hvilket hjælper med at holde systemer stabile under angreb. Det styrker den såkaldte output‑legitimitet – tillid til resultaterne, fordi driften fungerer. I informationsrummet er brugen af ML mod deepfakes og valgrelateret desinformation derimod langt mindre institutionaliseret. Det giver opsplittet styring og udfordrer både input‑legitimitet (borgernes indflydelse og samtykke) og throughput‑legitimitet (kvaliteten og åbenheden i processerne). Specialet indeholder også en teknisk demonstration: opbygningen af et simpelt konvolutionsnetværk (en type ML‑model til billedgenkendelse) til at opdage deepfakes. Formålet er ikke at optimere præcision, men at vise, hvordan sådanne modeller arbejder, og hvor de begrænser: risiko for bias, dårlig generalisering på nye data, sandsynlighedsbaserede afgørelser og begrænset forklarlighed. Disse forhold har demokratiske konsekvenser, fordi de påvirker gennemsigtighed, ansvarlighed og borgeres og beslutningstageres mulighed for at forstå og udfordre afgørelser, der støttes af algoritmer. Konklusionen er, at ML kan bidrage væsentligt til at beskytte valg mod digitale trusler, men hverken er neutral eller tilstrækkelig i sig selv. Legitimitet og effektivitet kræver klare institutionelle rammer, gennemsigtighed og meningsfuld menneskelig kontrol. Ved at se ML som en styringsteknologi – ikke kun et teknisk værktøj – belyser specialet de normative afvejninger, der følger med at bruge AI til at værne om demokratiske processer i Europa.

Democratic elections are at the heart of European societies. As politics and public debate move further online, new digital risks emerge: from classic cyberattacks on IT systems to information manipulation, including AI‑generated audio and video known as deepfakes. This thesis examines how European election authorities and related actors use machine learning (ML)—computer systems that learn patterns from data—to protect elections, and how this affects political legitimacy and public trust. The study combines political theory, public administration, qualitative case studies, and technical insights from ML. It is based on two comparable European cases: (1) the use of AI‑generated deepfakes and disinformation during the 2023 Slovak parliamentary election, and (2) cyberattacks targeting digital election‑related infrastructure during the 2024 European Parliament elections. These cases span two threat domains—information and infrastructure—and allow a comparison of how ML is deployed under different institutional and governance conditions. Findings show that ML already plays a meaningful role, but its use is uneven and highly context‑dependent. In the infrastructural domain, ML‑based cybersecurity solutions are relatively mature and institutionally embedded, helping keep systems stable under attack. This supports “output legitimacy”—trust in results because administration continues to function. In the information domain, ML for countering deepfakes and election‑related disinformation is far less institutionalized, leading to fragmented governance and challenges for both “input legitimacy” (public participation and consent) and “throughput legitimacy” (the quality and openness of decision‑making processes). The thesis also includes a technical demonstration: building a simple convolutional neural network (a kind of ML model for image recognition) for deepfake detection. The goal is not to maximize accuracy but to illustrate how such models work and where they fall short: risks of bias, weak generalization to new data, probabilistic decisions, and limited explainability. These limits carry democratic implications because they shape transparency, accountability, and the ability of citizens and decision‑makers to understand and contest algorithm‑supported decisions. Overall, the thesis concludes that ML can significantly help protect elections from digital threats, but it is neither neutral nor sufficient on its own. Legitimate and effective use requires clear institutional frameworks, transparency, and meaningful human oversight. Seeing ML as a governance technology—not merely a technical tool—highlights the normative trade‑offs involved in deploying AI to safeguard democratic processes in Europe.

[Dette resumé er omskrevet med hjælp fra AI baseret på projektets originale resumé]