AAU Studenterprojekter - besøg Aalborg Universitets studenterprojektportal
Et kandidatspeciale fra Aalborg Universitet
Book cover


AI og global ulighed: En undersøgelse af, hvordan store sprogmodeller (LLMs) bidrager til global ulighed og rejser etiske dilemmaer med særligt fokus på Sydafrika.

Oversat titel

AI and global inequality

Forfattere

;

Semester

4. semester

Udgivelsesår

2025

Afleveret

Antal sider

109

Abstract

Denne afhandling undersøger, om og hvordan udvikling og træning af store sprogmodeller (LLM’er) bidrager til global ulighed, og hvilke etiske dilemmaer der opstår i forsøget på at gøre AI mere inkluderende og retfærdig, med særligt fokus på Sydafrika. Et litteraturstudie peger på, at dominerende LLM’er i høj grad bygger på vestlige, engelsksprogede datasæt, hvilket kan overse eller forvride sproglig og kulturel mangfoldighed og dermed videreføre postkoloniale mønstre. Teoretisk kombineres globale retfærdigheds- og dataetiske perspektiver (bl.a. Sen samt Floridi og Cowls) med begreber om “AI-imperiet” og datakolonialisme (Adams; Couldry og Mejias) samt kritisk diskursanalyse (Fairclough) for at belyse samspillet mellem sprog, viden og magt i AI. Metodisk bygger studiet på kvalitative interviews med AI-eksperter i Danmark og Sydafrika samt en sammenligning af EU’s AI Act og Den Afrikanske Unions AI-strategi. Analysen viser, hvordan træningsdata og sprogrepræsentation i LLM’er kan reproducere koloniale strukturer, og hvordan lokale, deltagende initiativer som Masakhane søger at afhjælpe dette ved at opbygge datasæt for afrikanske sprog. Afhandlingen placerer generativ AI i en geopolitisk kontekst, hvor regulering og stormagtsinteresser påvirker retningen for etisk AI. Konklusionen er, at teknologien risikerer at forstærke både global og lokal ulighed, medmindre underrepræsenterede perspektiver, sprog og viden aktivt inkluderes. At realisere AI’s potentiale for lighed kræver nytænkning af magtstrukturer, digital infrastruktur, og reel inddragelse i AI’s styring fra dataindsamling til design og regulering, så historisk marginaliserede grupper får reel handlekraft.

This thesis examines whether and how the development and training of Large Language Models (LLMs) contribute to global inequality, and the ethical dilemmas that arise when aiming to make AI more inclusive and just, with a particular focus on South Africa. A review of the literature indicates that dominant LLMs rely heavily on Western, English-language datasets, which can overlook or misrepresent linguistic and cultural diversity and thus perpetuate postcolonial patterns. The theoretical framework combines global justice and data ethics (including Sen and Floridi & Cowls) with concepts of the “AI Empire” and data colonialism (Adams; Couldry & Mejias), alongside critical discourse analysis (Fairclough) to explore how language, knowledge, and power intersect in AI. Methodologically, the study draws on qualitative interviews with AI experts in Denmark and South Africa and compares the EU’s AI Act with the African Union’s AI Strategy. The analysis shows how training data and language representation in LLMs can reproduce colonial structures, and how participatory initiatives such as Masakhane seek to address this by building datasets for African languages. Generative AI is situated within a geopolitical landscape where regulation and great-power interests shape the trajectory of ethical AI. The thesis concludes that AI risks reinforcing global and local inequalities unless underrepresented perspectives, languages, and knowledge systems are actively included. Realizing AI’s potential for equity requires rethinking power structures, aligning digital infrastructure with social needs, and ensuring meaningful participation in AI governance from data collection to design and regulation so that historically marginalized communities gain real agency.

[Dette resumé er genereret ved hjælp af AI]