Regulating AI in Digital Finance: A Cross-National Study on Trust and Perceived Risk
Author
Pakulnis, Emilia
Term
4. Semester
Publication year
2025
Abstract
Denne afhandling undersøger, hvordan forbrugere opfatter risici ved kunstig intelligens (AI) i digitale finansielle tjenester, og om kendskab til regulering påvirker deres tillid. Med udgangspunkt i EU’s AI-forordning (AI Act), GDPR og DORA belyses spændet mellem lovgivningens intentioner og brugernes oplevelser. Studiet bygger på en kvalitativ metode med semistrukturerede interviews af 10 deltagere i Danmark og Tyskland og tematisk analyse med induktiv kodning. Deltagerne anerkender AI’s fordele, men er tilbageholdende ved højrisiko eller følsomme beslutninger på grund af bekymringer om datamisbrug, manglende transparens og fravær af menneskelig vurdering. Tillid viser sig at være betinget og påvirkes af både teknisk kompetence, sociale signaler, institutionel troværdighed og tidligere digitale erfaringer. Selvom de fleste har begrænset konkret viden om AI-regulering, kan en generel fornemmelse af tilsyn skabe tryghed. Danske deltagere kobler regulering til efterlevelse og sikkerhed, mens tyske deltagere ønsker at forstå indhold og effekt af specifikke love før fuld tillid. Afhandlingen præsenterer en konceptuel ramme med fem centrale faktorer for tillid i AI-drevet finans: opfattet risiko, transparens, følelsesmæssig tryghed, social validering og reguleringens synlighed. Resultaterne peger på, at tillid kræver mere end teknisk nøjagtighed og håndhævelse – det forudsætter klar kommunikation, brugerinvolvering og design, der afspejler reelle tillidsdynamikker.
This thesis examines how consumers perceive risks in AI-enabled digital finance and whether awareness of regulatory protections influences their trust. Anchored in the EU AI Act, GDPR, and DORA, it explores the gap between regulatory intent and user experience. The study uses a qualitative approach with semi-structured interviews of 10 participants in Denmark and Germany and thematic analysis with inductive coding. Participants recognize the benefits of AI but remain cautious in high-stakes or sensitive decisions due to concerns about data misuse, lack of transparency, and the absence of human judgment. Trust emerges as conditional, shaped by technical competence, social cues, institutional credibility, and prior digital experiences. While most have limited detailed knowledge of AI regulation, a general sense that oversight exists can be reassuring. Danish participants tend to associate regulation with compliance and safety, whereas German participants seek to understand the content and impact of specific laws before fully trusting AI systems. The thesis proposes a conceptual framework highlighting five key factors in building trust in AI-driven finance: perceived risk, transparency, emotional comfort, social validation, and the visibility of regulation. The findings suggest trust requires more than technical accuracy and enforcement—it depends on clear communication, user inclusion, and design aligned with real-world trust dynamics.
[This summary has been generated with the help of AI directly from the project (PDF)]
Documents
