Når generativ AI fejler: En undersøgelse af blindes oplevelser, strategier og tillid
Oversat titel
When Generative AI Fails: An Exploration of the Experiences, Strategies, and Trust of Blind Users
Forfatter
Paasch, Rasmus
Semester
4. semester
Udgivelsesår
2025
Afleveret
2025-06-03
Antal sider
52
Resumé
Denne masteropgave undersøger en grundlæggende udfordring ved generativ AI for blinde: at teknologien leverer beskrivelser, som brugeren ikke kan verificere visuelt. Med udgangspunkt i blinde brugeres erfaringer med Be My AI (et AI-værktøj, der analyserer billeder) undersøger vi, hvordan informationsasymmetri opstår, når assisterende teknologi skaber nye former for afhængighed. Gennem en contextual inquiry-inspireret metode med seks danske blinde deltagere identificerer vi tre centrale strategiske mønstre. For det første kalibreret tillid: Brugerne justerer deres tillid til teknologien fra situation til situation, afhængigt af funktion, kontekst og mulige konsekvenser, hvis AI'en tager fejl. For det andet gør brugerne deres intentioner tydeligere som svar på et 'billede først – intention bagefter'-design, der kan virke paradoksalt ekskluderende; de kommunikerer formål gennem billedkomposition og ved at finjustere deres forespørgsler (prompts). For det tredje udviser de kreativ orkestrering: De agerer som 'teknologihackere' og sammensætter deres personlige økosystem af hjælpemidler og apps for at kompensere for systemets begrænsninger. Studiet bidrager med en forståelse af, hvordan kalibreret tillid fungerer i situationer med informationsasymmetri, og viser, at brugerinnovation er aktiv vidensskabelse frem for passiv tilpasning. Praktisk peger resultaterne på behovet for designprincipper, der styrker brugerautonomi og understøtter klar intentionskommunikation i assisterende AI.
This master's thesis examines a core challenge of generative AI for blind users: the technology provides descriptions they cannot visually verify. Focusing on blind users' experiences with Be My AI (an AI tool that analyzes images), we explore how information asymmetry arises when assistive technology creates new forms of dependence. Using a contextual inquiry–inspired approach with six blind participants in Denmark, we identify three strategic patterns. First, calibrated trust: users adjust their trust from situation to situation, based on function, context, and the possible consequences if the AI is wrong. Second, making intention explicit in response to an 'image first – intention after' design that can feel paradoxically excluding; users communicate their goals through image composition and by refining their prompts. Third, creative orchestration: users act as 'technology hackers,' combining and tuning their personal ecosystem of tools and apps to compensate for system limitations. The study shows how calibrated trust works under information asymmetry and frames user innovation as active knowledge creation rather than passive adaptation. Practically, it points to design principles that support user autonomy and clear intention communication in assistive AI.
[Dette resumé er omskrevet med hjælp fra AI baseret på projektets originale resumé]
Emneord
