AAU Student Projects - visit Aalborg University's student projects portal
A master's thesis from Aalborg University
Book cover


People, Privacy, & Policies: A Deep Dive Into Voice Assistants & Privacy

Translated title

Mennesker, privatliv & politikker: Et dybt dyk ind i stemmeassistanter & privatliv

Term

4. semester

Publication year

2022

Submitted on

Pages

270

Abstract

I denne tid er stemmeassistenter som Siri og Google Assistant blevet en stabil del af smartphones og andre "smarte" enheder. Før man kan bruge disse enheder, skal man give samtykke, og bliver ofte mødt med en privatlivspolitik, der præciserer, hvilken slags information stemmeassistenten indsamler og behandler. Tidligere forskning har vist, at stemmeassistenter har privatlivsrisici på grund af følsomme data, der kan hentes fra stemmedata: som køn og handicap. I vores arbejde tager vi et dybt dyk ned i de fire største brands af stemmeassistenter og deres privatlivspolitikker. For at fremme forståelsen af ​​forbrugernes privatliv vedrørende stemmeassistenter har vi udført kvalitative interviews med fire deltagere i alderen 15-17 og fire deltagere i alderen 60+. Formålet var også at evaluere gennemsigtigheden af ​​privatlivspolitikkerne. Vi tester og skaber også en mikrofon-jammer baseret på eksisterende designs for at beskytte brugernes privatliv. I sidste ende konkluderer vi baseret på vores analyse af de forskellige politikker og interviewene, forskellige mangler ved privatlivspolitikmiljøet. Der gives også en løsning på problemet med manglende gennemsigtighed, hvor vi går ind for mere standardiserede privatlivspolitikker med tilføjelse af generaliserede privatlivstabeller, der på en gennemsigtig og sammenlignelig måde viser formålet med dataindsamlingen, og hvilke oplysninger der indsamles.

In this day and age, voice assistants like Siri and Google Assistant have become a stable part of smartphones and other "smart" devices. Before one can use these devices one must give consent, and is often met with a privacy policy, clarifying what kind of information the voice assistant collect and processes. Previous research has shown that voice assistants possess privacy risks due to sensitive data that can be obtained from voice data: like gender and disabilities. In our work, we take a deep dive into the four biggest brands of voice assistants and their privacy policies. To further the understanding of consumer privacy regarding voice assistants, we have performed qualitative interviews with four participants in the age range of 15-17 and four participants aged 60+. The purpose was also to evaluate the transparency of the privacy policies. We also test and create a microphone jammer based on existing designs to protect user privacy. In the end, we conclude based on our analysis of the different policies and the interviews, various shortcomings of the privacy policy environment. A solution to the problem of lack of transparency is also given, with us advocating for more standardized privacy policies with the addition of generalized privacy tables that showcases in a transparent and comparable manner the purpose of the data collection, and what information is collected.