Wanneer het om privacyrisico’s gaat wordt er vaak aan menselijk falen gedacht, maar ook aan automatische processen zijn risico’s verbonden. Met de opkomst van zelfbesturende auto’s, drones en andere toepassingen van Artificial Intelligence (AI) wordt dit een steeds belangrijkere kwestie. Wat zijn dus eigenlijk de privacyrisico’s van AI?

Dataverzameling door Artificial Intelligence

Tijdens automatische processen worden enorme hoeveelheden data geproduceerd en verzameld. Dit kan natuurlijk ook privacygevoelige data zijn, en een belangrijk voorbeeld daarvan is de zelfrijdende auto. Deze auto’s leggen je rij- en parkeergedrag vast, maar ook je adresgegevens. Wanneer deze data niet goed beveiligd is, kan het gebruikt worden voor commerciële én criminele doeleinden. Dit is een grove inbreuk op de privacy, en uit de cijfers van de ANWB-campagne My Car, My Data blijkt dat 94 procent van de Nederlandse automobilisten hier juridisch tegen beschermd wilt worden.

Een ander voorbeeld van inbreuk op privacy kwam naar voren uit een onderzoek van de Noorse Consumentenbond. Hierbij ging het om een mobiele sportapplicatie, waarvan de gegevens zonder toestemming werd doorgespeeld naar derden. Zelfs wanneer de app niet actief was.

Risico’s van dataverwerking

Dataverwerking betekent het gebruiken en omzetten van data die al verzameld is. In het geval van de zelfrijdende auto zou dit erg handig kunnen zijn. Zo kan de auto bijvoorbeeld routesuggesties geven op basis van de dagelijkse activiteiten van de passagier. Maar de keerzijde is dat de auto verschillende locaties van de gebruiker (onder andere huis en werkplek) vastlegt in een database die gekraakt kan worden.

Een extreem voorbeeld hiervan is een zelfbesturende drone met gezichtsherkenning. Dit klinkt misschien als toekomstmuziek maar hier wordt al onderzoek naar gedaan en een dergelijke drone is in ontwikkeling. Deze drones kunnen ingezet worden voor surveillancedoeleinden, wat een breed scala aan privacy risico’s met zich meebrengt. Als bewakingscamera’s in openbare ruimtes al een inbreuk op de privacy zijn, dan geldt dit al helemaal voor niet-plaatsgebonden drones met gezichtsherkenning en AI.

Beveiliging bij datamanagement

Datamanagement verwijst naar het proces van dataverzameling en -verwerking, en vereist een goede beveiliging. Maar door de complexiteit van AI waarbij verschillende componenten met elkaar communiceren kan er veel fout gaan.

Dit wordt ook beschreven in het onderzoeksrapport Privacy and Autonomous Systems van het King’s College London. Hieruit komt naar voren dat er verschillende manieren zijn om de privacy te waarborgen, waar Privacy by Design en Transparancy twee van zijn.

Privacy by Design

Privacy by Design is het principe dat er al in het ontwerpproces van toepassingen die data verwerken rekening gehouden moet worden met de privacy. Dit uitgangspunt wordt in het rapport als volgt toegelicht:

“Privacy-engineering methods to systematically capturing and addressing privacy issues during development, management, and maintenance; and privacy-engineering techniques to accomplish privacy-engineering tasks or activities.”

Het belang van Privacy by Design voor toepassingen die data verwerken werd in 2015 al onderschreven in het adviesrapport Drones en Privacy van het Ministerie van Justitie en Veiligheid. Drones die bijvoorbeeld niet de hoofdfunctionaliteit hebben om mensen te filmen zouden ingesteld moeten worden om gezichten “blurren”.

Transparancy

Transparancy is een fundament voor zowel privacy als AI. Transparantie over de data die verzameld en verwerkt wordt, stelt de gebruiker in staat een overwogen keuze te maken over de mate van betrokkenheid. Daarnaast geeft het ook een gevoel van vertrouwen en veiligheid als mensen op de hoogte zijn van de manier waarop datamanagement plaatsvindt bij toepassingen van AI.

Multidisciplinaire benadering

Om aan deze en andere criteria voor het waarborgen van de privacy in toepassingen van Artificial Intelligence te voldoen, is er nog veel onderzoek nodig. Dit vereist volgens het rapport van King’s College London een multidisciplinaire benadering:

“Future research in autonomous systems should consider these two very exciting avenues we discussed, i.e., privacy-respecting and privacy-enhancing autonomous systems. We particularly expect and highly encourage multi-disciplinary collaborations between AI, privacy, HCI, sociology and law researchers working together on both avenues over the next decades.”