Als we niet willen dat er grootschalige surveillancetechnologie op ons wordt toegepast, moeten we onethische verdienmodellen afwijzen en kritischer staan tegenover het ter beschikking stellen van onze gegevens
De afgelopen week kreeg FaceApp de volle aandacht in de media. Maar hadden we het wel over de juiste zaken? Na de hype is het nu tijd voor de bezinning.
Verkeerde focus Helaas waren er twee punten die de discussie afleidden van waar die eigenlijk over zou moeten gaan. Zo hoorden we regelmatig dat het gevaar van de app erin schuilt dat deze Russisch is en werd er ten onrechte gesteld dat de AVG daardoor niet van toepassing zou zijn. Dat is niet waar. Daarnaast kwam de volgende drogredenering aan bod: “Bedrijven als Facebook en Google gaan ook slecht om met je gegevens, dus maakt het toch allemaal niet meer uit.” We draaien het liever om. Laten we veel kritischer worden over de data die we delen!
Maar dat daar gelaten. Waar de discussie over zal moeten gaan is het onethische verdienmodel van bedrijven die met ‘gratis’ diensten op grote schaal data verzamelen én de gevaren die daaruit voortkomen.
Gratis en vogelvrij FaceApp is niet gratis omdat de makers graag iets leuks voor je willen doen. De app is gratis zodat de drempel om jouw gezicht en andere gegevens te delen, zo laag mogelijk is. Om welke gegevens het gaat? FaceApp neemt je foto en je locatiegegevens en wilt weten welk specifieke toestel bij jouw gezicht hoort. In haar privacy policy staat dat FaceApp je gegevens deelt met ongespecificeerde bedrijven die met FaceApp in een groep zitten, en met bedrijven die zich later bij de groep aansluiten. FaceApp en deze andere bedrijven zullen jouw gegevens gebruiken om hun toepassingen verder te ontwikkelen. Wij vinden het onacceptabel dat deze gegevens worden gedeeld zonder geïnformeerde toestemming.
Surveillancetechnologie Niet alleen weet je niet aan wie je gegevens doorgegeven worden, je weet ook niet wat ermee gebeurt. Het ligt voor de hand dat de verzamelde gezichten gebruikt worden om ingrijpende surveillancemiddelen te ontwikkelen, zoals gezichtsherkenningstechnologie. Het zal niemand verbazen dat een grootschalige verzameling gezichten zich daar uitstekend voor leent.
Gezichtsherkenning komt steeds meer voor, denk bijvoorbeeld aan de ontgrendeling van telefoons of de technologie van Facebook. Deze technologie is niet niet zonder gevaren. Lees hier wat we eerder over gezichtsherkenning in de publieke ruimte hebben geschreven.En ook de politie gebruikt al gezichtsherkenningstechnologie. In dit artikel van Vice spraken wij ons uit tegen de grote schaal waarop de politie gezichten verzamelt in CATCH.
Het verdienmodel van FaceApp is gebaseerd op de massale verzameling van persoonsgegevens, dus waarom zouden we denken dat de technologie die met de gegevens ontwikkeld wordt zich op iets totaal anders zou richten dan het verder in het vizier brengen van de burger?
Ja, je persoonsgegevens afstaan aan een bedrijf dat daar onethisch mee omspringt is onverstandig, of dat bedrijf nu in Rusland of in Amerika gevestigd is, en of dat bedrijf nu FaceApp heet of Facebook of Snapchat. Als we geen grootschalige surveillance in de publieke ruimte willen moeten we kritischer staan tegenover het ter beschikking stellen van onze gegevens aan bedrijven die deze (kunnen) gebruiken voor de ontwikkeling daarvan.
Maar het echte probleem is niet de gebruiker, maar het bedrijf. Tegen dit soort onethische bedrijfsvoering – in Europa bovendien onwettelijk sinds de GDPR – moet hard worden opgetreden. Al is het maar omdat we niet willen dat er grootschalige surveillancetechnologie op ons wordt toegepast.