Logo Joop
De opiniesite van BNNVARA met actueel nieuws en uitgesproken meningen

Betekenen oorlog en misdaad het einde van privacy in Europa?

  •  
19-04-2022
  •  
leestijd 3 minuten
  •  
1039 keer bekeken
  •  
39225139155_3e4e9e7a7c_o

een gepixeld gezicht

© cc-foto: EFF Photos

De oorlog in Oekraïne kostte al meer dan 1400 Oekraïners het leven. Om de identiteit van de slachtoffers te bepalen wordt een systeem gebruikt waar tien miljard foto’s in staan, zonder dat iemand in die database daar ooit toestemming voor heeft gegeven. Dat is niet het enige Europese privacy-schandaal: de Europe Commissie heeft een plan voor één van de grootste gezichtsherkenningssystemen ter wereld. Betekent dit het einde van privacy in Europa?

Clearview
Clearview AI, een Amerikaans bedrijf, helpt de Oekraïense overheid ‘om niets’ om de identiteit van haar burgers te helpen bepalen. Zo kunnen dodelijke slachtoffers beter geïdentificeerd worden. Ook bij checkpoints komt de software van pas, want met de techniek worden niet-Oekraïners sneller herkend. Dat klinkt als goed nieuws, maar dat is het niet.

De gezichtsherkenningssoftware van het bedrijf is namelijk allesbehalve privacy-vriendelijk. Sterker nog: de kans is groot dat ook jouw foto in Clearview AI staat, zonder dat je daar ooit toestemming voor hebt gegeven. Ook als je geen social media hebt, sta je waarschijnlijk in het systeem, want de kans is groot dat je op een (online) groepsfoto staat en ‘getagd’ bent. Clearview heeft inmiddels meer dan tien miljard foto’s via social media en andere online bronnen verzameld.

Google, Meta (het moederbedrijf van Facebook) en Twitter verzochten Clearview AI om te stoppen met het verzamelen van foto’s, maar daar gaat het bedrijf vrolijk mee door. Boetes houden het bedrijf niet tegen, zelfs niet de 20 miljoen euro boete die het vorige maand kreeg in Italië omdat het bedrijf zich niet houdt aan de Europese privacyrichtlijn GDPR.

Clearview AI komt daarbij regelmatig in opspraak wegens racisme en andere vormen van discriminatie die zich vaak voordoen bij kunstmatig intelligente systemen. Willen we echt dat een racistisch algoritme bepaalt wie wie is? Leren we dan niets van de toeslagenaffaire waarbij een racistisch algoritme bepaalde wie waarschijnlijk met toeslagen zou frauderen?

Het bedrijf wil tot overmaat van ramp zijn software verkopen aan Verenigde Arabische Emiraten, dat weinig vredelievend is tegenover politieke dissidenten. Op de verlanglijst staan ook Qatar en Singapore, waar homoseksualiteit strafbaar is. Moeten deze landen echt de beschikking krijgen over een database met tien miljard foto’s om zo kritische burgers en homo's op te sporen? En wat gebeurt er als deze software in handen komt van Russische soldaten, die zo ook Oekraïense burgers kunnen identificeren?

Prüm II
Ook in de EU staat privacy onder druk. Prüm II, een nieuw plan van de Europese Commissie, laat Europese landen foto’s van verdachten vergelijken. Net zoals bij Clearview AI wordt er gebruik gemaakt van slimme algoritmes om geportretteerden te identificeren. Handig als een Spaanse crimineel zich in Frankrijk bevindt, toch?

Als dit plan doorgaat, ontstaat een van de grootste gezichtsherkenningssystemen ter wereld. De politiediensten kunnen stilstaande beelden van CCTV-camera's, foto's van sociale media of die op de telefoon van een slachtoffer vergelijken met mugshots in een politiedatabase. De burgerrechten-ngo European Digital Rights (EDRi) noemt het de meest uitgebreide biometrische surveillance infrastructuur ter wereld.

Het gebruik van gezichtsherkenningstechnologie is niet zonder risico: wie verkeerd geïdentificeerd wordt door zo’n algoritme is de klos, wat tot schrijnende situaties leidde in de Verenigde Staten. Tientallen steden in Amerika verbieden hun lokale politiediensten dan ook om gezichtsherkenning-technologie te gebruiken. De EU debatteert op dit moment nog over zo’n verbod.

Clearview AI en Prüm II illustreren een modern dilemma voor Europa. Accepteren we dat de privacy van – ook onschuldige – burgers geschonden wordt in de strijd tegen misdaad? Komen we in verzet tegen een bedrijf dat software ontwikkelt om mensenrechtenschendingen mogelijk te maken, ook als dat bedrijf Oekraïne helpt om slachtoffers te identificeren? Is het weggeven van software aan een land in oorlog niet een smakeloze manier om goede sier te maken, iets als greenwashing (duurzame schijn), maar dan warwashing? En zouden we iets leren van de toeslagenaffaire, waarbij we de macht uit handen gaven aan een racistisch algoritme? 

cc-foto: EFF Photos

Delen:

Praat mee

Onze spelregels.

0/1500 Tekens
Bedankt voor je reactie! De redactie controleert of je bericht voldoet aan de spelregels. Het kan even duren voordat het zichtbaar is.