Dit is een gastbijdrage. Een Apache-lezer levert met dit stuk een bijdrage aan het maatschappelijk debat. De auteur schrijft in eigen naam en is verantwoordelijk voor de inhoud van de tekst.

Privacy en corona: hoe vermijden we algoritmische onderwerping?

Louis Mosar
privacy smartphone track trace
Foto: Gilles Lambert (Unsplash)

Mogelijk leidt dit tot een toename van de controlestaat, waarschuwen sommige analisten, zoals privacy-expert en activist Matthias Dobbelaere-Welvaert en Israëlisch historicus Yuval Noah Harari. Anderen, zoals Maarten Boudry, werpen tegen dat dit getuigt van “obsessief piekeren over privacy”, dat naar “narcisme” neigt (in een aanverwante context sprak Boudry in een opiniestuk uit 2014 over “postmodern narcisme”).

Om een oordeel te vellen over de wenselijkheid van dergelijke maatregelen zijn de details en de concrete invulling cruciaal. Zo lijkt de app die in Zuid-Korea gangbaar is minder indringend dan die in China. Eveneens is het belangrijk om duidelijkheid te scheppen over wat moderne big data surveillancetechnologie net zo problematisch maakt. Het is hier dat het huidige publieke debat tekortschiet. Het grote probleem is niet privacy op zich, maar wel dat het verlies van privacy tot (anonieme) dominantie en daardoor tot een verlies van vrijheid leidt.

Privacy-narcisme, dominantie en vrijheid

Het debat wordt geframed als een debat over privacy an sich. Hoewel privacy an sich een legitieme bezorgdheid is (zoals het recente schandaal van Google illustreert waarin medewerkers mee luisterden naar audiofragmenten die Google Assistant opnam), dreigen we het echte probleem met big data en surveillancetechnologie op die manier te miskennen.

Het prijsgeven van persoonlijke informatie kan leiden tot een situatie van dominantie door overheid of bedrijven

Als het enige waarover we ons zorgen maken is dat vreemden naar onze persoonlijke gesprekken luisteren, dan heeft Maarten Boudry een punt om dit “narcisme” te noemen. Bovendien wordt heel wat informatie tegenwoordig anoniem verwerkt en krijgt men vaak niet de persoonlijke informatie van anderen te zien,  of weet men niet welke informatie met naam en toenaam bij welke persoon hoort. Het probleem is in eerste instantie dan ook niet dat anderen je kleine en duistere geheimen kunnen bekijken of beluisteren, maar wel dat het prijsgeven van die informatie kan leiden tot een situatie van dominantie door overheid of bedrijven, zelfs als dat anoniem gebeurt via algoritmes.

Volgens filosoof Philip Pettit wordt iemand gedomineerd wanneer die persoon onderhevig is aan de willekeurige machtsuitoefening van één ander persoon of een groep personen. We kunnen van willekeurige machtsuitoefening spreken wanneer iemand geen controle heeft over de macht die over hem/haar uitgeoefend wordt. Daardoor is deze machtsuitoefening niet verplicht om rekening te houden met de belangen van het gedomineerde individu.

Het is makkelijk in te beelden dat het ontfutselen van bepaalde informatie kan leiden tot willekeurige machtsuitoefening. Stel je voor dat een hacker toegang krijgt tot het mailverkeer van een man die zijn vrouw bedriegt. Op dat moment kan de hacker de man domineren door te dreigen de informatie aan de vrouw vrij te geven als de man niet doet wat de hacker verwacht. De man bevindt zich in een ongelijke machtssituatie ten opzichte van de hacker en is volledig afhankelijk van diens willekeur. De hacker bepaalt volledig de termen van de verhouding tussen de hacker en de man, de laatste heeft geen controle over hun betrekking.

privacy smartphone track trace
Foto: Gilles Lambert (Unsplash)

Wanneer onder meer Dobbelaere-Welvaert en Harari stellen dat als we onze persoonlijke gegevens aan de overheid afstaan, dit de deur openzet voor overheden om ons gedrag te voorspellen en te manipuleren, dan gaat dit ook over een bezorgdheid omtrent dominantie, eerder dan over een bezorgdheid om wie al dan niet naar onze persoonlijke geheimen meeluistert.

Op het eerste gezicht onbelangrijke informatie kan gebruikt worden om individueel gedrag te proberen voorspellen en zelfs manipuleren, iets waar veel bedrijven reeds op inzetten. Denk bijvoorbeeld aan het Cambridge Analytica-schandaal, waarbij men via het verzamelen van Facebook-likes, consumentengedrag en internetgedrag, kiezersgedrag trachtte te manipuleren.

Voor veel mensen zal het er waarschijnlijk weinig toe doen dat iemand anders weet naar waar je surft of wat je liket. Wat kan het je immers schelen dat een vreemde weet dat je Hello Kitty leuk vindt of dat een bepaalde seksuele fetisj spreekt uit je surfgedrag? De meeste mensen zullen dan weer wel aanstoot nemen aan pogingen tot manipulatie via het gebruik van deze data. Net zoals in het voorbeeld van de hacker creëert dit een situatie waarin een instantie macht over ons kan krijgen waarover we geen controle hebben, een macht die niet ter verantwoording kan geroepen worden. Deze machtsuitoefening gebeurt achter onze rug en zonder dat we het beseffen.

Privacy is dus geen doel op zich maar een noodzakelijke voorwaarde om vrijheid, gedefinieerd als de afwezigheid van dominantie, te verwezenlijken.

'Weapons of math destruction'

Het grote probleem is hier niet dat anderen directe toegang zouden hebben tot onze persoonlijke gegevens om ons, naar analogie met de hacker, op collectieve schaal af te persen. Ook wanneer gegevens volledig geanonimiseerd zijn en geen enkel mens directe toegang heeft tot je individuele data, kan dominantie optreden. Het is perfect denkbaar dat een systeem zoals dat van Cambridge Analytica volledig geautomatiseerd gebeurt, maar dat zou het probleem niet wegnemen. Ook geautomatiseerde systemen kunnen tot dominantie leiden.

Dat blijkt uit onderzoek van big data experts, zoals dat van de wiskundige Cathy O’Neil naar destructieve algoritmes die ze 'weapons of math destruction' (kortweg WMD) noemt. Het grote probleem met WMD’s is dat ze niet transparant zijn voor wie eraan onderworpen wordt en bijgevolg de macht die WMD’s over hem/haar uitoefenen niet ter verantwoording kan roepen.

Een voorbeeld dat ze geeft is dat van “added-value modeling” in de Amerikaanse stad Washington D.C.. De stad wilde haar onderwijssysteem verbeteren en huurde een databedrijf in om een systeem te bedenken om de slechte leerkrachten uit de scholen te filteren. Leerkrachten kregen op basis van de verwerking van data door een algoritme een score. Scoorden de leerkrachten onder een bepaalde waarde, dan werden ze automatisch ontslagen. Leerkrachten die geëvalueerd werden door het systeem wisten niet hoe de score bepaald werd en kregen ook geen verdere uitleg bij ontslag. Het systeem bleek ook leerkrachten te elimineren die door directie, collega’s, ouders en leerlingen als goed werden bevonden. De beleidsmakers waren echter van mening dat een algoritme objectiever was dan de evaluatie van mensen.

Uiteindelijk bleek achteraf dat veel leerkrachten, die vermoedden dat de resultaten een rol speelden in hun score, mogelijks met de examenresultaten van hun leerlingen geknoeid hadden. Testte een eerlijke leerkracht de leerlingen het jaar daarop opnieuw, dan leek het of de klas achteruitgegaan was in vergelijking met vorig jaar. Daardoor werden sommige goede leerkrachten mogelijks ontslagen omdat ze een klas voor zich kregen die eigenlijk zwakker was dan de vervalste examenresultaten lieten uitschijnen.

Het probleem is de creatie van een niet-contesteerbare en willekeurige macht

De beleidsmakers erkenden dat er in sommige gevallen mogelijks geknoeid was, maar ze hielden vol dat het systeem over het algemeen goed werkte en dat het bewijs van mogelijke vervalsing niet afdoende was, en dat elke ontslagen leerkracht eerlijk behandeld was geweest.

O’Neil geeft ons nog tal van dergelijke voorbeelden. WMD’s worden in de VS tegenwoordig gebruikt in het bepalen van een strafmaat, bij ordehandhaving en bij het toekennen van jobs of leningen via bijvoorbeeld een credit-score systeem. Zelfs een goed werkend systeem zal fouten maken. Bovendien genereren deze systemen een score die iets zegt over de waarschijnlijkheid dat mensen slechte leerkrachten, recidivisten, slechte werknemers of mogelijke criminelen zijn. Mensen krijgen niet de kans om tegen de score die hen toegekend wordt te argumenteren. In het algemeen weten ze zelfs niet hoe die score tot stand komt. O’Neil merkt dan ook terecht op dat WMD’s efficiëntie prefereren boven rechtvaardigheid en dat ze vaak het verleden van mensen projecteren in de toekomst waardoor ze ook tot selffulfilling prophecies leiden.

Bovenstaande voorbeelden tonen het gevaar van het blinde vertrouwen op big-datatechnologie. Zelfs al deze data volledig anoniem en zonder verder menselijke tussenkomst verwerkt worden, zijn dergelijke systemen verwerpelijk. Dat anderen over je schouder kunnen meekijken, is niet het probleem. Het probleem is de creatie van een niet-contesteerbare en willekeurige macht. Of die macht een individu is dat over je schouder meekijkt om zo je gedrag te manipuleren of een niet-transparant algoritme dat een score uitspuwt en bepaalt welke mensen geviseerd worden als criminelen, of toegang hebben tot bepaalde jobs of leningen, maakt niet zoveel uit.

Naar een democratisering van de privacybescherming

Wat is de implicatie van deze visie op privacy voor het gebruik van datatechnologie in de strijd tegen corona? Ten eerste: anonieme dataverwerking is geen voldoende voorwaarde om dominantie tegen te gaan. Ten tweede: de macht die dergelijke technologie met zich meebrengt moet onder de controle vallen van zij die eraan onderhevig zijn. Op die manier voorkomen we dat deze macht willekeurig wordt.

Anonieme dataverwerking is geen voldoende voorwaarde om dominantie tegen te gaan

Hier schuilt een groot gevaar, want zoals critici van de maatregelen opmerken, worden veiligheidsmaatregelen die in tijden van crisis genomen worden later zelden teruggeschroefd. Denk bijvoorbeeld aan de Amerikaanse PATRIOT-Act. De wet werd ingevoerd in 2001 na de aanslagen op 11 september van datzelfde jaar. De wet gaf veiligheidsdiensten meer bewegingsruimte en liet het onder meer toe om massaal telefoongesprekken af te luisteren. Nadat de wet gedeeltelijk werd teruggedraaid in 2015, onder de naam 'Freedom Act', is ze voor een groot deel nog steeds van kracht.

Combineer de weerbarstigheid van dergelijke maatregelen met O’Neils stelling dat WMD’s vaak van het ene domein naar het andere overspringen en het is niet ondenkbaar dat toekomstige regeringen (ongetwijfeld met de beste bedoelingen) het systeem van track & trace zullen behouden en uitbreiden of heroriënteren voor misdaad of terreurbestrijding. Zeker omdat nog niet meteen een vaccin in zicht is en de dreiging van nieuwe pandemieën altijd om de hoek blijft loeren, is de kans reëel dat deze maatregelen het nieuwe normaal worden en we geleidelijk aan slaapwandelen in de proliferatie ervan. Waakzaamheid is dus zeker geboden om te garanderen dat de maatregelen in tijd en omvang beperkt blijven.

Om te voorkomen dat de macht die de implementatie van deze technologie met zich meebrengt geen willekeurige macht wordt, kan het gebruik van dergelijke maatregelen alleen maar als er een grote democratische controle over is. Toegegeven, in België zitten we op dit vlak beter dan veel andere landen. Zo houdt de Gegevensbeschermingsautoriteit, opgericht naar aanleiding van de fameuze Europese GDPR-wet, toezicht op de ‘Data against corona’ taskforce. Maar vanuit het gezichtspunt dat ik hier hanteer, is dat onvoldoende.

Het gebruik van track and trace technologie kan dus alleen maar wanneer de macht die ze het in het leven roept contesteerbaar blijft en onder de controle van de burger blijft

Overweging 16 van GDPR stelt immers onomwonden dat de regelgeving niet van toepassing op (onder meer) zaken van nationale veiligheid. In deze context zijn de besluiten van de Gegevensbeschermingsautoriteit niet absoluut afdwingbaar ten opzichte van de overheid. We moeten er ook mee rekening houden dat onze huidige regering een regering met “bijzondere machten” is, die de overheid vrij vergaande volmachten geeft om de coronacrisis op te lossen, ook met betrekking tot openbare orde en volksgezondheid. Er moeten dus absolute garanties zijn dat we de burgerlijke controle over de maatregelen vrijwaren en dat deze burgerlijke controle het laatste woord heeft (wat op dit moment niet het geval is).

Het gebruik van dergelijke technologie kan dus alleen maar wanneer de macht die ze het in het leven roept contesteerbaar blijft en onder de controle van de burger blijft. Om dit te realiseren stel ik volgende algemene maatregelen voor die van kracht dienen te zijn voor eender welk gebruik van big data technologie door de overheid – dus niet alleen in deze crisis:

(1) De gebruikte software en modellen moeten volledig openbaar zijn, vergezeld van toegankelijke informatie die de werking ervan toelicht. Op die manier kan elke burger zien hoe de macht in elkaar zit, of ze redelijk is en kan de burger deze macht contesteren.

(2) Er moet een wettelijk kader van kracht zijn dat de Gegevensbeschermingsautoriteit een vetomacht geeft over de implementering van eender welke maatregel, ook in gevallen van nationale veiligheid, en die ook garandeert dat de Gegevensbeschermingsautoriteit op eender welk moment een maatregel kan herroepen.

(3) De Gegevensbeschermingsautoriteit moet gedemocratiseerd worden door toevoeging van een burgerpanel. Ook al is de Gegevensbeschermingsautoriteit een onafhankelijk orgaan, het blijft bestuurd door een select clubje van bureaucraten en specialisten die mee aan de knoppen van de macht zitten en keuzes voor ons maken. De expertise van deze specialisten is cruciaal, maar onvoldoende. We kunnen van deze crisis gebruikmaken om de macht verder te democratiseren, door een burgerpanel op te richten, met leden bepaald door lottrekking en bijgestaan door de experten van de Gegevensbeschermingsautoriteit. De experten adviseren de burgers, maar uiteindelijk is het aan de burgers zelf om de beslissing te maken. Een vrije samenleving is alleen mogelijk als burgers zelf controle over deze macht hebben, en geen select clubje van bureaucraten, advocaten, computerwetenschappers, filosofen of epidemiologen.

LEES OOK
Jan Walraven / 29-09-2016

Wat Facebook over jou weet

ProPublica breekt binnen in de "black box" van Facebook: welke persoonlijke data verkoopt het bedrijf aan adverteerders?
propub algoritmes