Stel je voor: een wereld waarin mensen met behulp van een paar lenzen en een geheugenchip hun volledige geschiedenis van A tot Z kunnen terughalen en afspelen. Het is een scenario van de aflevering The Entire History of You uit de sciencefictionserie Black Mirror. Wie zich nog niet bewust was van de gevolgen van nieuwe technologieën, wordt daar door deze serie mee geconfronteerd. Het levert de kijker een onheilspellend gevoel op.

Eeuwige databank

Dit unheimische gevoel wordt veroorzaakt door de herkenning van bepaalde dynamieken uit onze dagelijkse interactie met technologie. Een geheugenchip bestaat misschien nog niet, maar er wordt wel steeds meer persoonlijke informatie over ons verzameld, opgeslagen en geanalyseerd zonder dat we daar iets over te zeggen hebben. Het digitale geheugen wordt steeds omvangrijker en geavanceerder en de mogelijkheden om informatie te wissen of veranderen (‘te vergeten’) worden steeds duurder en omslachtiger.

Inmiddels kan deze enorme hoeveelheid (persoonlijke) data op zo’n manier gecombineerd worden, dat bedrijven, onderzoekers of overheden patronen kunnen herkennen die hen in staat stellen om te anticiperen en te sturen op toekomstige situaties, gedrag of behoeften. Deze analyses zijn zo accuraat dat er vaak over de ‘voorspellende kracht’ van big data wordt gesproken (Mayer-Schönberger & Cukier 2013).

Once a dust bin, history becomes a freezer (Allen 2008). Maar wat betekent zo’n eeuwige persoonlijke digitale databank voor de mogelijkheid om onze persoonlijkheid te ontwikkelen? Wordt onze privacy, een voorwaarde voor autonome zelfontplooiing, eigenlijk nog wel genoeg beschermd?

Dataspoor

Berber Brouwer, advocate mediarecht, maakte zich recentelijk nog terecht zorgen in de Volkskrant of haar “(…) gegevens altijd blijven rondzwerven op de servers van Google voor mogelijk toekomstig gebruik”. Onze persoonlijke digitale databank groeit gestaag. Elke keer dat we op het web surfen, een foto of filmpje posten, ergens op klikken of iets googelen, wordt onze onlinegeschiedenis gedetailleerder. Samen vormen al onze voetstappen, die door onder andere cookies geregistreerd worden, een gedragspatroon; een soort spoor.

‘Big data’ beloven ons dat als we maar genoeg data verzamelen en combineren, we patronen in de data kunnen herkennen en dat we op basis van deze patronen onder andere voorspellingen kunnen doen over toekomstig gedrag (Boyd & Crawford 2012). Gedragspatronen die ontdekt kunnen worden in de verzamelde data worden, zodra ze ingezet worden als sociale categorisaties en mensen of groepen identificeren of representeren, ook wel profiles (profielen) genoemd (Hildebrandt & Gutwirth 2008).

Op basis van een profiel kun je het gedrag van mensen voorspellen, sturen of beïnvloeden. Zo kun je ze bepaalde artikelen, producten, diensten, banen of advertenties aanbieden op basis van hun profiel. Dit wordt ook wel gepersonaliseerde communicatie of reclame genoemd.

“ De informatie die de profielen opleveren over het gedrag van mensen is inmiddels zo nauwkeurig dat een bedrijf soms eerder iets over jou weet dan jijzelf ”

De informatie die de profielen opleveren over het gedrag van mensen is inmiddels zo nauwkeurig dat een bedrijf soms eerder iets over jou weet dan jijzelf. Denk maar aan Target, de supermarktketen die een zwangerschap voorspelde (Duhigg 2012; Siegel 2014). “Big data is een beetje als Big Brother: het weet waar je bent, waar je bent geweest, wie je vrienden zijn, hoe gezond je bent. Het kan voorspellen wat je zult kopen, wanneer je ziek wordt en of je het slachtoffer van criminaliteit zult worden – of een crimineel”, schreef Trouw laatst treffend (Visscher 2016).

Individuele autonomie

In eerste instantie zou je misschien denken dat de beïnvloeding van gedrag of het fixeren van een identiteit door een online profiel niet zoveel met het schenden van privacy te maken hebben. Privacy wordt vaak omschreven als het recht op respect voor iemands privé- en familieleven, huis- en briefgeheim, corresponderend met artikel 8 van het Europees Verdrag voor de Rechten van de Mens.

Het Europees Verdrag voor de Rechten van de Mens interpreteert het recht op een privéleven als het recht om je eigen keuzes te maken ten aanzien van je eigen leven zonder inmenging van de staat; om je eigen persoonlijkheid te ontwikkelen, om relaties met anderen te onderhouden en om te communiceren. Artikel 8 beschermt daarom ook ‘de psychische en fysieke integriteit van een persoon, je seksleven, seksualiteit, persoonlijke data, reputatie, namen en foto’s’ (ECHR, artikel 8).

“ Privacy geeft ons de controle om verschillende aspecten van ons ‘zelf’ te tonen en te experimenteren met onze identiteit ”

Privacy houdt het recht op zelfontplooiing in en waarborgt individuele autonomie. Daarmee is het een instrumentele waarde voor een autonoom leven. Privacy geeft ons de controle over het tonen van verschillende aspecten van ons ‘zelf’ en de mogelijkheid te experimenteren met onze identiteit in verschillende sociale contexten. Dit is belangrijk, omdat we voor een autonoom leven zelf een idee moeten vormen over wat het goede leven inhoudt.

Dat betekent dat we onze eigen gedachten, overtuigingen en waarden moeten ontwikkelen, eigen keuzes moeten maken en dat we de controle moeten hebben over hoe we ons aan anderen presenteren om verschillende, betekenisvolle relaties te kunnen onderhouden (Roessler 2005). Verschillende relaties en de ruimte om te experimenteren met bijvoorbeeld je seksualiteit, politieke of religieuze overtuigingen of de traditionele waarden van de gemeenschap waar je bij hoort, worden mogelijk gemaakt door privacy. Namelijk door de mogelijkheid om te bepalen en redelijke verwachtingen te kunnen vormen over wie er toegang heeft tot jouw informatie en in hoeverre. Privacy gaat dan niet alleen over informatie, maar ook over beslissingen. Privacy zou ons ook moeten beschermen tegen ongewilde bemoeienis ten aanzien van onze beslissingen en onze handelingen (Roessler 2005).

Samensmelting

Privacy is een belangrijke bouwsteen voor een authentiek en autonoom leven. Het wordt bijzonder lastig om unieke persoonlijkheden te ontwikkelen als we constant geobserveerd worden of als al onze experimenten die we nodig hebben om te leren, groeien en veranderen voor eeuwig worden vastgelegd, zoals met de geheugenchip van Black Mirror.

Ten eerste worden diverse sociale relaties, waarin je verschillende kanten van jezelf kunt laten zien, onmogelijk gemaakt als je mogelijk constant bekeken wordt. Ten tweede zouden een extern digitaal geheugen en gedragsbeïnvloeding je persoonlijke ontwikkeling kunnen doen stokken.

Aan de hand van drie verstarrende facetten van toenemende online surveillance en online profielen zal ik toelichten hoe autonome zelfontplooiing geproblematiseerd wordt. Het eerste probleem is context collapse. Onder invloed van de mogelijkheden van nieuwe technologieën kunnen gebruikers steeds vaker bekeken worden door verschillende ‘publieken’.

Neem bijvoorbeeld Facebook: je posts kunnen bekeken worden door je moeder, werkgever, collega’s, vrienden en dat leuke meisje dat je een paar maanden terug in de kroeg tegenkwam. Facebook creëert een samensmelting van verschillende sociale contexten. Doordat de verschillende contexten ineens toegang hebben tot dezelfde informatie over jou, kun je je in die verschillende contexten niet meer anders presenteren.

Wat je doorgaans van jezelf laat zien bij je vrienden is niet datgene wat je normaal gesproken bij je werkgever laat zien, maar deze keuze heb je dankzij de architectuur van nieuwe informatie en communicatietechnologieën steeds minder in de hand.

Panopticon

Een context collapse hangt nauw samen met een tweede probleem: het chilling effect. Dit effect treedt op als mensen het gevoel hebben dat ze misschien bekeken worden. Het houdt het aanpassen van het gedrag aan (mogelijke) sociale normen uit angst voor sancties in. Michel Foucault introduceerde dit fenomeen aan de hand van Jeremy Benthams panopticon (een cirkelvormige gevangenis met in het midden een geblindeerde wachttoren). Hij beschreef hoe mensen zich conformeren en zelf-disciplineren als ze denken dat ze (mogelijk) bekeken worden.

The Economist schreef in 2013 dat we met de komst van de smartphone onderdeel zijn geworden van een sociaal panopticon: in plaats van dat we door één partij bekeken worden, worden we nu door iedereen in het bezit van deze technologie mogelijk in de gaten gehouden, offline en online. Dit kan leiden tot zelfcensuur. Gebruikers zijn de afgelopen tien jaar, door schade en schande, voorzichtiger geworden en zijn zich bewuster van het feit dat het internet niets vergeet of vergeeft.

Foto’s uit je studententijd kunnen zo opduiken in de Google-check van je toekomstige werkgever. Een chilling effect kan betekenen dat je je minder buiten de gebaande paden begeeft. Een fout of een mislukt experiment kan je tegenwoordig lang achtervolgen. Daarbij moeten de context, je persoonlijke interpretatie van de gebeurtenis en het leerproces het afleggen tegen de keiharde ‘feiten’ die mensen in de vorm van filmpjes, foto’s of tekst eindeloos kunnen bekijken. Daarom is ‘een samenleving zonder privacy verstikkend’, aldus filosoof en jurist Daniel Solove.

Je bent wat je klikt

Tot slot wordt er in het kader van zelfontplooiing ook vaak gesproken van een filter bubble. Profielen zijn problematisch: sociale categorisaties op basis van gerecyclede digitale informatie kunnen gemakkelijk selffulfilling prophecies worden. De opties en aanbiedingen die je worden voorgelegd worden gemaakt op basis van je surfgedrag, waardoor er een zogenaamde filter bubble ontstaat. Een filter bubble houdt in dat je alleen nog maar opties aangeboden krijgt die passen bij je profiel, waardoor je steeds gevoed wordt met profielbevestigende producten, diensten en informatie.

Het probleem is dat profielen of categorisaties altijd artificieel zijn, maar omdat mensen steeds profielbevestigende opties consumeren, consolideert het profiel steeds meer (Hacking 2006). Gebruikers ‘worden’ zo hun profiel, door zich profiel-bevestigend te gedragen. Blootstelling aan alternatieven komt weinig voor in een filter bubble, want de (financiële) aantrekkelijkheid van dataverzameling ligt juist in gepersonaliseerde producten, diensten, adviezen en informatie. Het echoën van dezelfde meningen en aanbiedingen en het uitblijven van tegenstrijdige opties, keuzes of gedachten, waar Facebook en Google vaak van worden beticht, kan leiden tot tunnelvisie (Dekmyn 2015; Quattrociocchi, Scala & Sunstein 2016).

Daarnaast liggen er gevaren als leefstijldifferentiatie en discriminatie op de loer. Denk aan de discussie rondom het delen van fitnessdata, afkomstig van gezondheidsapps en armbandjes, met zorgverzekeraars en werkgevers. Op basis van de kunstmatige profielen kan het zijn dat je van bepaalde diensten of kansen uitgesloten wordt, kortingen of juist boetes krijgt, extra in de gaten gehouden wordt (denk maar aan police profiling), maar ook gestuurd of genudged wordt in je gedrag: “Nog 10.000 stappen totdat je je fitnessgoal van deze week bereikt hebt en een premieverhoging hebt voorkomen, Janssen!”

Je zou kunnen stellen dat het reduceren van opties en het sturen van gedrag door de toegang tot persoonlijke informatie een mogelijke schending is van zowel je informationele privacy als van de privacy van je beslissingen, zeker als het gaat om bedrijven of overheden die burgers willen sturen in politieke overtuigingen of leefstijl.

Zelfbeeld

Big data beloven ons dat onze data iets vertelt over wie we (zullen) zijn. Profielen zijn echter gebaseerd op gerecyclede data uit het verleden. Dit leidt tot een bevroren persoonlijkheid en tot een bevestiging van categorieën of stereotypen. Profielen houden geen rekening met hoe mensen kunnen veranderen en bevorderen ook geen verandering. Het wordt helemaal problematisch wanneer profielen als uitgangspunt worden genomen.

The Entire History of You begint met een sollicitatiegesprek. Het bekijken van het digitale geheugen van de sollicitant zal doorslaggevend zijn voor het wel of niet aannemen. Het persoonlijke verhaal, de context en de eigen interpretatie van gebeurtenissen, die zo belangrijk zijn voor onze identiteit, worden ondergeschikt gemaakt aan de data, de ‘feiten’. Dit gebeurt nu ook al: als sollicitant kun je verwachten dat je toekomstige werkgever je googelt en op basis van die informatie een voorselectie maakt. Ook bepaalt ons surfgedrag welke vacatures we te zien krijgen. Wat je te zien of aangeboden krijgt, beïnvloedt je zelfbeeld en de opties die je denkt te hebben.

Bovenstaande voorbeelden laten zien hoe personen in hun zelfontplooiing gehinderd kunnen worden. Doordat iedereen kan meekijken, doordat steeds meer persoonlijke informatie wordt onthouden en doordat deze informatie wordt gebruikt om personen te categoriseren en te sturen in hun keuzes wordt de toekomst ineens een stuk minder ‘open’.

Experimenteren met leefstijlen, overtuigingen of seksualiteit wordt ineens een stuk minder aantrekkelijk als alles onthouden of bekeken wordt. Authentieke keuzes en het bijbehorende leerproces zijn belangrijk voor een autonoom leven: voor het ontwikkelen van een unieke persoonlijkheid en een eigen versie van het goede leven. Als we op basis van onze persoonlijke informatie gestuurd worden in ons gedrag, dan is dit een schending van onze privacy.

Houdbaarheidsdatum

In The Entire History of You zien we hoe je gegijzeld kan worden door het verleden en hoe een staat van constante surveillance sociale relaties verstoort. Een flexibele identiteit, die kan groeien en veranderen, is gebaat bij vergeten en ‘niet weten’. Big data-praktijken en technologieën zijn gericht op onthouden. Maar, het opslaan en recyclen van onze persoonlijke data maakt ons voorspelbare, categoriseerbare, maakbare, corrigeerbare en manipuleerbare subjecten (Martijn 2013).

“ Creativiteit en keuzevrijheid kunnen alleen bestaan als niet elk experiment of elke verkeerde keuze onthouden of afgestraft wordt ”

Dit is allesbehalve gunstig voor een liberale democratie, die juist floreert als haar burgers er diverse en afwijkende concepties van het goede leven op nahouden. Creativiteit en keuzevrijheid zijn drijvers van onze liberale samenleving en kunnen alleen bestaan als niet elk experiment of elke verkeerde keuze onthouden of afgestraft wordt.

Privacy maakt autonome zelfontplooiing mogelijk omdat het controle over persoonlijke informatie en persoonlijke beslissingen ten aanzien van levensinvullingen beschermt. Het is dus belangrijk dat informatie een houdbaarheidsdatum krijgt, dat burgers meer controle krijgen over hun online profielen (meer transparantie met betrekking tot wat er verzameld, gedeeld en geanalyseerd wordt en meer mogelijkheden om data te verwijderen) en dat er wetgeving komt met betrekking tot gedragsbeïnvloeding aan de hand van persoonlijke data.

Privacy is noodzakelijk voor een open toekomst in een samenleving waar data een steeds grotere rol gaat spelen. Ik kan het niet vaak genoeg echoën.

Bronnen

  • A.L. Allen, ‘Dredging up the past: Lifelogging, memory, and surveillance’, The University of Chicago Law Review 75:1 (2008) 47-74.
  • D. Boyd & K. Crawford, K. ‘Critical questions for big data: Provocations for a cultural, technological, and scholarly phenomenon’, Information, Communication & Society, 15:5 (2012) 662-679.
  • D. Dekmyn, ‘Facebook is een echokamer’, De Standaard 8.5. 2015. C. Duhigg, ‘How Companies Learn Your Secrets’, The New York Times Magazine 16.2. 2012. European Convention of Human Rights, Article 8.
  • I. Hacking, ‘Making Up People: clinical classifications’, London Review of Books, 28:16 (2006) 23-26.
  • M. Hildebrandt & S. Gutwirth (eds.) Profiling the European Citizen, Springer 2008, 2.
  • M. Martijn, ‘Voor fundamentele technologiekritiek, klik hier’, De Correspondent 30.10. 2013.
  • V. Mayer-Schönberger & K. Cukier, Big Data: A Revolution That Will Transform How We Live, Work and Think, London: John Murray Publishers 2013.
  • W. Quattrociocchi, A. Scala and C.R. Sunstein, ‘Echo Chambers on Facebook’, SSRN, 13.6. 2016.
  • B. Roessler, The Value of Privacy, Cambridge: Polity Press 2005.
  • E. Siegel, ‘Did Target Really Predict a Teen’s Pregnancy?’ KD Nuggets News 2014.
  • M. Visscher, ‘Ons oordeel is belangrijker dan big data’, Trouw 13.11. 2016.