Liefde bestellen

Tereza Burki is boos. Vijf jaar geleden schreef ze zich in bij een exclusief Londens datingbureau. Burki (47) was duidelijk over haar wensen: ze zocht een ontwikkelde man, liefst werkzaam in de financiële sector, met een luxe levensstijl. Bovendien moest hij in principe vader willen worden, want Burki wilde nog een kind. Volgens de eigenaar van het datingbureau voldeed ‘een aanzienlijk aantal’ van de ingeschreven mannen aan Tereza’s criteria. Maar in feite had het bureau slechts zo’n honderd mannen in zijn actieve bestand, die bovendien lang niet allemaal voldeden aan het gewenste profiel. Toen Burki daar achter kwam, klaagde ze het bureau aan wegens misleiding. Vorige week stelde de rechter Burki in het gelijk, aldus The Guardian. Veel geld neertellen om indirect te kunnen neuzen in een kaartenbak met nog geen honderd acceptabele mannen, nee zeg, dat is valse hoop wekken! Het datingbureau moest smartengeld betalen.

Dit voorval vat voor mij de tijdgeest krachtig samen. Teleurstelling die in een juridisch vertoog wordt gegoten. Maatschappelijk succesvolle vrouwen die moeten vissen in een vijver met naar hun zin te minne mannetjes. Verlangen dat wordt gegoten in dwingende taal; Burki lijkt niet zozeer op zoek naar liefde als wel naar intiem personeel. Maar waar het me nu om gaat, is de moeizame relatie tussen liefde en algoritmes.

Vooraanstaande informatiedeskundigen relativeren onze angst dat computers binnenkort het roer zullen overnemen. Zelfs de slimste lerende computer ontwikkelt geen nieuwe perspectieven. Daar heeft hij namelijk geen enkel belang bij: hij ligt lekker aan het infuus van de stroom – vanuit de machine gezien gaat alles helemaal prima. Hij rekent gewoon snel en slim door wat hij krijgt aangereikt.

Dat computers daarbij tot uitkomsten komen die wij mensen nauwelijks meer doorgronden, zien denkers als Evgeny Morozov of Douglas Hofstadter echter wel als een serieus maatschappelijk probleem. Computers geven een antwoord op basis van algoritmen die wij hebben opgesteld, maar combineren daarbij inmiddels dermate veel gegevens dat ook programmeurs vaak niet meer overzien wat precies de relatie is tussen algoritme, data en uitkomst. De computer heeft iets ‘gedacht’, maar wat? Je kunt het hem niet vragen. Zodra bedrijven en overheden gaan handelen op grond van de resultaten die supercomputers opleveren, kunnen wij die organisaties dus ook niet vragen waarom ze nu eigenlijk tot dat beleid komen. Er is geen inzicht meer, geen verhaal wat de beslissing begeleidt. Wat een andere manier is om te zeggen dat deze overheden en bedrijven geen verantwoordelijkheid meer kunnen nemen voor dergelijk beleid. Die ontwikkeling bedreigt de maatschappij wel degelijk.

Ik snap goed dat Tereza naar een in liefde gespecialiseerd databedrijf stapt; zo gemakkelijk is het niet om als drukbezette vrouw van zekere leeftijd een geschikte partner tegen het lijf te lopen. En mensen die zich inschrijven bij een datingbureau voldoen in ieder geval aan de allerbelangrijkste conditie als het over de liefde gaat: ze staan open voor romantische ontmoetingen. Maar verder bezie ik die liefdesbureaus met een scepsis die ironisch genoeg het spiegelbeeld is van de klacht van Hofstadter en Morozov. Waar zij vrezen dat we straks niet meer begrijpen waarom een computer een bepaald voorstel doet, is mijn bedenking dat je maar al te goed weet waarom de computer van het datingbureau nu juist die man op jouw pad stuurt. Hij is een echo van de vragenlijst, een afspiegeling van het profiel dat je zelf hebt opgesteld, een materialisatie van jouw eigen ideeën. En zo werkt liefde niet. De essentie van liefde is dat die jou te buiten gaat, overrompelt, en daardoor transformeert. Echte liefde leidt juist wel tot een nieuw perspectief.

Vroeger, als ik me verveelde tijdens de les, tekende ik de jongen van mijn dromen. Hij had donker haar en donkere ogen waarmee hij gevoelvol de wereld in keek. De mannen waar ik in de praktijk op bleek te vallen, zagen er heel anders uit. Als ik had vastgehouden aan het profiel dat ik had opgesteld, was ik mijn grote liefde misgelopen. Moraal: wil liefde kunnen toeslaan, dan moet je loslaten wat je denkt te willen. Daar kan een computer niets mee.

Voor beleidsmakers is het een deugd om te kunnen toelichten waarom ze een bepaalde weg inslaan. Voor de liefde is dat de dood in de pot.

Beslissen

Het zal wel liggen aan mijn gebrek aan voetbalvuur, maar het interessantste van het hele wereldkampioenschap voetbal vind ik de introductie van de Virtual Assistent Referee (VAR). In een afgesloten ruimte, omringd door een batterij aan technologie, screent de videoscheidsrechter de wedstrijd. Zodra de veldscheidsrechter een twijfelachtige beslissing neemt rond een cruciale spelsituatie meldt de videoscheidsrechter dat in het oortje van de veldscheidsrechter. Die kan vervolgens de wedstrijd stilleggen, zich laten informeren door de beelden, en eventueel zijn beslissing terugdraaien. Hij kan de videoscheidsrechter echter ook negeren.

De komst van de videoscheids dwingt de veldscheids dus tot een metabeslissing. Wat acht hij belangrijker: het spel bevriezen en uitpuzzelen wat zich precies heeft voltrokken? Of laten doorspelen? Die inschatting zal deels een kwestie van smaak zijn. Het karakter van de veldscheidsrechter is door geen enkele technologie helemaal te neutraliseren.

Nu zou ik iets kunnen zeggen over het uitbesteden van beslissingen aan technologie, over onze onrealistische verwachtingen daaromtrent, enzovoort. Maar wat me hier interesseert is de functie van een beslissing in een verhitte situatie – of die situatie zich nu voordoet op het voetbalveld, in de politiek, of in huiselijke kring. Zo’n beslissing moet vaak meerdere dingen tegelijk doen. Je wilt natuurlijk dat de beslissing juist en terecht is, zodat we allemaal weer weten waar we aan toe zijn. Beslissen dient dan de goede orde. Maar een beslissing is ook een markering in de tijd. In een situatie die diepe emoties oproept, die verontrust, waar belangen botsen, moet een knoop doorgehakt worden, opdat zowel de winnaars als de verliezers verder kunnen. Met abstracte begrippen als rechtvaardigheid en orde heeft dat niet zoveel te maken. Hier gaat het veeleer om stromen.

Sommige beslissingen zijn evident onrechtvaardig, en een correctie op grond van betere informatie of nieuwe inzichten is dan heilzaam. Maar stilleggen heeft zijn prijs. Al te grote precisie, streven naar de perfecte beslissing, gaat ten koste van levendigheid. Een voetbalfan wil eerst en vooral de roes, de opwinding, de vloeiende schoonheid van het spel ervaren. Precies dat wordt ondermijnd als je moet wachten met juichen (of balen) totdat de scheidsrechter de videobeelden heeft bekeken, zoals Tonie Mudde en Lennart Bloemhof afgelopen vrijdag in een mooi stuk in deze krant opmerkten.

Moeten wachten. Susan Khani wacht op de executie van de moordenaar van haar moeder. De staat Arkansas heeft hem ter dood veroordeeld, maar de rechters zijn met elkaar in strijd over de rechtmatigheid van de vorm van executeren. Gevolg: al 25 jaar lang leeft Susan in een zone waar een beslissing niet wordt uitgevoerd. In de documentaireserie Life and Death Row, die de VPRO op dit moment uitzendt, is te zien hoe dit haar totaal verkrampt. ‘Doe het nu maar, dan kan ik het afsluiten. Dat zal me rust brengen’, zegt ze. Ik denk dat geen enkele gebeurtenis in de buitenwereld deze Susan de verlossing gaat brengen waar ze op hoopt, zeker niet de dood van een ander. Maar ik kan me wel iets voorstellen bij haar gevoel dat ze haar leven niet kan hervatten. Er gebeurt maar steeds niets. Ze kan niet uitademen.

Een beslissing kan ook een politieke impasse doorbreken. In 2000 waren Al Gore en George Bush verwikkeld in een nek-aan-nekrace om het Amerikaanse presidentschap. De uitgebrachte stemmen in Florida zouden de doorslag geven. Bush won daar met 537 stemmen; een marge dermate futiel dat er direct controverse ontstond over de manier van tellen. Op nogal wat ongeldig verklaarde biljetten hadden kiezers bijvoorbeeld zowel het vakje bij Gore ingeponst als zijn naam op het biljet geschreven, waardoor er geen misverstand kon bestaan over hun bedoeling. Moesten die stemmen dan niet toch meegewogen worden? Er dreigden eindeloze discussies waarbij steeds meer feiten en gezichtspunten zouden worden ingebracht. Uiteindelijk smoorde een rechter de discussies door Bush tot winnaar uit te roepen.

En dat is goed, aldus politiek wetenschapper Daniel Sarewitz, aan wie ik dit voorbeeld ontleen. Soms moet er een knoop doorgehakt worden, ook al vind je de beslissing persoonlijk moeilijk te verkroppen, ook al blijft er een zweem van willekeur omheen hangen. Een beslissing is er namelijk ook om een ‘ervoor en erna’ te creëren. Om dóór te kunnen gaan met het leven. Juist als je iets verloren hebt.

Chef Ellende

Het lijkt wel alsof de wereld uit een dutje is ontwaakt. Opeens dringt in volle hevigheid door dat technologie kan worden ingezet om ons stilletjes een bepaalde kant op te duwen – en vooral dat dit geen ver-weg-show is, maar het verdienmodel van bedrijven waar we mee opstaan en mee naar bed gaan. Kop van Jut afgelopen week was Mark Zuckerberg, de grote baas van Facebook, die zich moest verantwoorden voor het misbruik dat zijn betalende klanten maken van de persoonsgegevens die hij oogst van zijn niet-betalende klanten. Zuckerberg werd op het matje geroepen bij het Amerikaanse Congres. Zijn reactie: ‘We gaan het uitzoeken’, of: ‘Sorry’.

Voorafgaand aan zijn verhoor had Mark al een charmeoffensief ingezet. ‘We hebben niet genoeg gedaan om misbruik te voorkomen. We zagen niet volledig in wat onze verantwoordelijkheid was. En dat was een grote fout, het was mijn fout.’ Tja, zal Mark hebben gedacht, als je chef bent, ben je ook chef ellende.

Er is de afgelopen weken veel, heel veel gezegd over Facebook. Daarbij ging het vooral over de manier waarop de netwerksite technisch werkt, over hoe het bedrijf razendsnel deel is gaan uitmaken van ons dagelijkse leven, over hoe moeilijk het is om er uit te stappen. Allemaal zinnig, allemaal waar. En toch zit me iets dwars in het verhaal dat we elkaar collectief vertellen rond Facebook. Dat verhaal maakt Mark ironisch genoeg té verantwoordelijk voor de gang van zaken, waardoor het probleem in de discussie beperkt blijft tot zijn fouten als manager. Precies die fictie stelt Mark in staat om weg te komen met dat lamme ‘sorry’. Dat verhaal houdt namelijk de illusie in stand dat hij de baas is over wat Facebook met ons doet. Hij belooft beterschap en meer scherpte, en de toezichthouders zijn weer gerustgesteld.

Zo’n voorstelling van zaken begrijpt volgens mij niet goed wat Facebook is. Facebook is geen technologie die onder het beheer valt van een ‘hyperintelligente’ CEO van 33, genaamd Mark, zoals deze krant hem vorige week nog in een commentaar typeerde. Facebook is een typisch voorbeeld van een hybride: een versmelting van mens en technologie. En een hybride glibbert gewoon door de matrixen van managers heen, intelligent of niet.

De term ‘hybride’ werd vijfentwintig jaar geleden in de techniekfilosofie geïntroduceerd door Bruno Latour. In Wij zijn nooit modern geweest stelt Latour dat de moderne samenleving berust op een ideologisch onderscheid tussen subjecten versus objecten, mensen versus dingen, cultuur versus natuur. Grondslag van deze Constitutionele Orde (Latours frase) is het uitgangspunt dat mensen handelen, en dingen niet. Moderne mensen denken dat zij de baas zijn over de gereedschappen en technologieën waarmee ze de natuur naar hun hand proberen te zetten.

Dit moderne raamwerk was altijd al een fictie, volgens Latour. Technologieën raken verkleefd met manieren van doen, waardoor leefwerelden ontstaan die niet meer zo gemakkelijk verdeeld kunnen worden in natuur óf cultuur. Een boer die zijn dag indeelt rondom – of eigenlijk mét – zijn melkmachine weet dat. Net als de kankerpatiënt die nog even afspreekt met een vriend voordat de volgende chemo gepland staat. Het onderscheid tussen (passieve) technologie en (actieve) gebruiker is een sprookje. Technologieën nestelen zich in je leefwereld. Je maakt keuzes vanuit die technologie, niet over die technologie.

Facebook is typisch een voorbeeld van een hybride. De technologie is menselijk, want het is ons product. En zij is natuurlijk, want ze is niet onze activiteit. Je kunt er voor kiezen om al dan niet te facebooken, maar niemand van ons – ook Mark niet – heeft in de hand wat Facebook met de sociale orde doet. Niemand heeft de effecten van Facebook bedacht. Prima dat Mark aan de tand wordt gevoeld, maar het is een farce om hem aan te spreken vanuit een soort modernistisch sturingsmodel waarin mensen zonder meer de baas zijn over de dingen. Toch was dat de rode draad in het toneelstuk dat CEO en Congresleden afgelopen week opvoerde. Tja, zo komen we nooit tot de kern van het probleem – en dus ook niet tot een zinvolle reactie op een uit de hand lopende technologie.

Mark is liever Chef Ellende dan te erkennen dat hij geen grip heeft op wat Facebook in gang heeft gezet. Vraag je af waarom.

Schieten

Een kleine drone zoemt rond het hoofd van de spreker en landt op zijn uitgestrekte hand. ‘Deze drone kan gezichten herkennen en reageert veel sneller dan een mens’, zegt hij liefkozend. Dan gooit hij de drone de lucht in. Die vliegt af op een soort paspop aan de zijkant van het podium en raakt de pop – poef! – tussen de ogen. Gejoel en applaus uit het publiek. Eerder had de presentator al uitgelegd dat de drone is toegerust met drie gram explosieven, ‘genoeg om de schedel binnen te dringen en de inhoud te vernietigen’.

Van die klinische manier van spreken keek ik niet op; die past prima bij de manier van praten van de wapenindustrie over slachtoffers (‘doelwitten’). Vreemder vond ik de achteloze manier waarop de presentator sprak over de good guys en de bad guys waartussen de drone feilloos onderscheid zou weten te maken. Zo’n drone zou natuurlijk alleen maar bad guys uitschakelen, verzekerde hij. En het publiek maar juichen!

Al snel blijkt dit filmpje (op youtube te vinden onder Slaughterbots) promotiemateriaal van de actiegroep Stop Autonomous Weapons. Het vervolg laat zich raden: bad guys krijgen de drones in handen en schakelen gericht mensen uit die hen niet bevallen. Tot slot komt een geruststellend suf ogende Berkeley-professor in de kunstmatige intelligentie vertellen dat dit allemaal staat te gebeuren als wij niet snel ‘iets doen’.

Onze eigen Nationale Politie heeft een ferme eerste stap genomen richting het doemscenario van de actiegroep door volop te experimenteren met gezichtsherkenningssoftware. Het werkt nog niet perfect allemaal, maar in 2017 wist onze politie met die software toch maar mooi 93 verdachten te koppelen aan een persoon in de politiedatabase, meldde NRC Handelsblad vorige week. En de politie heeft hooggespannen verwachtingen, want de software kan met kwalitatief steeds slechtere foto’s toe. Die programma’s leren snel bij omdat wij zo enorm veel kiekjes met elkaar delen op sociale media. De software oefent lustig op onze gezichten. Facebook kan inmiddels behoorlijk goed mensen op een willekeurige foto herkennen. En dat mag, want dat heeft u aangevinkt bij de gebruikersovereenkomsten.

De software zal zich verder ontwikkelen, de databases zullen zwellen, en ook de computers van onze Nationale Politie zullen zomaar een gezicht op straat steeds gemakkelijker kunnen identificeren als dat van verdachte X. Onze politie stuit nog wel op enkele juridische drempels, maar de Chinese regering slaat inmiddels routineus biodata op van iedereen die zij gevaarlijk acht – en ook maar gelijk van hun familieleden, zo meldt de website van Ruben Terlous Door het hart van China. De Chinese autoriteiten pochen dat hun agenten via een soort zonnebril met ingebouwde software inmiddels geregistreerde criminelen uit een willekeurige mensenmassa kunnen pikken. Zouden zij een drone toegerust met een soort verdovend poeder niet verdomd handig vinden bij de arrestatie?, denk ik dan. Chinese autoriteiten zouden vast sussen dat zulke technologie alleen maar ingezet wordt tegen bad guys, maar dat is een schrale geruststelling, want in China ben je crimineel zodra je de harmonie verstoort. En wat harmonie is, bepalen diezelfde autoriteiten.

Enfin. Waar het me nu om gaat, is dat gezichtsherkenningssoftware in drones past in een technologische tendens die de act van het doden losweekt van het lichaam van de dader. Vroeger was doden nog een intieme affaire, je moest een lijfelijk gevecht aangaan met de ander. Nu loopt iemand die over sterke wapens beschikt bar weinig risico om zelf gewond te raken. Daarom is die verdedigingslinie van de National Rifle Association – ‘het zijn mensen die doden, niet wapens’ – ook zo’n onzin. ‘Hij zou met een mes nooit zoveel scholieren pijn hebben kunnen doen!’, merkte de woedende scholiere Emma Gonzalez terecht op over de jongen die onlangs met een semiautomatisch wapen zeventien mensen doodschoot op zijn voormalige middelbare school in Florida. Dankzij dat wapen hoefde de schutter niemand dicht te naderen. Wapentechnologie maakt doden minder gevaarlijk. Voor de dader dan.

Door de lichamelijke krachtmeting uit het doden te halen, valt een belangrijke rem weg. Wat dat betreft zijn drones met gezichtsherkenning slecht nieuws. Daders kunnen besluiten ze in te zetten tegen guys met wie ze op dat moment ruimte noch tijd delen, en zo hun eigen lichamelijkheid totaal buitenspel zetten. Ze hoeven zelfs niet meer te zien wat ze aanrichten.