Een foto van een vrouw die borstvoeding geeft, kan nog steeds snel van Facebook gegooid worden. Maar vermoord je iemand in een filmpje, dan blijft dat vaak een tijd onder de radar. Artificiële intelligentie heeft nog zo zijn beperkingen.
Vooreerst: artificiële intelligentie is aan een razende opmars bezig. Ook in zakelijke technologie zien we het doorbreken in dagelijkse gebruik. Denk maar aan oplossingen van Salesforce (Einstein) of IBM (Watson). Een mooi voorbeeld is de bank JP Morgan. Hun nieuwe softwareprogramma zou in enkele seconden het werk uitvoeren waaraan voordien juristen en kredietspecialisten jaarlijks ruim 360.000 uur aan moesten besteden.
Nirvana
Tegelijk is artificiële intelligentie vandaag de gatekeeper op internet. Vooral bij foto’s gebeurt dit steeds accurater. Facebook kan intussen nauwkeurig en snel het kaf van het koren scheiden. Akkoord, soms loopt dat fout. Herinner je dat de iconische foto van het (naakte) napalm-meisje werd verwijderd om vervolgens weer te worden teruggeplaatst. Of de overbekende Nevermind-cover van Nirvana met de naakte baby in een zwembad, die ook werd geweerd en teruggeplaatst. Maar de software deed wel zijn werk.
Fotoherkenning werkt alsmaar preciezer. En het beste moet nog komen. Ik herinner me dat ik een jaar geleden voor Radio1 de Planet-toepassing van Google uit de doeken mocht doen. Die kan zowel recente foto’s als foto’s uit de oude doos aan een locatie toewijzen, door deze te matchen met andere foto’s. Waardoor Google je precies kan vertellen waar je een foto hebt genomen als je dat zelf niet meer zou weten.
Beperkingen met video
Een ander verhaal bij video. Hier lijkt artificiële intelligentie nog maar in de kinderschoenen te staan. Ze kan alleszins niet verhinderen dat enkele dagen geleden, nog maar eens, een video van een moord op Facebook werd geplaatst. Op het filmpje kon iedereen zien hoe een Amerikaanse man een bejaarde voorbijganger neerknalt. De video stond enkele uren op Facebook voordat een Facebook-medewerker hem manueel verwijderde.
Voorlopig stoot de herkenningssoftware bij video dus duidelijk op zijn beperkingen. Blijkbaar zijn handelingen veel moeilijker te herkennen dan voorwerpen. Een lichaamsdeel lukt bijvoorbeeld al aardig, maar het onderscheid of iemand, ik zeg maar wat, pakweg hout hakt of een slachtoffer aanvalt met een voorwerp, is moeilijker in te schatten. Niet alleen voor Facebook, maar ook voor een site als YouTube.
Kortom, wil je alle moorden snel weren van deze sites, dan moet je de software vandaag heel erg streng instellen.
Menselijke moderatoren
Als het van Facebook-baas Mark Zuckerberg afhangt, is het een kwestie van tijd. Dan herkennen slimme algoritmes in de toekomst een moordvideo automatisch. Ooit zal dat ook wel zo zijn, als (bijvoorbeeld) de Wet van Moore verder is geëvolueerd en als er zoveel voorbeeldvideo’s zijn om de software te verfijnen.
Zover zijn we nog niet, en ik betwijfel of we die honderd procent accuraatheid ooit halen. Momenteel vertrouwen sites als Facebook vooral op ons als gebruikers, die aanstootgevend materiaal rapporteren. En vooral: op hun menselijke moderatoren die checken of al die gerapporteerde berichten in overeenstemming zijn met hun policy.
De job die niemand wil
Want vergeet dit niet. Ergens in de kelders van bedrijven als Facebook of Google zitten echte mensen die ‘echte’ moorden van ‘valse’ moeten onderscheiden. Ik noem dit de job bij Google of Facebook (toch allebei erg gegeerde werkgevers), die niemand wil doen.
En terecht, want hoe zou je zelf zijn, als je dagtaak erin bestaat om de hele dag extremistische content te controleren? In de praktijk betekent dat een hele dag beelden bekijken van onder meer bestialiteit, onthoofdingen, kinderporno, zelfmoorden en andere uitspattingen. Dergelijke screeningteams opereren achter de schermen. Ze spreken nooit op conferenties of geven nooit interviews. En toch is hun werk cruciaal voor de goede werking van de Facebooks en Googles van deze wereld. Ook voor deze medewerkers mag je hopen dat artificiële intelligentie snel verder evolueert.