In 2018 werd de ceo van één van de grootste techbedrijven ter wereld (Mark Zuckerberg van Facebook) door de wetgevende macht in Amerika bevraagd over hoe de 'techniek- en data boekhouding' is georganiseerd en wordt bijgehouden. Is het een idee zijn de boekhouding beter te reguleren in plaats van: move fast and break things?
De aanleiding van deze vraag was de veronderstelde manipulatie van de Amerikaanse verkiezingen en zorgen over de invloed van Facebook. De ceo reageerde hierop met te stellen dat dat ’toch wel een erg grote verantwoordelijkheid’ zou zijn. Een onvolwassen reactie, die we niet meer zouden moeten accepteren, zeker nu de invloed van ai op onze maatschappij alleen maar lijkt toe te nemen.
Je bent een groot techbedrijf met veel impact op de digitale transformatie van de wereld, en er wordt de suggestie gedaan de boekhouding te verbeteren. En dan is de reactie vanuit de directie: hmmm ja, dat vinden we toch wel een beetje een grote verantwoordelijkheid. Dat is hoe een puber zou reageren als je vraagt: ‘Mag ik je uitgaven even zien?’ ‘Laat me nu even met rust, die bonnetjes liggen ergens in een doos.’
Opgescheept
Eén van de conclusies van het meer dan vijfhonderd pagina’s tellende WRR-rapport ‘Opgave AI‘ is dat als Nederland zich niet goed voorbereidt op ai, er een reëel risico is dat de samenleving wordt opgescheept met een technologie die onze belangen niet dient.
Moeten we ai, zoals ChatGPT, in onze online-kantooromgeving of op scholen dan maar verbieden? Is ai een vloek of een zegen? In Duitse en Franse scholen wordt het gebruik van Office 365 afgekeurd omdat onvoldoende transparant is hoe persoonsgegevens worden verzameld en verwerkt door de Microsoft. En dat was nog ruim voor de ChatGPT-aankondiging van Microsoft: ‘General availability of Azure OpenAI Service expands access to large, advanced ai models with added enterprise benefits.’ Microsoft zegt als één van de marktleiders ‘a responsible approach to ai’ te hebben. Alleen is niet duidelijk met welke boekhouding dit wordt bijgehouden en hoe het toezicht is georganiseerd.
Veelbelovend
Sinds de introductie van internet lijken we nauwelijks te leren van onze fouten bij de automatisering van ons werk en leven. Lang was deze ontwikkeling veelbelovend met het idee het medium toegankelijk te maken vanuit publieke en democratische waarden. In Nederland heeft de markt eind jaren negentig deze digitale transformatie liefdeloos overgenomen waarbij we onze identiteit voor een groot deel zijn kwijtgeraakt. Kunnen we alsnog onze digitale soevereiniteit terugwinnen door de mens – en niet de economie en technologie – centraal te stellen in de digitale transformatie?
Kortom, de digitale transformatie betekent niet alleen vernieuwen met tech en data, maar vraagt ook om verantwoordelijk gedrag in een structuur die organisaties helpt volwassen te worden in het gebruik van ai-technieken. Om te beginnen kan management en directie zichzelf de vraag stellen: hoe blijf ik in controle over tech en data in handen van jonge, enthousiaste, hippe agile customer journey teams of leveranciers op sneakers? Het antwoord is met beleid en opvoeding, waarbij dagelijks op een systematische wijze transparantie wordt geboden in het eigen ai-handelen. Bedrijven moeten dus een ai-boekhouding hebben, waarbij in ieder geval uitlegbaar is:
- Hoe uitkomsten van algoritmes gereproduceerd kunnen worden;
- Hoe ai met welke data wordt getraind;
- Wat de bron is van die data;
- Of die data representatief zijn;
- Hoe is bepaald of de data eventueel een bias hebben.
Als deze boekhouding er al niet is, dan kun je een digitale transformatie die onze belangen dient, wel vergeten. Accepteer niet een puberaal antwoord of GDPR-cosmetica bij de vraag naar ‘bonnetjes’ bij deze vijf elementen. Zoals: laat me nu even met rust, ik heb alle GDPR-vinkjes gezet en ben bezig met de generative artificial intelligence-revolutie. Volwassen worden met tech en data betekent niet alleen een structuur van financiële verantwoording, maar ook een ai-boekhouding die expliciet en uitlegbaar moet zijn.
(Dit artikel is geschreven in samenwerking met Peter Siepel, onafhankelijk data-science-consultant en lid van De Dataverbinders.)