Is ai de transformatieve technologie die op verschillende gebieden wonderen gaat verrichten voor de mensheid, van zelfrijdende auto's tot een geneesmiddel voor kanker? Of is het een geest in een fles die als hij wordt vrijgelaten, is in te zetten als manipulatiemiddel?
Dit zijn niet langer alleen theoretische vragen. Met de vooruitgang die de afgelopen tien jaar is geboekt op het gebied van rekenkracht, software en de cloud, is de vooruitgang op het gebied van ai niet lineair, maar exponentieel.
Dat betekent dat het tijd is om enkele fundamentele beslissingen te nemen. Net als bij privacy en de AVG/GDPR neemt de Europese Unie het voortouw voor regulering om het enorme potentieel van ai te benutten en te kapitaliseren. Het voorstel van de EU is logisch, omdat het is ontworpen om het potentieel te optimaliseren en ai-risico’s te minimaliseren.
Op dit moment onderzoekt elke vooruitstrevende organisatie wereldwijd hoe ai is te gebruiken. Ze kunnen het zich niet veroorloven de kansen te missen die ai biedt. Maar ze kunnen het zich tegelijkertijd niet veroorloven om moreel onjuist te handelen, fouten te maken die hun bedrijf in gevaar kunnen brengen of anderen schade kunnen berokkenen.
Verder gaan dan menselijke intelligentie
Hoe meer ervaring een radioloog heeft, hoe groter de kans dat hij die verdachte knobbel die de arts heeft gevonden nauwkeurig kan diagnosticeren. Maar stel je eens voor dat in plaats met alleen de duizenden afbeeldingen die de radioloog heeft onderzocht, de knobbel is te vergelijken met miljoenen afbeeldingen, die allemaal honderd procent accuraat worden onthouden, om de diagnose vast te stellen? Bovendien zou de radioloog niet alleen de beelden hebben, maar ook beschikken over kennis uit elk wetenschappelijk artikel dat ooit over het onderwerp is gepubliceerd, ontleed en gefilterd om de diagnose te onderbouwen. Dat is de belofte van ai. Neem deze analogie en pas het toe op elk gebied, elk specialisme, elk menselijk kennisprobleem. Het opwaartse potentieel is enorm.
Doemscenario’s voor ai
De dialoog uit de film 2001: A Space Odyssey – tussen computer HAL (IBM minus 1) en de bemanningslid Dave – verwijst naar misschien wel het ultieme ai-doemscenario:
‘Open de deuren van de pod, HAL.’
‘Het spijt me, Dave, ik ben bang dat ik dat niet kan doen… Deze missie is te belangrijk voor mij om je toe te staan haar in gevaar te brengen.’
De machines nemen het over en mensen kunnen ze niet stoppen. Dit idee heeft ertoe geleid dat sommige visionairs alarm slaan en ervoor pleiten om de pauzeknop voor ai in te drukken. Natuurlijk zijn er naast dat de computers het overnemen talloze negatieve scenario’s. Vooroordelen met betrekking tot ras, geslacht en op andere gebieden zijn een plaag voor ai-algoritmen. Doordat mensen ze programmeren, zijn algoritmen onderhevig aan menselijke vooroordelen, beperkingen en slechte bedoelingen.
En we weten dat mensen schrikbarend gemakkelijk te beïnvloeden zijn. Leer een beetje over het gedrag en de interesses van een individu of groep en je hebt een handleiding om hun gedachten en acties te manipuleren. We hebben al bewijs gezien van landen die experimenteren om het gedrag van de bevolking en de verkiezingsresultaten te beïnvloeden. Ai kan deze manipulaties op grote schaal mogelijk maken.
Vladimir Poetin zei het volgende over ai: ‘Wie de leider wordt op dit gebied, zal de heerser van de wereld worden.’ Van dit idee zouden we ’s nachts wakker moeten liggen.
Fundamentele mensenrechten zijn een duidelijke zorg. Ai kan worden gebruikt voor vervolging en repressie – het gebruik van gezichtsherkenning kan bijvoorbeeld worden gebruikt om individuen te onderscheiden om iedere reden die een autoriteit nodig acht.
De grootste zorg is echter wat er gebeurt als ai het punt bereikt waarop het zichzelf kan verbeteren. Vanaf dan zal het wellicht niet zo lang duren totdat we artificial general intelligence (agi) – de heilige graal van ai – hebben bereikt. Hiermee is ai in staat elke intellectuele taak te begrijpen en te leren zoals een menselijk brein dat kan. Daarna begint het zichzelf te ontwerpen, beslissingen te nemen op basis van zijn eigen parameters, volgt het zijn eigen ‘ai-drives’ zal het onverwachte richtingen inslaan – weigerend om de deuren van de pod te openen. In dat geval zouden we te maken kunnen krijgen met grote problemen, dus het is logisch om nu te beginnen met het nemen van passende maatregelen.
Evenwichtige benadering van ai-regelgeving
We kunnen ai niet ongecontroleerd laten verder gaan op zijn eigen pad van zelfcreatie. Ook kunnen we er niet op vertrouwen dat alle mensen of de entiteiten die zij controleren, andere belangen dan die van henzelf behartigen. De voorgestelde EU-verordening pleit ervoor dat ai-systemen met een hoog risico voldoen aan specifieke eisen met betrekking tot datasets, documentatie, transparantie en menselijk toezicht. Het zou toepassingen verbieden die in strijd zijn met de EU-waarden of fundamentele mensenrechten, inclusief systemen die het gedrag van een individu bepalen door middel van subliminale technieken of door misbruik te maken van kwetsbaarheden. De verordening stelt verder voor het realtime-gebruik van biometrische identificatiesystemen zoals gezichtsherkenning, door instanties voor rechtshandhaving in openbaar toegankelijke ruimtes te verbieden. Behalve in specifieke gevallen van misdaad of terrorisme.
Dit zijn slechts enkele belangrijke punten. Het voorstel lijkt redelijk gezien de potentiële gevaren en het feit dat we het besluitvormingsproces van ai niet altijd begrijpen en het een soort zwarte doos is. Wat de verordening niet dekt, is net zo belangrijk. Veel toepassingen van ai zijn slechts onderworpen aan minimale transparantievereisten, bijvoorbeeld chatbots, systemen voor het herkennen van emoties of deep fakes.
Dit is een verstandige, tweeledige benadering die bescherming en stimulans in evenwicht houdt. Het laat veel ruimte voor innovatie en biedt tegelijkertijd essentiële basisbescherming. Hopelijk zullen andere landen, waaronder Amerika – dat momenteel alleen op lokaal niveau een lappendeken van ai-regelgeving heeft – het voorbeeld van de EU volgen.
Wat betekent dit voor bedrijven?
Bij zakelijke beslissingen wordt niet altijd rekening gehouden met mogelijke schade aan mensen. Maar met ai moeten mensen vragen stellen als:
- Hebben we ai echt nodig? Je hebt geen handgranaat nodig om een mug te doden, en een eenvoudiger algoritme is makkelijker te valideren.
- Hoe gaat ai onze bedrijfsprocessen ondersteunen? Denk verder dan het algoritme en kijk naar het gewenste resultaat.
- Is dit verantwoorde ai? Is het eerlijk en onbevooroordeeld? Kan iets of iemand schade oplopen?
Met vooruitdenken, grondige planning en zorgvuldige uitvoering kan ai als magie werken – met HAL die elke keer de deuren van de pod opent. Maar om dat voor elkaar te krijgen, moeten alle entiteiten die ai willen benutten, zich houden aan basisrichtlijnen zoals die in de voorgestelde ai-verordening van de EU worden beschreven.