De komst van de uitgebreide en soms ook diepgaande artificiële intelligentie (ai)-regelgeving waartoe EU-onderhandelaars afgelopen nacht overeenstemming hebben bereikt, zal niet zonder financiële gevolgen blijven voor ondernemers. 'We hebben een ai-deal. Maar wel een dure,' zegt de Europese belangenorganisatie Digital Europe. Ook de Nederlandse branchevereniging NLdigital spreekt van enorme lasten.
Volgens branchevereniging NLdigital moet een mkb-bedrijf met vijftig medewerkers op gemiddeld driehonderdduizend euro aan kosten rekenen. Die calculatie is gebaseerd op een eerdere studie van de Europese Commissie. Volgens René Corbijn, hoofd beleid en public affairs bij NLdigital, kan dat bedrag nog hoger worden.
Want ook de ‘foundation models’ worden in de EU AI Act aan strenge regels onderworpen, zo is na lange onderhandelingen afgesproken. Wanneer de regelgeving straks van kracht wordt en zo’n ai-basissysteem niet het groene licht krijgt, kunnen problemen ontstaan voor bedrijven die daarop applicaties hebben gebouwd. Volgens Corbijn kan het een risico zijn met zo’n toepassing door te gaan als een model in 2025 niet aan de eisen voldoet. Een onzekere periode breekt aan.
Digital Europe waar veel techbedrijven lid van zijn, vreest bureaucratie en hoge kosten voor het bedrijfsleven. Directeur-generaal Cecilia Bonefeld-Dahn is bang dat vooral veel kleinere softwarebedrijven die niet gewend zijn aan allerlei wetgeving op productgebied, hieronder gaan lijden. Haar organisatie steunde de aanvankelijke benadering van de Europese Unie (EU) om de risico’s bij het gebruik en de toepassingen van ai af te dekken in plaats van de onderliggende technologie. Maar op het allerlaatste moment keerde het tij en verschoof het accent naar regulering van de ‘foundation models’.
Lawine aan regels
Volgens Digital Europe komt een hele lawine aan nieuwe regels op het bedrijfsleven zoals ook nog de Data Act. Dat gaat de bedrijven veel tijd en inspanning kosten. ‘In plaats van veel geld uit te geven aan advocaten kunnen beter middelen worden vrijgemaakt voor het inhuren van ai-ontwikkelaars,’ aldus Cecilia Bonefeld-Dahl.
Veel gedoe zal ook het onderscheid geven dat de EU gaat maken tussen ‘grote basismodellen’, waaronder uitgebreide taalmodellen als GPT-4 vallen, en kleinere basismodellen. Voor bijvoorbeeld Europese startups en kleinere spelers worden de transparantie-bepalingen minder streng. De EU gaat ervan uit dat kleinere modellen van kleinere spelers minder risico’s met zich meebrengen. Maar dat lijkt een aanvechtbaar standpunt. Sommige waarnemers in Brussel en Den Haag zien hierin een verkapte industriepolitiek.
De EU verdedigt zijn strengere regels voor ai-systemen met een hoog risico met het argument dat de EU zo gevrijwaard blijft van ‘systemische risico’s’ in ai. Deze zouden namelijk voorkomen dat verkeerde interacties tussen ai-systemen onderling of met mensen de stabiliteit of veiligheid van een heel systeem in gevaar kunnen brengen. Door regulering van de basis, de zogenoemde ‘general purpose ai’ waar generatieve ai weer deel van uitmaakt, kunnen bedrijven volgens de EU veilige systemen bouwen. Kleine en middelgrote bedrijven kunnen straks bijvoorbeeld ChatGPT in hun systemen inbouwen zonder dat ze last krijgen van onnodige regeldruk, aldus de EU.
Hele kluif
Maar voor de AI Act in 2025 effectief wordt, zal het volgens René Corbijn (NLdigital) voor veel bedrijven nog een hele kluif worden om zich goed voor te bereiden op de nieuwe verordening. Qua regels en wetten krijgen ondernemers sowieso de komende tijd veel op hun bord. Vanuit de EU komt een stortvloed van nieuwe regels op gebied van digitale technologie. Ook nieuwe vormen van toezicht en certificering krijgen veel impact op met name de kleinere innovatieve bedrijven in Nederland.
Maar het Nederlandse ministerie van Economische Zaken & Koninkrijksrelaties (EZK) ziet dat anders. EZK benadrukt ‘de duidelijke kansen’ die ontstaan voor zowel ontwikkelaars als ondernemers. De AI Act biedt hen richting om te voldoen aan eisen aan mogelijk risicovolle toepassingen, stelt minister Micky Adriaansens. Ontwikkelaars kunnen binnen zogenoemde ‘regulatory sandboxes’ innoveren.
De wettelijke verplichtingen, zoals een systeem voor het beheer van risico’s, gelden straks voor hoog-risico ai-systemen die bijvoorbeeld invloed hebben op de kansen van mensen op de arbeidsmarkt, het onderwijs, de financiële dienstverlening of medische apparaten. Ongeveer 15 procent van alle ai-systemen valt hieronder, aldus het ministerie.