De EU heeft regels voorgesteld die de basis moeten vormen van een nieuw wetgevend kader rond kunstmatige intelligentie (ai). Dat moet zowel burgers vertrouwen geven in ai, als de introductie en ontwikkeling stimuleren. Critici zijn niet onder de indruk.
‘Hoe hoger het risico, hoe strenger de regels.’ Dat is volgens Eurocommissaris het uitgangspunt waarmee de EU de nieuwe regels heeft opgesteld. Daarbij zou bijvoorbeeld ai die de veiligheid of de grondrechten van de burgers bedreigt compleet verboden worden. Ook ai-systemen waarbij mensen een ‘sociale score’ krijgen (zoals ze in China worden gebruikt) kunnen niet door de beugel, net zoals systemen die gezichtsherkenning in openbare ruimten mogelijk maken. Dat laatste zal alleen kunnen in noodgevallen, bijvoorbeeld bij vermissingen.
Gevoelige ai-platformen, denk aan systemen die een kredietscore kunnen opstellen of die cv’s kunnen beoordelen, zullen aan heel wat voorwaarden moeten voldoen. Gebruikers moeten weten hoe ze precies werken en de data waarvan ze gebruikmaken, moet van hoge kwaliteit zijn, bijvoorbeeld om bias (vooringenomenheid) te voorkomen. Te allen tijde zullen ook mensen de systemen moeten overzien.
De nieuwe ai-wetten stuiten al meteen op kritiek. Zo zouden er te veel mazen in de wet zijn. Wat precies risicovolle toepassingen zijn en welke niet, is bijvoorbeeld niet duidelijk. Er is ook twijfel over het toezicht. De nationale autoriteiten zouden daarvoor verantwoordelijk worden en de Europese privacyregels hebben al aangetoond dat dat niet evident is. Velen vrezen ook dat de regels de jonge, Europese ai-industrie zal verhinderen om tot bloei te komen, zeker nu Europa nu al mijlenver achterloopt op de ontwikkelingen in de VS en China.
De regels moeten nog door het Parlement en de lidstaten goedgekeurd worden. Dat is een procedure die nog jaren kan aanslepen.
Gevolgen voor ai-ontwikkelaars
Computable publiceerde vorige week een artikel op basis van de concepttekst van de wetgeving die 21 april door de Europese Commissie is behandeld. Er komt een lijst met verboden toepassingen en veel nu al ingezette ai-oplossingen krijgen een hoog-risicoclassificering.
Omdat producten op tal van punten toetsing nodig hebben, zijn de gevolgen voor ontwikkelaars en gebruikers van ai-toepassingen groot, verwacht Bart Schermer, expert op het gebied van privacy- en ict-recht voor Considerati.