Artificiële intelligentie (ai) ontwikkelt zich zo snel dat wereldwijd gedebatteerd wordt over toezicht en regulering. Het nieuwe Frontier Model Forum laat zien dat grote techbedrijven zoals Google en Microsoft een stevige vinger in de pap hebben bij het maken van die spelregels. Is dat wel eerlijk? Over de verschillende benaderingen tussen de EU en VS en waarom een inclusieve 'digitale diplomatie' onmisbaar is.
De wereld maakt haast met ai-beleid. De EU loopt voorop en zet met haar ai-wet grote stappen naar meer transparantie en verantwoordelijkheid. Tegelijkertijd timmert de VS aan eigen beleidskaders voor ai. Bedrijven zitten daardoor in een lastig parket: voldoen aan de regels van één kan een overtreding betekenen bij de ander.
Een van de meest besproken regels van de ai-wet is dat bedrijven open kaart moeten spelen over hun systemen en de gebruikte trainingsdata. Sam Altman van OpenAI heeft al aangegeven dat als ze niet kunnen voldoen aan deze eis, ze de EU-markt zullen verlaten. Het probleem? Te veel openheid resulteert niet alleen in het prijsgeven van bedrijfsgeheimen, maar zou het bedrijf ook in een wespennest van juridische zaken kunnen brengen.
Auteursrecht
De kwestie rond trainingsdata heeft geleid tot diverse rechtszaken tegen beeld georiënteerde platforms als Midjourney en Stable Diffusion. Ook grote nieuwsorganisaties zoals Associated Press en Getty Images uitte in een open brief hun zorgen en eisen ’transparantie en voorafgaande toestemming van rechthebbenden’ voor het gebruik van hun data.
Google oppert juist voor een drastische versoepeling van het auteursrecht. In een voorstel aan de Australische overheid pleit het bedrijf voor een ‘opt-out’-systeem voor uitgevers, een omkering van het huidige ‘opt-in’-systeem. Dit zou meer druk bij contentmakers leggen om te voorkomen dat hun materiaal wordt gebruikt.
Dr. Manwaring, senior docent aan de UNSW Law School, waarschuwt dat het auteursrecht in het geding is als er geen oplossing komt. Kleinere contentmakers, die nu al vaak in het nadeel zijn, zouden hierdoor nog meer in de knel komen.
Onlangs nog ondertekenden OpenAI, Meta, Microsoft, Google, Anthropic en Amazon een overeenkomst waarin ze beloven ‘te investeren in verantwoorde ai’. Kort daarna richtten ze het Frontier Model Forum op. Triveni Gandhi, ai-lead van Dataiku, merkt op dat kleinere partijen praktisch ‘niet aan tafel zitten’ bij deze belangrijke gesprekken. Het wijst op een risico dat de grootste bedrijven de regels zo vormgeven dat ze vooral zichzelf beschermen, kleinere concurrenten buitenspel zetten en mogelijk ook de eindgebruikers. Dat is niet alleen oneerlijk, maar ook risicovol.
Digitale diplomatie
Wie bepaalt de regels voor ai? De uitdagingen zijn te groot om door een enkeling te worden aangepakt. Misschien is er een nieuwe vorm van internationale digitale diplomatie nodig, waarbij alle betrokkenen – van techbedrijven tot overheden en gewone burgers – samenwerken aan regels die voor iedereen werken. Want als we willen dat ai een positieve invloed heeft, dan moet de regelgeving toch minimaal net zo innovatief zijn als de technologie zelf?