In deze rubriek een greep uit de stroom berichten over artificial intelligence. Deze keer over het nieuwe spraakmakende redeneermodel O3 van OpenAI, Google Gemini en de vertaling van de EU AI Act naar een algemene ai-gedragscode.
OpenAI’s O3 toont redeneertalent
OpenAI kondigt nieuwe ai-modellen aan die redeneerprocessen simuleren en problemen proberen op te lossen waarmee ze nooit eerder zijn geconfronteerd. Begin deze maand lanceerde OpenAI het redeneermodel O1. Afgelopen vrijdag werd opvolger O3 gepresenteerd. Een demo lichtte een tipje van de sluier op. Over het resultaat verschillen de meningen. Sommige ai-experts waren onder de indruk, anderen wat minder. Het gebrek aan een goede benchmark maakt het bovendien lastig de mate van vooruitgang te beoordelen.
Neemt niet weg dat redeneermodellen die anders dan traditionele ai-modellen niet afhankelijk zijn van patroonherkenning, volop in de belangstelling staan. Dit soort ai is erop gericht problemen stap voor stap te doordenken. Dat maakt haar interessant voor toepassing in wiskunde, wetenschap en complexe probleemoplossing. Hamvraag is of hoe ver OpenAI met de nieuwe familie van modellen is verwijderd van artificial general intelligence. Daaronder wordt ai verstaan die net als een mens in principe elk soort probleem kan oplossen; dus ook problemen waarvoor geen trainingsdata beschikbaar zijn. Universele ai die zich in allerlei situaties beter dan de mens kan redden, bestaat nog niet.
OpenAI brengt eind januari al een miniversie van o3 mini uit. Voor de ‘grote’ o3 is nog geen releasedatum bekend. Grote nadeel van o3 is dat dit model veel uiterste prijzige rekenkracht vergt. Voorlopig lijkt de o3-familie van OpenAI nog lang geen AGI.
Google Gemini
2025 wordt het jaar van de ai-agenten, software die zelfstandig taken kan verrichten. Ook op het web kunnen deze agents klusjes doen waar voorheen een mens aan te pas moest komen. Die tools werken op basis van een groot taalmodel. Google heeft op dit gebied de afgelopen tijd behoorlijke stappen gemaakt. Recent kwam Gemini 2.0 Flash uit, de opvolger van 1.5 Flash. Google’s populairste (werkpaard)model voor ontwikkelaars is het eerste (experimentele) model uit de Gemini 2.0-reeks. Behalve verbeterde prestaties ondersteunt de nieuwkomer nu ook multimodale uitvoer zoals native gegenereerde afbeeldingen met tekst en bestuurbare tekst-naar-spraak in audio voor meerdere talen. Het kan ook tools zoals Google Search gebruiken, code uitvoeren en door gebruiker gedefinieerde functies van derden gebruiken. Vergeleken met 1.5 Pro is 2.0 Flash twee keer sneller, terwijl de latency gelijk blijft.
Algemene ai-gedragscode
De vertaling van de EU AI Act naar een algemene ai-gedragscode (General-Purpose AI Code of Practice, GPAI Code of Practice) met uitvoerbare maatregelen en metriek moet in april 2025 klaar zijn. De eerste van de vier ontwerp-ronden is achter de rug. Het ontwerpproces is iteratief, waarbij honderden belanghebbenden feedback geven.
De eerste commentaren uit de academische wereld zijn overwegend positief. Daarentegen willen starters en tech-investeerders zoals was te verwachten minder regels. Slechts 20 procent van de 3.500 respondenten uit een onderzoek van investeerder Atomico ziet de AI Act wel zitten. 53 procent is negatief, terwijl de rest neutraal is. Ook uit het Draghi-rapport, geschreven in opdracht van de Europese Commissie, komt de wens naar minder regels naar voren.
Daartegenover staan de voorvechters van ‘responsible ai’. De Allai (Alliance on AI), mede opgericht door ex-Europarlementariër Catelijne Muller, Virginia Dignum en Aimée van Wynberghe, vertegenwoordigt deze stroming. Deze Amsterdamse organisatie betreurt het in een commentaar dat de EU eerst sprak over een gedragscode voor trustworthy General Purpose AI (GPAI), maar het woord ‘trustworthy’ inmiddels heeft laten vallen. Muller dringt erop aan deze omissie te herstellen en te voldoen aan de drie pijlers van ‘betrouwbare ai’: rechtmatigheid, ethische afstemming en robuustheid.
Zij vindt de GPAI Codes of Practice ook te weinig aansluiten bij de regels voor ai met hoog of beperkt risico. Veel ai of ai-modellen voor algemeen gebruik worden aangewend in ai-systemen die onder de AI Act als hoog risico of beperkt risico worden beschouwd. De verantwoordelijkheid om ervoor te zorgen dat deze systemen voldoen aan deze wetgeving ligt bij de aanbieders en gebruikers van dit soort ai-systemen. Zij moeten zich houden aan regels over gegevenskwaliteit, transparantie, menselijk toezicht en nauwkeurigheid.
Omdat deze regels vaak technisch zijn, moet naleving meestal plaatsvinden op het niveau van het GPAI-model (dat een groot taalmodel omvat). Als de praktijkcodes voor GPAI-modellen niet voldoen aan de vereisten voor ai met hoog risico, kan dit het gebruik van GPAI-systemen beperken en de ai-innovatiekracht concentreren bij de ‘grote’ GPAI-ontwikkelaars. Daarom vereist de AI Act dat de GPAI Codes of Practice aansluiten bij de regels voor ai met hoog risico en beperkt risico om te voorkomen dat innovatie wordt onderdrukt, aldus Muller.