BLOG – De Europese AI-act vraagt om een andere testaanpak van ai-applicaties dan die voor traditionele softwareontwikkeling. Alles draait om gevoel van vertrouwen creëren voor een succesvolle inzet van ai. Zowel voor gebruikers, ontwikkelaars als beleidsmakers. Dat is een hele kluif in de wetenschap dat antwoorden van grote taalmodellen zoals ChatGPT alle kanten op kunnen vliegen.
Toen het innovatieteam zijn ai-proof of concept naar een mvp-status wilde brengen, bleek uiteindelijk dat de kwaliteit moeilijk gewaarborgd kon worden. Daarom werd besloten de slimme applicatie niet in productie te brengen. Mede door de verloren investering was grote frustratie bij de teamleden het gevolg. Inmiddels is er sprake van een ai death valley, want het was niet de eerste keer dat een ai-project de eindstreep niet haalde.
Zo bleek dat de ai-chatbot van Air Canada gehallucineerde informatie aan klanten verstrekte
Het is een situatie uit de hedendaagse praktijk. Zo bleek dat de ai-chatbot van Air Canada gehallucineerde informatie aan klanten verstrekte. Er moest zelfs een rechtszaak aan te pas komen om de ai-app uit de roulatie te halen. In het innovatieteam is er vaak alles aan gelegen een project te laten slagen omwille van de drang naar nieuw technologiegebruik. Niet gek natuurlijk want een innovatieteam is op aarde om nieuwe wielen uit te vinden. Daarbij is de valkuil dat de waarde van zo’n innovatieve ai-applicatie vanaf het begin niet altijd even duidelijk is. Of anders gezegd, hoe draagt de slimme toepassing straks werkelijk bij aan zakelijk succes? En op z’n minst net zo belangrijk als het gaat om kunstmatige intelligentie, hoe wordt het gevoel van vertrouwen geborgd vanaf de start van het ai-project?
Antwoorden op deze vragen vereisen een andere testaanpak dan we gewend zijn bij traditionele applicaties. In tegenstelling tot reguliere applicaties, waarbij vooraf helder is wat de gewenste output moet zijn, kunnen antwoorden van grote taalmodellen enorm variëren. Daarom is het zaak de kennis van ai-specialisten te combineren met die van ervaren testers. Zo krijg je een alomvattende aanpak voor gewaarborgde betrouwbaarheid. Het zogenoemde trusted ai-framework kan daarbij helpen:
- Fairness
Het toetsen en mitigeren van de zogeheten bias is van cruciaal belang. Dankzij uitvoerige statistische testen in alle ai-projectfases worden onbedoelde discriminerende systemen zoals destijds Syri van de overheid voorkomen.
- Transparantie
De meeste ai-toepassingen geven in eerste instantie inzicht in wàt het systeem doet. Wat doet de ai, wat doet het niet en wat moet het doen? Zo wordt omschreven dat het systeem ethisch moet handelen. Dat is niet genoeg. Naast de wat-vraag is het belangrijk inzage te krijgen in de hoe-vraag en waarom dat nodig is. Kortom, de uitlegbaarheid is een voorwaarde voor het bouwen van vertrouwen. Als de vraag is of het spoor onderhoud vereist, moet uit te leggen zijn waar het systeem naar kijkt om tot een logisch antwoord te komen. Zorg daarom altijd voor explainable ai voor een transparant systeem.
- Humanity
Wie zit aan de knoppen van de ai-applicatie en wie is verantwoordelijk voor het systeem? Het lijkt een open deur. Toch heeft de toeslagenaffaire geleerd dat het lastig is inzichtelijk te krijgen wie uiteindelijk welke verantwoordelijkheid draagt.
- Sustainability
Afhankelijk van complexiteit en grootte van het systeem, kan de ai-toepassing een flinke ecologische voetafdruk maken. Er zijn genoeg manieren om de impact van de applicatie zoveel mogelijk te beperken, bijvoorbeeld met slim energieverbruik.
- Quality
Dit zijn veelal de traditionele kwaliteitsaspecten zoals veiligheid, het voldoen aan privacy en governance en de accuraatheid van het systeem.
Wet
Volgens de Europese AI Act moeten mensen en bedrijven volledig kunnen rekenen op veilige, transparante, traceerbare en niet-discriminerende ai-systemen die onder toezicht staan van echte mensen. Als deze wet per 2026 ingaat, kun je maar beter vandaag al beginnen met het inbedden van deze voorwaarden in de ai-kwaliteits- en testaanpak voor een goed gevoel van vertrouwen.
Mathijs van Bree is ai-expert bij Sogeti