Verantwoordelijkheid is de basis van een goed functionerende samenleving. Het was de afgelopen twee jaar wat dat betreft niet altijd makkelijk maar uiteindelijk pakten we als samenleving onze verantwoordelijkheid door mondmaskers te dragen, op veilige afstand van elkaar te blijven, waar mogelijk thuis te werken en lieten we ons vaccineren toen er vaccins beschikbaar kwamen.
Een gedeeld verantwoordelijkheidsgevoel heeft ons door een lastige tijd geholpen. Het is dan ook passend om de technologieën die we dagelijks gebruiken, door de lens van verantwoordelijkheid te bekijken.
De term ‘responsible ai’, ofwel verantwoordelijke ai, verwijst naar de praktijk van het ontwerpen en implementeren van systemen om de maatschappelijke impact van ai te vergroten en de nadelige en negatieve uitkomsten te minimaliseren. Responsible ai is van cruciaal belang om vertrouwen op te bouwen in wat snel een instrument voor alledaags gebruik aan het worden is. Problemen met data-vooringenomenheid en negatieve uitkomsten moeten dus op de juiste manier worden aangepakt. En hoe sneller hoe beter, want wanneer je te laat bent, is veranderen lastig en vrijwel onbetaalbaar. Voor responsible ai bestaat nog geen geformaliseerd handboek. In plaats daarvan hebben verschillende bedrijven hun eigen whitepapers gepubliceerd over wat het voor hen inhoudt. Gezien deze enigszins informele status, is het onvermijdelijk dat er mythes zijn ontstaan rond responsable ai.
Dit zijn vijf mythes die ik vaak tegenkom,
Gedragscode
- Responsible ai gaat over ethiek
De realiteit is pragmatischer dan het formuleren van een morele gedragscode alleen, aangezien veel negatieve resultaten bij ai kunnen voortkomen uit de beste bedoelingen. Responsible ai moet zowel gaan over intentie als verantwoording. In de testfase moeten geïmplementeerde modellen zich gedragen zoals ze zijn ontworpen. Hoewel dit een voor de hand liggende eis lijkt voor elke systeemtest, betekent dit dat er ook goed gekeken moet worden naar de gegevens die voor de test worden gebruikt, niet alleen naar het gedrag van de algoritmen.
De gegevens moeten afkomstig zijn van erkende en onbevooroordeelde bronnen, en bij het testen moeten meerdere partijen uit verschillende disciplines worden betrokken. Elk van deze partijen, ook degenen die geen rol hebben gespeeld bij de totstandkoming van het systeem, moet in staat zijn de resultaten te begrijpen. Het proces moet ook een transparant overzicht van de verzameling en het gebruik van gegevens omvatten, met name op dat wat het algemene resultaat betreft en in de praktijk gevolgen kan hebben voor iemand die bijvoorbeeld een lening of verzekering aanvraagt.
- Responsible ai is te leveren door alleen al de juiste instrumenten
Tools kunnen een deel van de weg zijn naar het leveren van responsible ai. Maar zelfs mlops – dat voor machine learning lifecycle management doet wat devops doet voor meer conventionele codering – vereist dat teams samenwerken en een nieuwe cultuur opbouwen, met nieuwe governance-normen en nieuwe workflows. Deze gewijzigde processen zullen worden ontworpen om tegemoet te komen aan verschillende risiconiveaus die samenhangen met factoren zoals eindgebruikers, mogelijke uitkomsten en zakelijke impact. Tools kunnen alleen helpen bij deze benaderingen als de benaderingen zelf zijn ontworpen.
- Onbekwaamheid en kwaadwilligheid zijn enige oorzaken van problemen
Enkele van de grootste technologiebedrijven ter wereld hebben te lijden gehad van publieke schandalen als gevolg van de verkeerde toepassing van ai-principes, en post-mortems toonden geen bewijs van sabotage of ernstige fouten in het ontwerp. In plaats daarvan leidde een gebrek aan intentie en verantwoordelijkheid tijdens de levenscyclus van het project tot onvoorziene gevolgen. Achter veel van de nieuwskoppen gaan eenvoudige gevallen van vertekende of niet-representatieve gegevens schuil. En als het de grote spelers kan overkomen, kan het iedereen overkomen.
- Ai-verordening zal geen gevolgen hebben
Bedrijven moeten al voldoen aan de Europese General Data Protection Regulation (GDPR) uit 2016, die veel van de elementen van responsible ai raakt. En hoe groter en invloedrijker ai wordt, des te meer regelgeving er in leven geblazen wordt om burgers en bedrijven te beschermen. Om van ai te kunnen profiteren, moeten organisaties hun eigen transformatieproces in evenwicht brengen met opkomende normen, aangezien het vrijwel zeker is dat overheden deze binnenkort zullen formaliseren.
- Responsable ai is klus voor de technologen
Gezien de omvang van de adoptie van AI, zal dit idee binnenkort onpraktisch zijn. Voor veel gebruikers is dat misschien nu al zo. Domeinexperts zijn nodig om het onderliggende bedrijfsprobleem en de aard van de gegevens te begrijpen. Data scientists en ander technisch personeel begrijpen de tools en de oplossingen die zijn gebouwd. En besluitvormers begrijpen de bredere bedrijfsdoelstellingen en kunnen oordelen vellen over regelgevingskwesties en andere zaken. Hoewel niemand onmisbaar is, begrijpt niemand alle aspecten van een AI-project.
Doel en middelen
Bij de implementatie van responsible AI moeten we risico’s inschatten en vertrouwen opbouwen. Iedereen in het bedrijf moet een rol spelen in de cultuurverandering die gaat volgen. Infrastructuur, software, mensen en meer moeten zich verenigen in een naadloze hybride die alle invalshoeken ziet en waarde toevoegt binnen en buiten de organisatie.