Hoewel artificiële intelligentie (ai) ons gemak biedt bij tal van processen en activiteiten in het dagelijks leven, kampt het met een slechte reputatie. Een regelmatig terugkerend probleem lijkt vooringenomenheid (of bias) van de technologie te zijn. Terwijl de schuld daarvan zelden bij ai zelf ligt.
Enkele voorbeelden van ai gone bad. Eerder dit jaar werd een Zuid-Koreaanse chatbot, Lee Luda, van Facebook afgehaald omdat deze racistische taal richting minderheden spuide. Of neem het regelmatig terugkerende probleem van gezichtsherkenningssoftware die gezichten van vrouwen of gekleurde personen niet herkent. En zo zijn er talloze andere voorbeelden te vinden waarbij vooroordelen ai parten speelt.
De technologie zelf is zelden de aanstichter van het kwaad. De grootste uitdaging voor ai wordt gevormd door de mens. Ai-technologie heeft geen geweten of motieven, het gebrek aan aandacht voor ethische factoren en consequenties tijdens het programmeren ligt ten grondslag aan biased ai. En dat is het daadwerkelijke probleem waar we mee te maken hebben. Ai heeft de kracht om geweldige dingen mogelijk te maken en ons leven te verrijken, maar we moeten er secuur mee omgaan. Ai is niet de veroorzaker van bias, het is de manier waarop we ontwikkelen en inzetten.
Bias in computermodellen ontstaat op een manier die te vergelijken is met hoe vooroordelen bij mensen ontstaan. Die worden namelijk gevormd door de omgeving waarin we opgroeien, de mensen met wie we contact mee hebben, onze leraren, de situaties waarin we ons bevinden. Kortom, alles wat ons definieert als persoon.
Net als bij mensen
Hetzelfde geldt voor de vooringenomenheid van ai, die ontstaat door de computationele omgeving die de processen vormgeeft op basis waarvan ai zijn beslissingen neemt. Hierbij worden voornamelijk patronen herhaald die zich al in de data bevinden. Wanneer ai-technologie zich racistisch uitlaat, wordt dat dus veroorzaakt door het blind volgen van gevonden patronen. Het beïnvloedbare karakter van ai maakt het kwetsbaar voor onbewuste vooroordelen, net als bij mensen het geval is.
Wanneer het gaat om het uitbannen van bias in ai-gedreven technologie is het van belang om hier al in een vroeg stadium bewustzijn rondom te creëren. Een groot probleem van ai is dat er te weinig aandacht voor de ethische kant is bij ai-educatie, er is vooral oog voor de technologische aspecten.
Ethiek zou een vast onderdeel moeten zijn van iedere opleiding die studenten opleidt in het ontwikkelen ai-gebaseerde technologie. De fundamenten van ethische ai moeten juist aan het begin onderwezen worden omdat het lastig is om in een later stadium bepaalde gewoontes weer af te leren. De ontwikkeling van ai moet gebeuren met open vizier, zonder vooroordelen en met een algeheel begrip van de technologie, met oog voor mogelijke gevolgen.
Diversiteit
Daarnaast moeten ai-teams werken aan hun eigen diversiteit en inclusiviteit. Heterogene teams hebben meer oog voor verschillende achtergronden en ervaringen, en zullen beter presterende (en minder vooringenomen) producten en systemen ontwikkelen. Binnen homogene teams loop je het gevaar blind te zijn voor bepaalde vooroordelen en oplossingen te voeden met eenzijdige data. Nu ai op grote schaal wordt ingezet, moeten we voorkomen dat discriminerende patronen uit het verleden worden herhaald.
De mogelijkheden van kunstmatige intelligentie zijn ongekend. Technologisch zijn we er klaar voor, maar vanuit ethisch oogpunt niet. Training in ethische ai is een start, het meer divers worden van teams en organisaties zal op natuurlijke wijze leiden tot minder vooringenomen technologie. Om het volledig potentieel van ai te benutten moeten we er zeker van zijn dat we het met de juiste kennis voeden, zodat ai de juiste beslissingen neemt. We verkopen immers ook geen auto’s zonder remmen. Waarom dan wel ai zonder ethisch besef?
(Auteur José Rodriguez Alberto Ruiz is chief data protection officer bij Cornerstone OnDemand.)