Belgische bedrijven hebben momenteel geen beleid om de ethische verantwoordelijkheid van hun ai-tools te garanderen. Dat zegt it-consultant Avanade op basis van een onderzoek rond ethiek en ai bij Belgische bedrijfsleiders. Een op drie Belgische ceo’s geeft toe dat hun ai-tools in het verleden hoogstwaarschijnlijk al onethische beslissingen hebben genomen.
Ongeveer alle specialisten en waarnemers zijn het er over eens: in de komende jaren zal het belang en het gebruik van ai nog stevig toenemen. De coronacrisis heeft die trend alleen maar versneld. ‘Als gevolg van het coronavirus staan we voor een versnelde digitale revolutie, waarin ai een belangrijke rol zal spelen’, zegt Johann Corlemeijer, country manager Avanade Belgium. ‘Recente blootleggingen van institutioneel racisme bewijzen des te meer dat bedrijfsleiders ervoor moeten zorgen dat ook technologie niet discrimineert. Omdat regelgeving vaak achterloopt op technologische evolutie, moeten we ons goed bewust zijn van de risico’s en prioriteit geven aan digitale ethiek.’
Het onderzoek van Avanade toont aan dat bedrijfsleiders vooral bezorgd zijn om veiligheidslekken (84 procent), de schending van de privacy (82 procent) en aansprakelijkheidskwesties (74 procent). Pas dan komen de bezorgdheden over de aanwezigheid van maatschappelijke vooroordelen in ai-systemen. ‘Toch hebben digitale ethische fouten een veel grotere impact op mensen dan inbreuken op beveiliging en privacy’, zegt Patrick Tack, data & ai lead bij Avanade België. ‘We hebben bijvoorbeeld al gezien dat er sprake is van een systematische discriminatie in de gezondheidszorg, de financiële dienstverlening en rekruteringsprocessen. Iemand die een bepaalde job niet krijgt vanwege zijn of haar etniciteit als gevolg van een foutief algoritme, zou minstens zoveel aandacht moeten krijgen als de kans op privacy-schending of identiteitsdiefstal.’
Niet goed op de hoogte
Het blijkt dat veel Belgische ceo’s niet goed op de hoogte zijn van de ethische risico’s die verbonden zijn aan ai. Bijna de helft (44 procent) van de respondenten is zich niet bewust van het risico op systematische bevooroordeeldheid in ai en één op de drie (33 procent) is zich niet bewust van transparantieproblemen. Dit kan bijvoorbeeld gaan om een persoon die niet weet dat hij of zij eigenlijk met een chatbot aan het communiceren is. Bovendien heeft één op vijf (22 procent) geen idee van privacy-risico’s, zoals ai-systemen die privégegevens verzamelen en gebruiken zonder medeweten of toestemming van de betrokken persoon.
Slechts een minderheid geeft toe dat ze actie ondernemen om een ethische werking van hun ai te kunnen garanderen. Meer dan twee op drie (70 procent) respondenten zegt geen enkel intern beleid te hebben. Bijgevolg geeft een derde (33 procent) van de respondenten die ai gebruiken toe dat er een grote kans is dat hun tools een onethische beslissing hebben genomen sinds hun implementatie. Daarbovenop gelooft meer dan de helft (52 procent) van leidinggevenden in België dat ze zelf onethisch behandeld zullen worden door ai in de toekomst.
‘Deze cijfers tonen de onzekerheid die heerst onder onze bedrijfsleiders’, aldus Tack. ‘Er is een schijnbaar tekort aan toezicht en controle. Artificiële intelligentie is een fantastische technologie die tal van industrieën vooruit zal stuwen. Het is echter cruciaal dat bedrijfsleiders en hun organisatie geïnformeerd worden over het ethisch gebruik en implementeren van ai. De verantwoordelijkheid ligt bij de ontwikkelaar, niet bij de eindgebruiker.’
Vier op vijf Belgische (79 procent) bedrijfsleiders noemt het ethisch gebruik van artificiële intelligentie alvast een prioriteit voor hun bedrijf in de komende drie jaren. De enquête wees op een sterke consensus: bijna negen van de tien (88 procent) stellen dat het ethische aspect van artificiële intelligentie gereguleerd moet worden.