Er zijn al legio doemscenario's geschetst rondom kunstmatige intelligentie (artificial intelligence – ai). Miljoenen banen gaan verloren, gezichtsherkenning wordt ingezet voor zaken die we nooit hebben zien aankomen en ai en robots nemen onze levens over. Deze scenario’s zorgen voor angst voor de technologie en zouden bij consumenten, werknemers en software-bedrijven de vraag moeten oproepen: wat kunnen we doen om dit tij te keren? Hoe kunnen we het ai van de toekomst een positief imago geven?
De realiteit is dat vrijwel niemand (althans dat hoop ik) expres ai-systemen ontwerpt die met opzet vooroordelen versterkt of andere features creëert die het tot een enge technologie maken waar iedereen zich van afkeert. Maar op een bepaald punt kunnen we ons niet allemaal blijven verschuilen achter goede bedoelingen. Het feit dat mensen niet zorgvuldig genoeg zijn en acties ondernemen om te zorgen dat ai op een goede en ethische manier werkt, is problematisch. Met andere woorden, vandaag de dag zijn een lakse houding ten opzichte van ai en de impact die beslissingen hebben op echte mensen, een groter probleem dan opzettelijke kwaadaardigheid.
Het is aan ons allemaal (of we nu managers, medewerkers of zelfs consumenten zijn) om onze processen te veranderen of, in het geval van consumenten, verandering te eisen, op twee gebieden:
-
Mensen betrekken en betrokken houden die niet alleen bevoegd zijn, maar ook worden aangemoedigd om hun mond open te doen als ai-systemen lijken te ontsporen of wellicht al zijn ontspoord.
-
Realiseren dat verantwoordelijkheid in ai niet goedkoop is. Het kost veel meer moeite om ergens aandacht aan te besteden dan om geen verantwoordelijkheid te nemen voor de resultaten en te zeggen ‘Hey, het is ai. Ja, ik heb het gebouwd, maar het heeft een eigen mening, dus het is niet mijn schuld.’
Verschil
Als het aankomt op ai-technologie, dan hebben software-leveranciers ook een verantwoordelijkheid. En wel op deze drie gebieden:
-
Ai-technologieën moeten het kostbaar maken om vooroordelen of andere problemen in ai-systemen te missen of negeren. De ontwikkeling van AutoML, om nog maar te zwijgen van verdere ontwikkelingen op het gebied van automatisering, zorgt ervoor dat mensen in sommige opzichten iets te veel op de automatische piloot denken en handelen. Denk aan de groei van automatisering in de financiële markt die zorgt voor volatiliteit op de aandelenmarkt. Als je werkt aan automatisering, zijn duidelijke controles in het proces (op vooroordelen, interpreteerbaarheid, et cetera) van cruciaal belang.
-
Het moet duidelijk zijn waar de verantwoordelijkheid van mensen start en ophoudt. Software-systemen moeten dit faciliteren. Dat wil zeggen dat echte mensen aan het einde van de productielijn staan als het gaat om verantwoordelijkheid in ai-systemen. Niet alleen teams of groepen, maar individuen die moeten antwoorden op beschuldigingen nadat de dingen fout zijn gegaan.
-
We moeten het makkelijker maken om kennis (en dus ervaring, standpunten en ideeën) te combineren. Dit betekent dat er niet slechts één persoon is die iets bouwt met ai en het introduceert, er zijn veel mensen bij betrokken. Dit betekent dat er voldoende gelegenheid is om te signaleren dat iets fout gaat (vooral als punt één goed wordt ingevuld).
Ik geloof dat al deze verantwoordelijkheden en nieuwe productfuncties zullen leiden tot een nieuwe discipline. Deze zal vervolgens de weg vrijmaken voor ai die geen angst inboezemt: ethische kunstmatige intelligentie.