Ons leven is doordrongen van toepassingen die gebaseerd zijn op kunstmatige intelligentie (ai), zoals virtuele assistenten, slimme thermostaten en navigatie-apps. Ai wordt – bewust en onbewust – dagelijks door miljoenen consumenten gebruikt. Maar de introductie van ai op de werkplek blijkt lastig.
Terwijl de gemiddelde Nederlander zonder erbij stil te staan informatie opvraagt bij Siri of de weg zoekt via Google Maps, is diezelfde Nederlander een stuk kritischer wanneer ai zijn werk betreft. De onboarding van nieuwe medewerkers of de afhandeling van vragen van klanten, om maar een paar voorbeelden te noemen, wordt niet zonder meer ‘aan een computer overgelaten’.
Overal waar ik vanuit mijn functie kom, zie ik dan ook de behoefte om de zwarte doos rond de ai-toepassing uit elkaar te halen en kunstmatige intelligentie ‘verklaarbaar’ te maken. En opmerkelijk genoeg voel ik die behoefte in alle lagen van een bedrijf, van het topmanagement tot op de werkvloer.
Vertrouwen is cruciaal
De afgelopen jaren zijn gekenmerkt door een sterke opkomst van ai-gedreven tools op de werkplek, zoals toepassingen voor het identificeren van leads, het verwerken van facturen, het werven van personeel, of het ontwikkelen van marketingstrategieën. Stuk voor stuk tools om taken sneller en efficiënter uit te voeren.
En hoewel de helft van de zakelijke wereld ai als een prioriteit beschouwt, en twee derde een ‘ai first’-cultuur aanhangt, blijft een gebrek aan vertrouwen in ai een grote hindernis bij het uitrollen van ai-tools in bedrijven. Het probleem is namelijk dat werknemers niet voetstoots aannemen dat deze tools hen daadwerkelijk helpen om werk effectiever te maken.
En dat is niets nieuws; ook Gartner gaf al in 2018 aan dat het scheppen van vertrouwen een grote rol speelt bij het uitrollen van ai-tools. Als medewerkers alleen de output van het algoritme te zien krijgen zonder dat het ‘waarom’ uitgelegd wordt, wanen ze zich weer in hun kleutertijd. ‘Omdat ik het zeg’ is vanaf een bepaalde leeftijd geen valide argument meer, dus ook niet als je geconfronteerd wordt met ai. Het gebrek aan vertrouwen is dan ook een reden gebleken om de desbetreffende toepassing te verwerpen.
Scepsis en boosheid
Veel mensen wijzen ai niet alleen af uit scepsis, maar uit boosheid. Dat is begrijpelijk: die nieuwe tool die taken sneller en beter zou kunnen uitvoeren, kan bedreigend overkomen. En laten we eerlijk zijn: ai kan inderdaad bedreigend zijn, voor bepaalde functies. En dat is precies de reden waarom het concept ‘verklaarbare ai’ langzaam terrein lijkt te winnen.
Dit concept gaat ervan uit dat er behoefte is aan systemen die medewerkers uitleggen hoe een ai-tool werkt en hoe die zijn conclusies trekt. Ai op ai dus. Er zijn al startups opgericht die zich richten op verklaarbare ai. Bedrijven bijvoorbeeld die andere bedrijven helpen om bias te voorkomen, hetgeen cruciaal is in sterk gereguleerde sectoren als de gezondheidszorg en de financiële dienstverlening.
Bovendien zijn er al wetten en regels in de maak met betrekking tot ai, en die zullen ook hun uitwerking hebben op het bedrijfsleven. Bedrijven zullen dan voor de nodige transparantie moeten zorgen, zowel voor hun klanten als voor de autoriteiten.
En dat is een uitstekende ontwikkeling. Machine learning en ai worden nog veel te veel gezien als een bedrijfsrisico. Als iets ook maar een beetje ruikt naar bias – en dat hoeft niet eens waar of bewezen te zijn – geef je je klanten al reden om je producten te wantrouwen. Door een goede regelgeving en een uitleg van hoe ai tot zijn resultaten komt, maak je daar een einde aan.
Spagaat
Natuurlijk begrijp ik als geen ander dat de noodzaak aan verklaarbare ai sommige bedrijven in een spagaat dwingt. Want hoe geavanceerder en krachtiger een ai-tool is, hoe ingewikkelder het algoritme erachter is en hoe moeilijker het is om het uit te leggen.
En die spagaat zal nog wel een tijdje blijven bestaan. Vooralsnog kunnen de bedrijven dus kiezen voor een model dat ‘goed genoeg is’, en dat daarom niet al te moeilijk te verklaren is, met de kans dat de adoptie ervan redelijk soepel verloopt. Ofwel kiezen ze voor een model dat in alle opzichten geweldig geavanceerd is en dat de concurrentie op elk gebied wegvaagt. Maar dat wel het risico met zich meedraagt dat het veel lastiger te verklaren is, en snel in onbruik raakt omdat mensen het niet vertrouwen.
‘Verklaarbare ai’ zal zich verder ontwikkelen, en snel aan belang winnen.
Chris Pope, vice president Innovation bij Servicenow