IBM heeft nieuwe technologie klaar die inzicht geeft in hoe ai-systemen tot bepaalde acties of conclusies komen. Het bedrijf wil daarmee het ‘black box’-probleem oplossen: hoe kunnen mensen kunstmatige intelligentie (ai) vertrouwen als ze niet weten hoe het bepaalde beslissingen neemt.
De nieuwe software wordt door IBM als open bron-tool ter beschikking gesteld en draait volledig in de cloud. De tool detecteert bepaalde ‘afzwakkingen’ en ‘vooroordelen’ (‘mitigation’ en ‘bias’) van ai-systemen en werkt met software en apparatuur van verschillende fabrikanten, waaronder Watson van IBM zelf, Tensorflow, SparkML, AWS Sagemaker en AzureML.
De software legt bepaalde beslissingen uit op het moment dat ze door ai-systemen worden genomen en geeft suggesties om bepaalde data toe te voegen om voorkeuren en vooroordelen zo veel mogelijk te neutraliseren. Dit alles gebeurt met eenvoudige dashboards. Alle mogelijke parameters worden opgeslagen en kunnen weer opgevraagd worden, bijvoorbeeld voor regulatoren of voor compliance-redenen.
IBM maakt daarnaast ook een ‘Ai Fairness 360 toolkit’ beschikbaar, een nieuwe set algoritmes, code en handleidingen om onderzoekers en datawetenschappers uit te leggen hoe ze zelf bias en mitigation onder controle kunnen houden.
‘IBM is altijd een voorloper geweest om bepaalde principes van vertrouwen en transparantie te hanteren wanneer we nieuwe ai-technologie ontwikkelden’, zegt Beth Smith, general manager of Watson AI bij IBM. ‘Het is nu tijd om die principes in de praktijk waar te maken. We geven nieuwe transparantie- en controlemechanismen aan bedrijven die ai gebruiken en het grootste risico lopen wanneer er verkeerde beslissingen worden genomen.’
Uit een eigen studie van IBM blijkt dat 82 procent van de grote bedrijven overweegt om ai in te zetten. Bijna twee derde (63 procent) heeft echter niet genoeg gekwalificeerd personeel in huis om de technologie in goede banen te leiden.