Het Europees parlement stemt in februari over een plan om regelgeving in te stellen voor robots en andere vormen van kunstmatige intelligentie. Aanleiding daarvoor is een rapport van de juridische commissie. Dat rapport heeft voor de nodige ophef gezorgd in de Europese en landelijke pers en dat is niet verwonderlijk. Als je het rapport leest – en je kunt je door de juridische terminologie heen worstelen – dan zul je het met me eens zijn dat er genoeg aanleiding is om eens goed na te denken over hoe we omgaan met de regels voor robots en kunstmatige intelligentie.
Zo is er de kwestie van aansprakelijkheid. Als een autonome robot of een zelfrijdende auto iemand verwondt, wie draait dan op voor de schade? De eigenaar van de robot, de fabrikant, de eigenaar of degene die de robot heeft geleerd hoe die zich moet gedragen, al dan niet via machine learning? Als robots het werk van mensen overnemen en waarde toevoegen aan het bedrijf, wat zijn dan de fiscale consequenties en de gevolgen voor de sociale zekerheid? Zo komen er allerlei vragen op als je het rapport leest, die maar nauwelijks beantwoord worden.
Het rapport is opgesteld om een denkproces op te starten dat uiteindelijk moet leiden tot wetgeving. Ik vind het een heel interessant onderwerp en in deze blog ga ik graag in op een paar van de kwesties die de auteurs van het rapport opwerpen. Een aantal daarvan hebben te maken met natuurlijke taal, die voor problemen zorgt maar opvallend genoeg ook deel van de oplossing kan zijn.
Een rondje sciencefiction
Je kunt het rapport afdoen als een hype; politici zonder verstand van zaken die een rondje sciencefiction doen. Natuurlijk is artificial intelligence (ai) momenteel een populair onderwerp, maar dat komt vooral omdat de ontwikkelingen zo snel gaan op de thema’s waar ‘deep learning’ het verschil kan maken: het vinden en duiden van grote hoeveelheden data, beeld- en spraakherkenning, klantenservicebots en gaming.
We kunnen het er in ieder geval over eens zijn dat de vooruitgang zo krankzinnig snel gaat dat het zelfs voor experts, laat staan het publiek, onmogelijk te voorspellen is waar kunstmatige intelligentie over vijf, tien of vijftien jaar staat en welke impact het dan heeft. Maar we kunnen er gewoonweg niet omheen, hype of geen hype, en dat geldt dus ook voor politici.
In het rapport wordt, zoals je kon verwachten, gerefereerd aan de wetten van de robotica van Isaac Asimov en de commissie stelt dat niemand weet wanneer robots en ai-toepassingen zelfbewust worden. Tot die tijd, zegt de commissie, zijn het met name de ontwerpers, fabrikanten en beheerders van de robots die zich aan die wetten moeten houden.
Laat robots zelf vertellen wat ze weten
De kwesties op macroniveau – wat kan de technologie van artificial intelligence wel en niet – gelden ook voor het microniveau: hoe bepaal je de grenzen van wat een robot kan en mag? Het rapport zegt dat gebruikers ervan moeten uitgaan dat een robot beperkingen heeft in de mate van perceptie, cognitie en handelingsvrijheid. Prima opmerking, maar wat kun je daarmee? Wat zijn dan de specifieke beperkingen van het systeem waarmee ik in gesprek ben?
Voordat er pratende machines waren, was het duidelijk: dieren en dingen kunnen niet praten, dus alles wat wel praat moet wel een mens zijn. En zo denken we eigenlijk nog steeds. Daarom hebben we ook nu nog moeite om zelfs wetenschappelijk te bepalen hoe intelligent een (sprekend) systeem echt is.
Een van de aanbevelingen van het rapport is dat robots altijd herkenbaar moeten zijn als robot als er interactie is met mensen. Dat lijkt me een minimum vereiste. Toch is al gebleken dat lang niet iedereen zich aan die eis houdt. In de Amerikaanse verkiezingen werden massaal bots ingezet zonder dat die als zodanig herkenbaar waren. Dat zijn vooral ethische kwesties, maar ook in praktische zin is het bijvoorbeeld bij mainstream bot-ondersteuning, zoals Cortana en Siri, lastig te bepalen wat de mogelijkheden en grenzen zijn.
‘Contextual Reasoning Framework’
Een ander gerelateerd advies uit het rapport is gericht aan de ontwerpers. De commissie pleit ervoor dat die ervoor zorgen dat alle beslisstappen van de robot herleidbaar zijn en gereconstrueerd kunnen worden. Niet alleen met terugwerkende kracht bij incidenten, maar doorlopend. Wij als mensen moeten altijd weten waarom een autonoom systeem waar we op vertrouwen bepaalde beslissingen heeft genomen. Dat lijkt op het eerste gezicht steeds complexer te worden in deze tijd van ‘deep learning’. Het is niet eenvoudig te begrijpen waarom een zogeheten Neural Network doet wat het doet, daar lopen meer mensen tegenaan.
Een mogelijke oplossing is om regels in het systeem in te bouwen zodat je de ‘redenering’ altijd kunt herleiden. Als aanvulling daarop is natuurlijke taal een mooie manier om robots en ai-toepassingen aan mensen te laten vertellen hoe ze denken. Het zou toch erg prettig zijn als je in een zelfsturende auto zit en de auto zegt: ‘Ik pak hier even de afslag naar de A27 omdat er op de A1 vijf kilometer file staat.’
Ken je die mop van die twee huishoudelijke robots?
Verder gaat het rapport in op het feit dat autonome robots die via het netwerk met elkaar verbonden zijn, interoperabel moeten zijn. Ook daar kan natuurlijke taal zeer bruikbaar zijn. Steeds meer bots, robots en computerassistenten bevolken onze huiskamer en werkvloer, en je hoeft geen kristallen bol te hebben om te voorspellen dat die uiteindelijk vaker met elkaar zullen praten dan met ons mensen.
Een computerassistent praat namens ons met een virtuele klantenservicemedewerker en ken je die mop van die twee huishoudelijke robots die elkaar tegenkomen? Op welk technologisch systeem ze ook gebouwd zijn, ze zullen allemaal tot een bepaald niveau natuurlijke taal beheersen. En dat heeft als groot voordeel dat als bijvoorbeeld twee huisrobots met elkaar praten, wij als mensen kunnen meeluisteren naar wat ze onderling bespreken en kunnen ingrijpen als dat nodig is.
Er worden in het rapport van de commissie nog veel meer aspecten besproken. En er zullen nog veel meer vragen te beantwoorden zijn over de regelgeving voor robots en voor de mensen die deze robots ontwikkelen. Het is een bijzonder interessante en belangrijke discussie. Dus Europees Parlement, dank voor het verder aanzwengelen van die discussie!
Door Nils Lenke, senior director Corporate Research bij Nuance Communications