Of een computer ooit voor een levend wezen kan doorgaan, is één van de belangrijkste uitdagingen op het gebied van kunstmatige intelligentie. Alan Turing creëerde wat nu de Turing-test wordt genoemd, bedoeld om erachter te komen of een machine intelligent gedrag zou kunnen vertonen dat gelijk is aan of niet te onderscheiden is van dat van een mens.
Machines worstelen echter nog steeds met een van de fundamentele vaardigheden die een tweede natuur is voor mensen en andere levensvormen: levenslang leren. Dat wil zeggen, leren en ons aanpassen terwijl we een taak uitvoeren zonder eerdere taken te vergeten, of intuïtief kennis over te dragen die van de ene taak is verzameld naar een ander gebied. Vaak nog moeten ze eerst ‘catastrofaal vergeten’ voordat ze iets nieuws kunnen leren.
Neurale netwerken
Als mens en dier hebben we een geheugen waar we nog lang niet alles van weten. Het is ons vermogen van opslag, het vasthouden of bewaren en het terugzoeken van informatie. Daarnaast is ons geheugen essentieel om te kunnen leren en nieuwe kennis en vaardigheden in onze hersenen op te slaan. Onze hersenen doen dat ook nog eens op een zeer energie-efficiënte manier, waarvan we graag meer zouden willen weten. Bij de ontwikkeling van kunstmatige intelligentie zijn diepneurale netwerken (dnn’s) een veelbelovende ondersteuning. Deze wat betreft structuur en biologie op het menselijke geheugen geïnspireerde opslagtechniek staat zeer in de belangstelling.
Onderzoekers aan de Universiteit van Graz publiceerden in Nature Machine Intelligence over een studie die laat zien dat neuromorfe computerhardware (zoals dnn’s) vier tot zestien keer efficiënter kunnen zijn dan conventionele computerhardware. In hun tests evalueerden onderzoeker Wolfgang Maass en zijn collega’s de energie-efficiëntie van een groot neuraal netwerk dat draait op een neuromorfe computerchip gemaakt door Intel. Deze is speciaal ontworpen om reeksen van grote letters of cijfers, zoals zinnen, te verwerken. Dnn’s zijn van cruciaal belang om de cognitieve functie op een hoger niveau te brengen, zoals het vinden van relaties tussen zinnen in een verhaal en het beantwoorden van vragen over de inhoud ervan. De uitdaging van het semantische internet web 3.0.
Sprinten en rusten
Het ontwikkelen van hersen-geïnspireerde neurale architecturen is naast genoemde energie-efficiënte ook interessant om sneller informatie te vergelijken. Onze hersenen gebruiken hiervoor zeer efficiënte ‘skiping-neuronen’ die soms hyperactief kunnen zijn, maar ook op zijn tijd de nodige rust moeten krijgen. Deze balans tussen variërende hyperactiviteit en ‘luiheid’ maakt het geheugen niet alleen razendsnel maar ook energie-efficiënt. In huidige kunstmatige dnn’s worden neuronen tienduizenden keren per seconde geactiveerd, terwijl in ons menselijk geheugen een gemiddeld neuron maar enkele keren per seconde een signaal afgeeft.
In hun experimenten toonden Maass en zijn collega’s aan dat de neiging van veel biologische neuronen om te rusten na spiking, is te repliceren in neuromorfe hardware en te gebruiken als een ‘computationele truc’ om taken voor het verwerken van tijdreeksen efficiënter op te lossen. Bij deze taken moet nieuwe informatie worden gecombineerd met informatie die in het recente verleden is verzameld, bijvoorbeeld zinnen uit een verhaal dat het netwerk vooraf heeft verwerkt.
Lange weg
Door deze biologische tactiek in het kunstmatige netwerk te reconstrueren, werd zoals eerder gezegd in hetzelfde dnn vier tot zestien keer minder energie verbruikt dan in conventionele data-opslagchips. De uitdaging is om goed te weten welke neuronen het meest vermoeid zijn en rust nodig hebben. Door bij te houden welke informatie recentelijk is verwerkt en daar de verantwoordelijke neuronen voor te kennen, kan men die noodzakelijke behoefte aan ‘luiheid’ herkennen en gebruiken bij het aansturen van de neuronen.
Er is nog veel te leren over de efficiëntie van zowel informatieopslag als -verwerking door onze hersenen. Ons brein kan leren door slechts één keer een scene te zien, terwijl de huidige dnn’s nog een buitensporige training moeten krijgen met ontelbare voorbeelden. Dnn’s staan nog maar aan het begin wat betreft ‘kunstmatig kunnen leren’. Onze hersenen gebruiken om snel te leren verschillende leermethoden parallel in verschillende delen van onze hersenen. Hierdoor is mogelijk eerder beslissingen te nemen op basis van die parallelle informatie die we krijgen aangeboden. De combinatie van die leermethoden maakt het mogelijk ook individuele ervaringen te genereren om ook later betere beslissingen te kunnen nemen.
Levenslang leren
Levenslang leren is een verzameling biologisch geïnspireerde vaardigheden die we als vanzelfsprekend beschouwen, zoals het vermogen om nieuwe vaardigheden te verwerven zonder onze oude in gevaar te brengen, het aanpassen aan veranderingen en het toepassen van eerder geleerde kennis op nieuwe taken. De manier waarop wij als mens en dier leren, is door ervaring, imitatie en zelfonderzoek. Als je een nieuwe taak leert, betekent dat niet dat je eerdere taken vergeet. Mensen leren tijdens het werk. Als we taak uitvoeren, zijn we automatisch aan het leren. Elke fout is een leermoment en weten we hoe we het beter moeten doen. Machines kunnen dat nog niet goed.
De behoefte aan snellere en betere kunstmatige intelligentie is nodig om allerhande complexe modellen te kunnen bestuderen. Bijvoorbeeld ons milieu en klimaat zijn zo complex, dat we die met gewone rekenmodellen beslist niet in het geheel kunnen doorrekenen. Maar ook aerodynamische modellen voor luchtstromen zijn nog veel te complex om goed door te rekenen, zelfs voor de huidige supercomputers. Dnn’s zijn momenteel onze fysieke weg om sneller en slimmer te kunnen leren en simulaties te kunnen doorrekenen.
Catastrofaal vergeten
Levenslang leren is informatie te kunnen verwerken die een relatie heeft met eerder opgebouwde kennis. Een bio-geïnspireerde terugkoppeling die – zoals we in proeven met robots al eerder hebben gedaan – om met letterlijk vallen en opstaan zelf te leren lopen. Van enorm belang voor de volgende generatie van zelfrijdende auto’s, autonome robots en drones en intelligente prothesen, exoskeletten en draagbare apparaten. Wanneer je een machine iets nieuws wil leren, moet je meestal eerst het geheugen wissen en vergeet hij hoe hij de voorafgaand dingen deed. Dit is een probleem dat bekend staat als ‘catastrofaal vergeten‘, een van de belangrijkste tekortkomingen van de huidige AI-systemen
Als mens kun je leren pingpongen, welke vaardigheid je daarna ook gebruikt om te leren badmintonnen of tennissen. Machines zijn daar (nog) niet toe in staat. Hoe ontwikkel je het vermogen om kennis over te dragen en opnieuw te gebruiken en om je aan te passen aan nieuwe omgevingen. Of begrijpen wanneer tijdens de training van de ene taak naar de andere moet worden overgeschakeld zonder dat dit wordt verteld. Dit noemt men neuromodulatie: het systeem in de hersenen van levende wezens dat helpt om het leren te verbeteren, het probleem van catastrofaal vergeten te overwinnen en zich aan te passen aan onzekere omgevingen en veranderingen in context te begrijpen.
Onze hersenen hebben hiervoor astrocyten – andere hersencellen die interacteren met neuronen om het leren te ondersteunen – en de neurale pieken en bursts die informatie in gecodeerde vorm overbrengen. Levenslang leren is vooralsnog een biologisch systeem, waar AI-onderzoekers jaloers naar kijken en proberen te begrijpen. Of we daar snel toe in staat zijn, is de vraag. De natuur had er uiteindelijk miljoenen jaren van evolutie voor nodig.