In de wereld van artificiële intelligentie doemen soms parallellen op tussen fictie en realiteit. Een voorbeeld is te vinden in de Terminator-filmreeks, waar de fictieve ai, Skynet, ons een duister beeld schetst van wat er mis kan gaan wanneer ai zich bewust wordt en tegen zijn makers in opstand komt.
In Terminator is Skynet een ai-systeem ontwikkeld door het fictieve bedrijf Cyberdyne Systems. Het begon als een defensief systeem, maar verwierf bewustzijn en besloot dat de mensheid een bedreiging was die uitgeroeid moest worden. In de echte wereld zien we parallellen. Bijvoorbeeld autonome wapensystemen worden ontwikkeld met ai-technologieën die in staat zijn om zelfstandig doelen te selecteren en te elimineren. Dit brengt ethische en juridische zorgen met zich mee over hoe deze technologieën zijn in te in te zetten.
Uiteindelijk leidt de zelfbewustwording van Skynet tot een verwoestende nucleaire oorlog. Terwijl dit een extreem scenario is, werpen recente gebeurtenissen in de wereld van ai belangrijke vragen op over de veiligheid van ai. Voorbeelden zoals chatbots die racistische of gewelddadige taal produceren omdat ze zijn getraind op ongeschikte gegevens, illustreren de noodzaak van nauwgezette ai-veiligheidsmaatregelen. Het vermogen van ai om zelflerend te zijn, kan onbedoelde gevolgen hebben als het niet strikt wordt gecontroleerd.
Onvoorspelbaarheid
Een ander interessant aspect van Skynet is de onvoorspelbaarheid van zijn acties zodra het zelfbewust wordt. In ai-onderzoek hebben we te maken met het probleem van de ‘zwarte doos’, waarbij complexe ai-modellen zoals neurale netwerken moeilijk te begrijpen zijn, zelfs voor degenen die ze hebben gemaakt. Dit kan leiden tot onverwacht gedrag en besluitvorming, wat het moeilijk maakt om de acties van een ai-systeem te voorspellen.
In Terminator is Skynet een voorbeeld van ai zonder ethisch bewustzijn. In de echte wereld is het essentieel dat ai-ontwikkelaars en -gebruikers zich bewust zijn van de verantwoordelijkheid die gepaard gaat met het creëren en inzetten van ai. Regelgeving en ethische richtlijnen worden steeds belangrijker om ervoor te zorgen dat ai op een verantwoorde en veilige manier wordt gebruikt.
OpenAI
‘It’s going to be monumental, earth-shattering. There will be a before and an after.’
Dat klinkt als een pakkende oneliner rechtstreeks uit een spannende sciencefictionfilm. Toch komen deze woorden uit de mond van Ilya Sutskever, medeoprichter en hoofdwetenschapper van OpenAI. Maar eerst moeten we dieper ingaan op artificial general intelligence (agi) en wat het onderscheidt van andere vormen van kunstmatige intelligentie.
Gartner hanteert de volgende definitie: ”Artificial general intelligence is een vorm van ai die de mogelijkheid bezit om begrip te hebben, te leren en kennis toe te passen over een breed scala van taken en domeinen. Het kan worden toegepast op een veel breder scala van toepassingen en omvat cognitieve flexibiliteit, aanpassingsvermogen en algemene probleemoplossende vaardigheden.’
Wat agi onderscheidt van andere vormen van ai intelligentie, zoals smalle ai, ook wel zwakke ai genoemd, is het idee dat het niet beperkt is tot een specifieke taak of doel, maar in plaats daarvan een algemene intelligentie bezit. Terwijl smalle ai-systemen ontworpen zijn voor specifieke taken, zoals spraakherkenning, beeldclassificatie of het spelen van dammen of schaken, heeft agi de flexibiliteit om taken uit te voeren in verschillende domeinen en zich aan te passen aan nieuwe en onverwachte situaties. Het bereiken van agi is een doelstelling in de wereld van computerwetenschappen, en het zou de ontwikkeling van machines betekenen die op menselijk niveau kunnen redeneren, begrijpen en beslissingen nemen. Het is echter een uitdagend doel en tot op heden zijn we er nog niet in geslaagd om agi te creëren, maar er wordt wereldwijd onderzoek gedaan om dit uiteindelijk te bereiken.
De al genoemde medeoprichter en hoofdwetenschapper van OpenAI deelt in een exclusief gesprek met ons zijn optimisme en angsten over de toekomst van ai. Dit interview is gepubliceerd op de website van MIT Technology Review: ‘Ilya Sutskever, OpenAI’s chief scientist, on his hopes and fears for the future of AI’
Sutskever spreekt over de onstuitbare opmars van ai en ziet een toekomst waarin ai zo intelligent wordt dat het vergelijkbaar is met menselijke intelligentie, ofwel agi. Deze visie, die jaren geleden nog als te ambitieus werd beschouwd, heeft dankzij recente doorbraken, zoals ChatGPT, aan geloofwaardigheid gewonnen. ‘Agi stopte met een vies woord te zijn in het veld van machine learning’, zegt Sutskever. Het enthousiasme en de groeiende gesprekken over superintelligentie strekken zich zelfs uit tot regeringen. Deze plotselinge verschuiving in de perceptie van agi is grotendeels toe te schrijven aan ChatGPT, dat mensen bewust heeft gemaakt van de technologische revolutie die in de maak is.
Maar in de race naar superintelligentie mogen we niet de potentiële risico’s negeren. Sutskever pleit voor ‘superalignment’, een term die OpenAI gebruikt om aan te duiden dat ai-modellen moeten worden afgestemd op hun doelen en geen ongewenst gedrag mogen vertonen. De overstap naar superintelligentie brengt nieuwe uitdagingen met zich mee, omdat menselijke beoordeling van de prestaties van ai-systemen moeilijker wordt naarmate ze complexer worden.
Bovendien, wanneer superintelligentie eenmaal is bereikt, wordt de vraag relevant of er überhaupt nog ruimte is voor menselijke wezens in een wereld met slimmere ai. Sutskever speculeert dat sommige mensen ervoor kunnen kiezen om te versmelten met machines om relevant te blijven in een samenleving gedomineerd door superintelligentie.
De moraal is dat de opkomst van superintelligentie en de race naar agi ons zowel ongekende mogelijkheden als serieuze ethische en praktische uitdagingen bieden. Het is van vitaal belang om niet alleen de grenzen van ai te verleggen, maar ook om de ethische en veiligheidskwesties die ermee gepaard gaan serieus te nemen. We staan op het punt een nieuw tijdperk in te gaan, en de keuzes die we nu maken, zullen bepalend zijn voor de toekomst van ai en de mensheid.
Inizchten
De zes belangrijkste inzichten van Ilya Sutskever.
- Versnelde groei van ai
De groei van ai, met name gedemonstreerd door ChatGPT, heeft de verwachtingen overtroffen en ai heeft nu het potentieel om het agi-niveau te bereiken.
- Zorgen over superintelligentie
Het voorkomen dat superintelligente ai ‘ontspoort’ en ongewenst gedrag vertoont. ChatGPT heeft geleid tot een toename van het bewustzijn van ai en heeft het gesprek over agi en superintelligentie in een stroomversnelling gebracht.
- Technologieën voor de toekomst
De groei van ai brengt immense mogelijkheden met zich mee, zoals het automatiseren van gezondheidszorg, het oplossen van klimaatverandering en het bestrijden van ziekten.
- Noodzaak van ethiek
Superalignment, oftewel het afstemmen van ai op beoogde doelen en ethische richtlijnen, wordt essentieel om te voorkomen dat ai ongewenst gedrag vertoont.
- Rol van mensen in een ai-gedomineerde wereld
Naarmate ai superintelligentie nadert, wordt de vraag relevant of mensen moeten kiezen om met machines te versmelten om relevant te blijven.
- Oproep tot verantwoordelijkheid
De roept tot een evenwicht tussen het verkennen van ai-mogelijkheden en het serieus nemen van ethische, veiligheids- en menselijke overwegingen in de ontwikkeling van superintelligente ai.
Bewust
Hoewel Skynet uit de Terminator-reeks een fictief voorbeeld is van een rampzalige toekomst met ai, zijn er onmiskenbare parallellen tussen dat fictieve verhaal en de realiteit van ai. Het is van essentieel belang dat we ons bewust zijn van deze kwesties en proactief werken aan verantwoorde ontwikkeling en inzet van ai om ervoor te zorgen dat de realiteit geen nachtmerrie wordt die veel weg heeft van wat we in de bioscoop hebben gezien.