Er wordt op veel plaatsen gerapporteerd dat ChatGPT – een chatbot – een ware doorbraak in kunstmatige intelligente is. Maar dat is het zeker niet!
ChatGPT kan ‘programmeren’ of een ‘nieuwe Harry Potter schrijven’, aldus onlangs het NOS-journaal. Er is sprake van een ‘iPhone-moment’ volgens vele tech-watchers. Men erkent weliswaar vaak wel dat er fouten in de resultaten van de chatbot zitten maar in het algemeen neemt men vervolgens aan dat met meer leren die fouten uiteindelijk zullen verdwijnen. ‘We staan aan het begin van een nieuw tijdperk van kunstmatige intelligentie vol zoete vruchten’, zo schreef onlangs een Nederlandse tech-watcher.
Maar ChatGPT is helemaal geen doorbraak, het is eerder een doodlopende weg met potentieel zeer schadelijke consequenties. Daarvoor moeten we de techniek een beetje in.
ChatGPT is een programma dat niets anders doet dan gegeven de input een antwoord te genereren waarbij de meest waarschijnlijke woordcombinaties uit een databank zijn gedestilleerd. Wat een woordcombinatie betekent, speelt daarin eigenlijk geen rol. Het is woordcombinatie-statistiek, meer niet.
In de meest simpele variant heeft elke smartphone dat mechanisme al. Je typt op je scherm en de telefoon geeft je een drietal woorden die je statistisch gezien het vaakst zou gebruiken na de voorgaande. Op de telefoon is dat niet van een heel erg hoge kwaliteit. Kies de meest waarschijnlijke woorden voor een berichtje en de zin die resulteert, is iets als: ‘Ik ben je nog even over de hele tijd en zin hebt in een museum voor de rest van de inhoud van de eerste helft was een beetje een andere manier van werken’. Na ‘hele’ suggereerde de smartphone ’tijd’ – uit de veelvoorkomende combinatie ‘de hele tijd’ -, maar na ’tijd’ kwam ‘en’ vanwege de veelvoorkomende combinatie ’tijd en zin’. Enzovoorts.
Een automatische aanvulling op steroïden
Het klinkt misschien raar, maar de methode achter ChatGPT is dezelfde, alleen met veel meer data en statistiek. Het is ‘automatische aanvulling op steroïden’. Door zijn omvang is ChatGPT – in tegenstelling tot de smartphone – in staat om wél welgevormde zinnen te maken. De tool is bovendien getraind op veel data met echte inhoud, dus er is een grote kans dat het niet alleen maar welgevormd is maar ook dat de zinnen passen bij de input die gegeven is. ‘Passen bij’ is echter niet hetzelfde als ‘betrouwbaar’.
Er is geen enkele reden om aan te nemen dat ChatGPT zal verbeteren met meer data. Want het gebrek aan intelligentie zit hem maar deels in de data, het zit fundamenteel ingebakken in de opzet van het systeem. Zelfs de winst van Meta’s Cicero AI bij het onderhandelingsspel Diplomacy – heel indrukwekkende engineering op basis van een combinatie van verschillende machine learning modellen – is uiteindelijk eerder een teken dat machine learning op zich tegen grenzen aan het aanlopen is.
ChatGPT is daarom net zo goed een doodlopende weg als de technieken die in de jaren ’90 leidden tot de winst van IBM op wereldkampioen schaken Gary Kasparov. Ook toen stond de wereld volgens de meesten op het punt van een grote doorbraak. Die nooit kwam. De combinatie van de oude (symbolic ai) en nieuwe (machine learning) techniek zal mogelijk nog een substantiële verbetering opleveren, maar algemene artificiële intelligentie gaan we hierdoor zeker niet krijgen.
Mens-achtige taal
De makers van ChatGPT hebben goed gelet op het afhandelen van vragen over ChatGPT zelf. Als je de chatbot vraagt over zijn intelligentie krijg je iets als: ‘Als een door OpenAI getraind groot taalmodel ben ik niet in staat om de kwaliteit van een geschreven paragraaf te beoordelen. Mijn doel is om gebruikers te helpen bij het genereren van mensachtige tekst op basis van de aanwijzingen die ik krijg.’ Kortom, je krijgt ‘mens-achtige’ taal, maar niet ‘menselijke’ taal.
De eerste grote site die bijdragen van ChatGPT verbiedt omdat die teveel goedgevormde maar onjuiste inhoudelijke informatie bevatten, is er al: het bij it’ers welbekende Stack Overflow. De meest waarschijnlijke uitkomst is eigenlijk dat ChatGPT-achtige systemen allereerst een wapen gaan worden in de al lopende ‘informatie-oorlogen’ en al gebruikt worden door oplichters, dictators, en ander slecht volk. Met ChatGPT in de hand kunnen die betrouwbare informatie gaan verdrinken in een zee van moeilijk als onzin herkenbare nonsens. Nonsens die vervolgens weer als input voor ChatGPT gaat dienen. Inderdaad: een ‘iPhone-moment’, maar niet in positieve zin.
Oppervlakkig oordeel
Belangrijker is de vraag hoe het komt dat mensen dit ervaren als intelligentie en sommigen zelfs als bewustzijn? Dat komt omdat het kunnen vormen van welgevormde – ‘passende’ – zinnen voor ons een snelle manier is om intelligentie te zien. Ons oordeel is daarin echter erg oppervlakkig. Wij zijn als mensen feitelijk erg gemakkelijk voor de gek te houden en we zijn daardoor in staat om van de meest malle dingen overtuigd te zijn (zie gepromoveerde academici die geloven dat de wereld wordt bestuurd door als mensen vermomde hagedissen).
Kortom, het issue is niet dat ChatGPT en vergelijkbare systemen intelligent zijn, maar vooral dat wij mensen dat – allemaal – eigenlijk niet heel erg zijn.
Gerben Wierda is publicist, lead architect en voormalig medewerker van een taaltechnologiebedrijf