Op de AI Summit London in het historische Bletchley Park ondertekenden 28 landen een verklaring om zich gezamenlijk in te zetten voor een veilige en verantwoorde ontwikkeling van ai-technologie. Op de tweede dag van Cybersec liet trendwatcher, cybersecurity-specialist en ai-onderzoeker Peter Zinn weten dat het aantal ondertekenaars volstrekt te laag is. Wat als Noord-Korea een andere richting inslaat?
Vertrouwen in de omgang met ai-functionaliteit ontbreekt, omdat de modellen erachter onduidelijk zijn voor gebruikers, maar ook voor de ontwikkelaars van de toepassingen. Al in 1991 was Peter Zinn het oneens met zijn hoogleraar filosofie over de reikwijdte van ai. Na een programmeerexercitie van het aloude molenspel en na herhaaldelijk verlies van de computer, bracht Zinn het programma in als onderdeel van zijn wetenschappelijke studie. Hij opperde de mogelijkheid dat computers op den duur, wellicht over dertig jaar intelligenter kunnen zijn dan mensen. Het werd een onvoldoende. De professor bestempelde Zinns experiment schadelijk voor de opleiding. Volgens zijn filosofisch wetenschappelijke opvattingen kon een machine onmogelijk de associatieve functies van het menselijk brein overnemen. Nu, meer dan dertig jaar later, is de professor overleden en worstelt Zinn nog steeds met zijn theorie. De achterliggende algoritmen en programma’s van ai-toepassingen zijn nu weliswaar veel beter dan zijn molenspel, maar we praten bij succesvolle toepassingen feitelijk nog steeds over ’narrow’ ai, kunstmatige intelligentie gericht op specifieke toepassingen.
Mechanische Turk
Volgens Zinn getuigen veel initiatieven van een schijn van ai, omdat in de technologie de menselijke neiging tot fantaseren zit ingebakken. Als het systeem het niet meer weet, dan verzint het maar wat. Wie software wil verkopen, stopt ai in zijn verhaal en directies constateren tevreden dat ze ai in huis hebben. Zo oordeelt hij niet positief over Amazon Mechanical Turk, de ai-gedreven website die bemiddelt tussen opdrachtgevers en uitvoerders van Human IntelligenteTaks, online-werkzaamheden van beperkte omvang. Zinn ziet een overeenkomst tussen Amazons Turk-variant en de oorspronkelijke Turk-schaakmachine uit 1770: de inbreng van menselijke activiteit. In de schaakmachine zat een klein mens verstopt die goed kon schaken. Achter de schermen van het Amazone-systeem, verrichten ook mensen het werk en geen machines.
ChatGPT, de doorbraak in ai voor de massa, beschouwt hij als prima voor persoonlijk gebruik, maar omdat de meeste mensen het achterliggende model niet begrijpen, is voorzichtigheid geboden bij het beoordelen van het resultaat. Ai kan dodelijk zijn, claimt Zinn, wanneer hij als voorbeeld een boek noemt over het plukken van paddenstoelen, geschreven met behulp van ai. Het bevat nogal veel onnauwkeurigheden. Jarengeleden ondervonden effectenhandelaren in New York de negatieve aspecten van ai. Nadat een hacker inbrak in het toenmalige Twitter-account van Associated Press, plaatste deze een vals bericht over het overlijden van president Obama. Vervolgens zorgden de ai-gedreven handelssystemen voor een koersval.
Patroonherkenning
‘Ai-systemen zijn steengoed in patroonherkenning, classificering en beeldgeneratie’, zegt de strategisch adviseur van het team High Tech Crime van de politie. ‘Ze doen dat werk vele keren sneller dan een mens. De technologie past dus heel goed in een soc. Daar wil je zo min mogelijk aandacht aan ‘false positives’ besteden en je focussen op alle negatieve signalen. Waar bij andere monitoringtoepassingen voor bedrijfsvoering een score van tachtig tot negentig procent voldoende is, verwachten we bij ai 99,9 procent. Durven we ons netwerk nu al volledig aan ai toevertrouwen?’ Als voorbeeld klapt Zinn uit de school over de KPN-hack van enkele jaren geleden. Die ontstond in een zwakke plek van ‘backupsoftware’, waarvan het gehele KPN-netwerk afhankelijk was. Dat werd voor enige tijd volledig lamgelegd. ‘Daar heeft het telecombedrijf snel en adequaat op gereageerd en beschikt het inmiddels over één van de beste Ciso-teams ter wereld.’
Nachtmerrie
Naast het gebrek aan vertrouwen heeft ai het probleem van een ontzagwekkende hoeveelheid data, benodigd voor een zelflerend systeem. ‘Om een mens iets aan te leren kan je met een fractie daarvan toe’, aldus Zinn. ‘Van de grote hoeveelheid die je in een ai-model stopt, is de integriteit niet altijd duidelijk. Haal die data er dan maar eens uit.’ Nachtmerries krijgt hij bij de gedachte dat iedereen online via Alibaba voor 518 dollar een ’drone dog’ bestelt, die voorziet van een mitrailleur en vervolgens autonoom laat schieten op alles wat beweegt.
De ongewenste autonomie kan zich volgens hem ook gaan manifesteren bij het gebruiken van ChatGPT voor softwarecode-ontwikkeling. Ook daaraan kleven risico’s van het ontstaan van ongewenste functionaliteit omdat we het achterliggende model niet doorgronden en de oorspronkelijke makers ook niet meer. ‘Met een enige programmeerkennis omzeil je de ingebouwde beperking van het ai-systeem om met criminele intenties malware te maken. We gaan een stroom van phising- en spear-phising-activiteiten tegemoetzien. Neemt niet weg dat de technologie ons ook het gereedschap levert, zoals Purple-ai om vroegtijdig het gevaar te detecteren en in te dammen. Daarvoor zijn nog steeds mensen nodig, professionals in it-beveiliging. Onze toekomst is zeker niet saai.’