De door LLM aangedreven generatieve AI-modellen, zoals gebruikt in chatbots als ChatGPT, werken als superkrachtige zoekmachines, waarbij ze de gegevens gebruiken waarop ze werden getraind om vragen te beantwoorden en taken uit te voeren in mensentaal. Maar of het gaat om publiek beschikbare modellen of modellen die intern in een organisatie worden gebruikt, op LLM gebaseerde generatieve AI kan bedrijven blootstellen aan beveiligings- en privacyrisico’s.
7 november 2023 – ChatGPT en andere generatieve AI-tools worden aangedreven door grote taalmodellen (Large Language Models – LLM’s). Ze werken door kunstmatige neurale netwerken te gebruiken om enorme hoeveelheden tekstgegevens te verwerken. Nadat het model de patronen tussen woorden heeft geleerd en hoe deze in de context gebruikt worden, kan het in natuurlijke taal met gebruikers communiceren. Een van de belangrijkste redenen voor het reuze succes van ChatGPT is zijn vermogen om grappen te vertellen, gedichten te schrijven en doorgaans te communiceren op een wijze die moeilijk te onderscheiden valt van een mens.
VERWANTE LECTUUR: Writing like a boss with ChatGPT: How to get better at spotting phishing scams
De door LLM aangedreven generatieve AI-modellen, zoals gebruikt in chatbots als ChatGPT, werken als superkrachtige zoekmachines, waarbij ze de gegevens gebruiken waarop ze werden getraind om vragen te beantwoorden en taken uit te voeren in mensentaal. Maar of het gaat om publiek beschikbare modellen of modellen die intern in een organisatie worden gebruikt, op LLM gebaseerde generatieve AI kan bedrijven blootstellen aan beveiligings- en privacyrisico’s.
5 van de belangrijkste LLM-risico’s
1. Gevoelige data te vaak delen
Chatbots, gebaseerd op LLM, zijn niet goed in het bewaren van geheimen – of het vergeten ervan. Alle gegevens die men invoert, kunnen door het model worden opgenomen en beschikbaar gesteld worden voor anderen of, minstens, gebruikt worden om toekomstige LLM-modellen te trainen. Werknemers van Samsung (Samsung workers) kwamen hier achter toen ze vertrouwelijke informatie deelden met ChatGPT terwijl ze die gebruikten voor werk gerelateerde taken. De code en de opnames van vergaderingen die ze in de tool ingevoerd hadden, konden zich in theorie in het publieke domein bevinden (of opgeslagen worden voor toekomstig gebruik, zoals reeds werd opgemerkt door het National Cyber Security Center in het VK). Onlangs gaf ESET aan hoe organisaties kunnen voorkomen dat hun gegevens risico’s lopen bij het gebruik van LLM’s (avoid putting their data at risk when using LLMs).
2. Uitdagingen voor auteursrechten
LLM’s zijn getraind op grote hoeveelheden gegevens. Maar die gegevens worden vaak van internet gehaald, zonder expliciete toestemming van de eigenaar. Dat kan potentiële auteursrechtproblemen veroorzaken als men die blijft gebruiken. Het kan moeilijk zijn om de oorspronkelijke bron van specifieke trainingsgegevens te vinden, zodat het een uitdaging is om deze problemen op te lossen.
3. Onveilige code
Ontwikkelaars gebruiken steeds meer ChatGPT en gelijkaardige tools om hen te helpen de time-to-market in te korten. Theoretisch kan het codefragmenten en zelfs hele softwareprogramma’s snel en efficiënt helpen genereren. Beveiligingsexperten waarschuwen dat het ook kwetsbaarheden kan veroorzaken. Dit is een probleem als de ontwikkelaar niet over voldoende domeinkennis beschikt om te weten op welke bugs hij moet letten. Als er dan code met fouten in de productie terechtkomt, kan dit een ernstige reputatie-impact hebben en veel tijd en geld vergen om het probleem op te lossen.
4. Het hacken van de LLM zelf
Ongeoorloofde toegang tot en knoeien met LLM’s zouden hackers opties kunnen bieden om kwaadaardige activiteiten uit te voeren, zoals het model aanzetten om gevoelige informatie vrij te geven via injectie-aanvallen of andere acties die zouden moeten geblokkeerd worden. Andere aanvallen kunnen gebruik maken van kwetsbaarheden door “server-side request forgery” (SSRF) toe te passen op LLM-servers, zodat aanvallers interne bronnen kunnen extraheren. Criminelen zouden zelfs een manier kunnen vinden om met vertrouwelijke systemen en bronnen te communiceren door simpelweg kwaadaardige commando’s te sturen via aanwijzingen in natuurlijke taal.
VERWANTE LECTUUR: Black Hat 2023: AI gets big defender prize money
ChatGPT moest in maart offline gehaald worden na de ontdekking van een kwetsbaarheid die de titels uit de gespreksgeschiedenis van sommige gebruikers aan andere gebruikers doorgaf. Om het bewustzijn van kwetsbaarheden in LLM-applicaties te vergroten, publiceerde de OWASP Foundation een lijst met tien kritieke beveiligingslekken die vaak in deze applicaties worden waargenomen.
5. Een datalek bij de AI-provider
De kans bestaat dat een bedrijf dat AI-modellen ontwikkelt zelf gehackt wordt, zodat hackers trainingsgegevens kunnen stelen die gevoelige bedrijfsinformatie bevatten. Dat geldt ook voor datalekken – zoals toen Google, onbedoeld, privé Bard-chats in de zoekresultaten lekte.
Als een organisatie graag het potentieel van generatieve AI wil gebruiken voor concurrentievoordeel, zijn er een paar dingen die ze eerst moet doen om een aantal risico’s te beperken:
· Gegevensversleuteling en anonimisering: versleutel gegevens voor u ze deelt met LLM’s om ze te beschermen tegen nieuwsgierigen, en/of overweeg technieken voor anonimisering om de privacy te beschermen van personen die in datasets kunnen geïdentificeerd worden. Met het opschonen van gegevens kan hetzelfde doel bereikt worden en ook door gevoelige details uit trainingsgegevens te verwijderen voor ze in het model ingevoerd worden.
· Verbeterde toegangscontroles: sterke wachtwoorden, multifactorauthenticatie (MFA) en beleid van de minste privileges zorgen ervoor dat enkel geautoriseerde personen toegang hebben tot het generatieve AI-model en back-end systemen.
· Regelmatige beveiligingsaudits: helpen kwetsbaarheden die van invloed kunnen zijn op de LLM en de generatieve AI-modellen waarop ze zijn gebouwd in IT-systemen bloot te leggen.
· Incidentresponsplannen uitvoeren: een goed ingeoefend en solide IR-plan zal organisaties helpen snel te reageren om eventuele inbreuken te beperken, te verhelpen en te herstellen.
· LLM-providers grondig doorlichten: zoals voor elke leverancier is het belangrijk dat de provider die de LLM levert, de beste praktijken uit de sector volgt inzake data security en privacy. Zorg dat er duidelijke openheid is over waar gebruikersgegevens worden bewaard. Worden ze gedeeld met derden? Kan men zich aan- of afmelden voor het gebruik van gegevens voor het trainen van modellen?
· Zorg dat ontwikkelaars strikte beveiligingsrichtlijnen volgen: gebruiken uw ontwikkelaars LLM’s om code te creëren, zorg er dan voor dat ze zich aan het beleid houden, zoals peer review en beveiligingstesten, om het risico dat bugs in de productie terechtkomen te reduceren.
Het goede nieuws: het is niet nodig om het wiel opnieuw uit te vinden. De meeste van bovenstaande tips zijn beproefde beveiligingstips. Ze moeten misschien worden bijgewerkt/aangepast voor de AI-wereld, maar de onderliggende logica zou voor de meeste beveiligingsteams bekend moeten zijn.
BIJKOMENDE LECTUUR: A Bard’s Tale – how fake AI bots try to install malware