Hoe geweldig nieuwe technologie ook is, veel ontwikkelingen brengen risico’s met zich mee. Daar is de opmars van generatieve ai, zoals ChatGPT, geen uitzondering op. Gelukkig kan je open ai-modellen ook op een veilige manier inzetten.
Onlangs kwam een internationaal onderzoeksteam met opvallend nieuws uit de medische wereld. Ze hebben een manier gevonden om Alzheimer in een vroeg stadium te herkennen en kunnen de ziekte dankzij die snelle diagnose aanzienlijk vertragen. De ontdekking is het werk van een ai-model dat via het netvlies in het oog een symptoom wist te detecteren dat zo goed als zeker op Alzheimer wijst.
Voor de medische wetenschap is dit niet het eerste voorbeeld van een doorbraak die met behulp van ai is gerealiseerd. Terwijl menselijke onderzoekers naar een speld in een hooiberg zoeken en haast per toeval op zo’n ontdekking moeten stuiten, kan een ai-model gericht op zoek gaan naar patronen.
Speeltuin
Generatieve ai is de volgende stap in de ai-ontwikkeling. Net zoals andere modellen kan de technologie ons helpen om dingen te identificeren die we zelf niet zien. Het grootste verschil is dat we nu over ‘open’ in plaats van ‘gesloten’ ai spreken. Terwijl het Alzheimermodel toegang had tot een begrensd data-lake met enkel informatie die het mocht zien – in dit geval duizenden foto’s van ogen – is de speeltuin van open ai-modellen een pak groter: internet. De tools gebruiken alle info die ze kunnen vinden, ook als die input onwaarheden vertoont.
Veel gebruikers van toepassingen zoals ChatGPT stellen zich nog te weinig vragen over de manier waarop de technologie werkt. En dus moet het wel een paar keer grondig misgaan. Een van de opvallendste bloopers staat op naam van een Amerikaans advocatenkantoor dat met ChatGPT aan de slag was gegaan om een zaak voor te bereiden. Tijdens het proces gebruikten ze referenties die ai gegenereerd had en bijgevolg niet op feitelijk bewijsmateriaal gebaseerd waren. Toen de rechter ontdekte dat de input verzonnen was, werden de advocaten veroordeeld tot het betalen van een boete.
Thesis
Intussen heeft generatieve ai de weg gevonden naar scholen en bedrijven. Dat studenten hun thesis schrijven met hulp van ChatGPT, hoeft geen probleem te zijn. Zolang de tool enkel als bron van inspiratie dient, biedt de technologie een geweldig platform om onze kennis te verruimen. ChatGPT kan in een enorm data-lake in één seconde een hoeveelheid informatie analyseren waarvoor studenten normaal duizenden tot miljoenen boeken zouden moeten lezen. Zolang je er verstandig mee omgaat, is generatieve ai een hulpmiddel dat ons leven eenvoudiger maakt.
Riskanter wordt het wanneer we zelf data met een ai-model gaan delen. Wie na een directievergadering een aantal actiepunten wil definiëren, moet in principe enkel even het verslag van de meeting door ChatGPT halen om een handig lijstje met een tiental bulletpoints te genereren. Alleen bestaat dan het risico dat de input (het verslag van de vergadering) gevoelige info over het bedrijf bevat en je die gegevens aan een open, ongecontroleerd intelligentiemodel aan het voeden bent. Het model zal jouw bedrijfsdata gebruiken om te groeien en slimmer te worden, zodat het vragen van andere gebruikers beter kan beantwoorden. Bovendien zijn ook cybercriminelen zich aan het specialiseren in het schrijven van prompts om dit soort informatie te ontfutselen …
Uit cijfers van Netskope AI Labs blijkt dat het gebruik van ChatGPT in een bedrijfscontext maand-op-maand met gemiddeld een kwart toeneemt en dat één op honderd werknemers de tool dagelijks gebruikt. Daarnaast zien we ook dat één organisatie op tien generatieve ai-applicaties blokkeert. Als je de risico’s kent, is dat natuurlijk niet onbegrijpelijk. Maar zo grijpen deze bedrijven ook naast alle voordelen.
Tips
Er is geen weg terug. Generatieve AI zal zich in de komende maanden en jaren verder ontwikkelen en wie er niet in meegaat, kan een serieuze achterstand op de concurrentie oplopen. Natuurlijk moet de veiligheid van onze data altijd op de eerste plaats komen. Gebruik de technologie daarom met mate, zonder de voordelen voor je business in de weg te staan. Om de evolutie van ai te kunnen volgen, moet de beschermingsrand van je data mee evolueren. En dat kan je niet blijven opvangen met legacy-oplossingen. Werknemers hebben vangrails nodig om generatieve ai gecontroleerd te gebruiken.
Gelukkig kan technologie ook hierbij helpen. Bijvoorbeeld door ai-programma’s te herkennen en mensen bij het openen bewust te maken van de open omgeving die ze betreden en waarin ze op een verantwoorde manier met data moeten omgaan. Ook tijdens het gebruik van het ai-model kan technologie ingrijpen wanneer gebruikers toch op het punt staan om gevoelige informatie te delen, zoals bijvoorbeeld broncode die ze met ChatGPT willen optimaliseren. Op die manier hoef je generatieve ai-applicaties dus niet te verbieden, maar kan je het gebruik gedeeltelijk toelaten binnen veilige krijtlijnen die voorkomen dat data je goed beveiligde, virtuele bedrijfsmuren verlaten.
Wie meer wil weten over deze technologie, kijkt hier.