KU Leuven heeft een richtlijn opgesteld die onderzoekers een helder kader geeft voor de omgang met generatieve artificiële intelligentie (ai) zoals ChatGPT. De universiteit is daarmee een voortrekker in Europa. De technologie biedt veel mogelijkheden, maar stelt academici ook voor uitdagingen.
KU Leuven kijkt er met een open vizier naar en wil de technologie binnen een duidelijk en verantwoord kader integreren in onderzoek en onderwijs, met oog voor de mogelijkheden en valkuilen. Bij wetenschappelijk onderzoek kan dit soort ai al bepaalde taken vereenvoudigen en versnellen. Maar er moet op een verantwoorde en kritische manier mee worden omgegaan en betrokkenen moeten zich bewust zijn van de beperkingen en risico’s ervan, stelt de universiteit.
‘Transparantie over het gebruik en de verificatie van de output blijven cruciaal’, zegt vice-rector Onderzoek Jan D’hooge. ‘Een belangrijk aandachtspunt is de omgang met persoonsgegevens of vertrouwelijke informatie uit onderzoeksdata. De veiligheid en vertrouwelijkheid van data die worden ingevoerd op ai-platformen zijn immers niet gegarandeerd.’
De richtlijnen voor onderzoekers wijzen op die aandachtspunten. Een kritische houding tegenover de output én een correcte bronvermelding blijven cruciaal. Het kader voor onderzoekers sluit daarmee aan op dat voor studenten, dat in het licht van de examenperiode werd opgesteld. De richtlijnen voor onderzoekers zijn overigens ook bijzonder belangrijk voor studenten wanneer zij meewerken aan projecten.
ChatGPT
Ook studenten aan KU Leuven kunnen ChatGPT en soortgelijke tools gebruiken bij het maken van opdrachten. KU Leuven ziet het als haar opdracht studenten op te leiden in een verantwoord gebruik van deze toepassingen, die ook razendsnel hun weg vinden naar het werkveld. Duidelijke richtlijnen moeten hen helpen bij een correct gebruik van ai. Ze zijn ook van groot belang met oog op een correct examenverloop, want een juiste inschatting van de competenties van een student blijft centraal staan.
Het artikel 84 van het Onderwijs en Examenreglement liet de universiteit eerder al toe op te treden tegen gebruik van generatieve ai dat een correcte evaluatie zou verhinderen. Maar dat betekent niet dat het gebruik van generatieve ai wordt ontraden. Transparantie en overleg met docenten zijn en blijven essentieel. Meer concreet kan een student generatieve ai wél gebruiken om een zelf geschreven tekst te verbeteren of teksten te herschrijven, zonder inhoud toe te voegen. Of generatieve ai kan dienen als zoekrobot om informatie te verzamelen. Als een docent het expliciet toelaat, mag een student ook een stuk code laten schrijven door generatieve ai. Maar als gegenereerde output letterlijk wordt overgenomen, moet steeds correct de bron worden weergegeven, in de tekst en in de referentielijst.
Raad
‘De belangrijkste raad blijft: overleg met de docent of promotor’, zegt vice-rector Onderwijsbeleid Tine Baelmans. ‘Voor bepaalde opdrachten kan die ook expliciet aangeven dat generatieve-ai-gebruik niet is toegelaten. We hameren er ook op dat studenten kritisch moeten omgaan met de output van generatieve ai. We weten dat de toepassingen soms een loopje nemen met de waarheid.’
Daarnaast zal de universiteit ook toetsen op ongeoorloofd gebruik. Docenten kunnen studenten een extra mondelinge toelichting vragen om te peilen naar hun kennis, of om de totstandkoming van passages te verklaren. Ook de plagiaatsoftware die de universiteit gebruikt evolueert permanent en screent op gebruik van generatieve ai.
‘Deze richtlijnen zijn gebaseerd op de huidige stand van deze technologie, maar we zijn er ons van bewust dat die aan een hoog tempo evolueert. Onze richtlijnen zullen in de toekomst mee evolueren en waar nodig aangepast worden. Met steun van ons KU Leuven Instituut voor Artificiële Intelligentie willen we geleidelijk aan ook naar de mogelijkheden en risico’s op de langere termijn kijken. Maar steeds met een open blik’, besluit rector Luc Sels.
Richtlijnen
– ai-richtlijnen voor studenten
– ai-richtlijnen voor onderzoekers
– ai-richtlijnen voor docenten