Een handvol grote ondernemingen zetten de implementatie van Microsoft Copilot stop vanwege zorgen over databeveiliging en governance. Of hoe de recente ai-toepassing van Microsoft conflicteert met de complexiteit van it-omgevingen en rechtenbeheer.
Het lijkt de kanarie in de koolmijn, want het gaat om een kleine steekproef. Meer precies, volgens een onderzoek van Jack Berkowitz, chief data officer van Securiti, heeft ongeveer de helft van meer dan twintig ondervraagde chief data officers (cdo’s) in New York City besloten om het gebruik van Copilot tijdelijk stil te leggen of aanzienlijk te beperken. Microsoft Copilot wordt gepositioneerd als een hulpmiddel om de productiviteit van gebruikers te verbeteren door gebruik te maken van ai. Maar de architectuur en complexiteit van bestaande it-omgevingen, zoals SharePoint en Office 365, blijkt hierbij een obstakel te vormen. Copilot kan namelijk informatie samenvatten van domeinen waartoe medewerkers technisch gezien toegang hebben, maar die niet altijd voor iedereen beschikbaar zou mogen zijn. Dit kan leiden tot het ongewenst openbaar maken van gevoelige informatie, zoals salarisgegevens.
Toegangsrechten
De oorzaak van de perikelen zit niet zozeer bij Microsoft en Copilot zelf. Berkowitz legt uit aan The Register dat het probleem voornamelijk ontstaat door conflicterende toegangsrechten binnen grote bedrijven die hun systemen over de jaren heen hebben opgebouwd. Berkowitz stelt vast dat, ondanks het potentieel van generatieve-ai-projecten, de zorgen over gegevensbeheer en veiligheid bedrijven ertoe dwingen om voorzichtig om te gaan met toepassingen als Microsoft Copilot. Hoewel de uitdagingen op zich oplosbaar zijn, benadrukt hij dat bedrijven hun gegevensbeheer en beveiligingsmaatregelen vaak eerst moeten verbeteren om de veilige inzet van Copilot te garanderen. De oplossing ligt volgens hem in het verbeteren van observatie en controle over data en gebruikers binnen de systemen. Al is dat voor veel (grote) organisaties een flinke klus.