Weinig bedrijven zijn volledig voorbereid op massaal gebruik van generatieve ai. Ze weten nog niet goed raad met de gevaren die aan deze technologie zijn verbonden. Wel bestaat nu enig inzicht in de vraag wat bedrijven als de grootste risico’s zien.
McKinsey, Insight/Harris Poll, Dataiku/Databricks en Accenture publiceerden onlangs de resultaten van internationale onderzoeken onder managers over de adoptie van ai. Ook de keerzijden van deze technologie kwamen daarbij aan de orde.
Uit de McKinsey-enquête blijkt dat bedrijven met name bezorgd zijn over de onnauwkeurigheid bij generatieve ai. Ai kan de plank volledig misslaan. Soms rollen er rare resultaten uit. 56 procent acht dit risico relevant, terwijl 32 procent hier iets aan probeert te doen. Volgens het Accenture-onderzoek heeft 43 procent van de topmanagers gebrek aan vertrouwen in de uitkomsten van generative ai in hun top-3 van risico’s staan.
Het McKinsey-onderzoek leert dat ook de cybersecurity een extra punt van zorg (53 procent) is, nu ai opkomt. Relatief vaak worden daar maatregelen (38 procent) voor genomen. Andere veelgenoemde risico’s zijn schending van intellectueel eigendomsrecht, problemen met de regelgeving, uitlegbaarheid en privacy.
Volgens McKinsey zijn bedrijven zich over het algemeen best wel bewust van de gevaren. Maar het is nog een hele uitdaging deze risico’s te beteugelen. Iets meer dan twintig procent heeft hiervoor beleidsmaatregelen genomen. Meestal gaat het dan om de bescherming van vertrouwelijke informatie in het eigen bedrijf. Maar vaak wordt toch nog te nauw gekeken naar de risico’s. De gevaren strekken zich over een breed vlak uit. Denk aan maatschappelijke, humanitaire en milieu-risico’s.
Meer regulering
Uit het onderzoek van de softwarebedrijven Dataiku/Databricks blijkt dat meer dan de helft van de respondenten meer regulering wenst. Voor de ai-pioniers die als eersten met ai ervaring hebben opgedaan, dringen hierop aan. 55 procent is meer bezorgd dan enthousiast over de toekomst van ai. De opkomst van generatieve ai brengt onzekerheid met zich mee. Strengere regels en steviger bedrijfsbeleid voor ‘responsible ai’ zijn nodig.
Ict-dienstverlener Insight liet onderzoeken welke zorgen leven rond de implementatie van generative ai. Vooral de veiligheid houdt bestuurders wakker. Het grootste gevaar zit in externe ai-gegenereerde content. Denk aan misinformatie, deep fakes en phishing-zwendel. Niet alleen de eigen werknemers maar ook bijvoorbeeld werknemers en investeerders kunnen daar het slachtoffer van worden.
Bijna evenveel zorg baren hackers die interne generatieve ai-oplossingen infiltreren om toegang te krijgen tot bedrijfsdata en intellectueel eigendom. Leiders zijn zich ook bewust van de risico’s van binnen de organisatie, zoals een onbedoeld datalek als gevolg van onbedoelde fouten van werknemers.
Ruim driekwart (77 procent) van de Nederlandse leidinggevenden die aan het onderzoek deelnamen, zegt dat hun bedrijf al interne generatieve ai-beleidslijnen heeft vastgesteld of momenteel ontwikkelt. Zo’n beleid beschrijft hoe een organisatie generative ai op een verantwoorde en veilige manier zal gebruiken.
Generatieve ai
Generatieve ai is een vorm van kunstmatige intelligentie waarmee iemand automatisch teksten, afbeeldingen, audio en andere content kan genereren. Er zijn steeds meer programma’s en online tools die gebruikmaken van deze vorm van kunstmatige intelligentie.
Wie aan zo’n tool een goede opdracht geeft, krijgt meestal een bruikbaar en vaak verrassend goed resultaat.
Bron: Kennisnet