Het risico dat de mensheid uitsterft door artificial intelligence (ai) is van eenzelfde orde van grootte als die van een kernoorlog. Niet verwarde geesten die de weg kwijt zijn of gekkies, maar een behoorlijk deel van de 'ai-elite' onderschrijft dit gevaar. Ze hopen dat wereldwijde regelgeving dit risico indamt. Indrukwekkend is de lijst van wetenschappers en leiders uit de techwereld die een manifest hiertoe heeft ondertekend van het Center for AI Safety, een gezaghebbende organisatie uit San Francisco die de maatschappelijke risico's van ai wil beperken.
Geoffrey Hinton, Yoshua Bengio en Martin Hellman, alle drie winnaars van een Turing Award – de belangrijkste prijs op gebied van computerwetenschappen – behoren tot de ondertekenaars van het eerste uur. Ook de ceo’s van de voornaamste ai-labs: Sam Altman (OpenAI), Demis Hassabis (Google/Deepmind) en Dario Amodei (Anthropic) zijn van de partij, evenals andere hoge bazen van onder meer Microsoft, OpenAI en Google. Van de Big Tech-bedrijven ontbreekt alleen Meta (Facebook), maar ook Nvidia, het Amerikaanse chip- en softwarebedrijf voor infrastructurele ai-vraagstukken dat in de lift zit, is geen ondertekenaar, voor zover bekend.
De wetenschappers achter bekende ai-systemen zoals AlphaGo en elke versie van GPT (David Silver, Ilya Sutskever) staan eveneens op de lijst. Ook ai-professors van Chinese universiteiten delen de angst voor ai. Hetzelfde geldt voor de auteurs ((Stuart Russell and Peter Norvig) van het standaard leerboek over ai en die (Ian Goodfellow en Yoshua Bengio) van het belangrijkste leerboek over deep learning.
Manifest
België is vertegenwoordigd door onder meer prof. Yves Moreau (KU Leuven) en prof. Aleksandra Pizurica (Universiteit Gent). Uit Nederland hebben Simon Friederich (Rijksuniversiteit Groningen) en Cosimo Della Santina (TU Delft) het manifest ondertekend.
Het Center for AI Safety spreekt van een historische coalitie van ai-experts. Ook prominente filosofen, ethici, juristen, economen, natuurkundigen, politicologen, pandemische wetenschappers, nucleaire wetenschappers en klimaatwetenschappers behoren tot de ondertekenaars.
Eerder dit jaar riep Future of Life.org alle ai-labs op om per direct minimaal zes maanden te pauzeren met het trainen van ai-systemen die krachtiger zijn dan GPT-4. Inmiddels is deze petitie door 32000 mensen ondertekend.