De roep om strenge, bindende regels tegen misbruik van kunstmatige intelligentie klinkt nu luider dan ooit. Meer dan 200 prominente figuren – van politici en wetenschappers tot opinieleiders, met maar liefst 10 Nobelprijswinnaars in hun midden – hebben een dringende waarschuwing afgegeven.
Ze vrezen dat de huidige vaart in
AI-ontwikkeling leidt tot ongekende gevaren, en ze willen dat landen tegen eind 2026 een internationale afspraak maken over duidelijke, controleerbare grenzen.
De lancering: Een keerpunt op het VN-podium
De verklaring, getiteld Global Call for AI Red Lines, werd maandag
onthuld tijdens de opening van de High-Level Week van de Algemene Vergadering van de
Verenigde Naties in New York. Het is een wake-upcall voor de wereldleiders. De ondertekenaars stellen:
"De huidige koers van AI brengt risico's met zich mee die we niet kunnen negeren."
Ze pleiten voor een wereldwijd akkoord dat universeel onaanvaardbare toepassingen van AI verbiedt, zoals dodelijke autonome wapens of zelfvermeerderende systemen.
De onthulling kwam van Nobelprijswinnares Maria Ressa, de Filipijnse journaliste die eerder de Vredesprijs won voor haar strijd tegen desinformatie. In haar toespraak maande ze regeringen om snel te handelen:
"We moeten vaststellen wat AI absoluut nooit mag doen, om rampen te voorkomen die we niet meer kunnen terugdraaien."
Onder de bijna 70 ondersteunende organisaties zitten gerenommeerde namen als de Britse denktank Demos en het Beijing Institute of AI Safety and Governance.
De coördinatie ligt bij drie non-profits: het Center for Human-Compatible AI van de University of California Berkeley, The Future Society en het Franse Center for AI Safety.
Sterke namen duwen de kar
De lijst met ondertekenaars leest als een who's who van intellectueel gewicht. Denk aan Nobelprijswinnaars in scheikunde, economie, vrede en natuurkunde.
Auteurs als Stephen Fry en Yuval Noah Harari zetten hun handtekening, net als ex-presidenten Mary Robinson van Ierland en Juan Manuel Santos van Colombia – die laatste ook Nobelwinnaar.
En dan de AI-pioniers: Geoffrey Hinton en Yoshua Bengio, bij het grote publiek bekend als de 'peetvaders van AI' en winnaars van de Turing Award, de hoogste eer in de computerwetenschap.
Yuval Noah Harari, de historicus achter bestsellers als Sapiens, noemt het een cruciaal moment:
"We moeten nu rode lijnen trekken, voordat AI onze samenleving onherkenbaar verandert en de kern van onze menselijkheid aantast."
Ahmet Üzümcü, voormalig baas van de Organisatie voor het Verbod op Chemische Wapens (en mede-Nobelwinnaar in 2013), voegt toe:
"Het is in ons gezamenlijke belang om te voorkomen dat AI onherstelbare schade aanricht aan de mensheid. We moeten nu optreden."
Van waarschuwingen naar actie: Verleden en heden
Dit is geen eerste keer dat de alarmbel luidt. In maart 2023 riepen meer dan duizend tech-leiders, inclusief Elon Musk, op tot een pauze in de ontwikkeling van geavanceerde AI.
Een paar maanden later volgde een statement van AI-topmannen als Sam Altman van OpenAI en Demis Hassabis van Google DeepMind, die AI-risico's vergeleken met nucleaire oorlogen of pandemieën. Maar die waren vaak vrijwillig en niet-bindend.
Nu gaat het om harde grenzen, geïnspireerd op succesvolle verdragen zoals het Montreal Protocol tegen ozonafbrekende stoffen of het VN-verbod op menselijke kloning.
Bedrijven als OpenAI en Anthropic beloofden recent meer veiligheid, zoals overheidschecks op nieuwe modellen, maar onderzoek toont aan dat ze slechts de helft van hun toezeggingen waarmaken. Ressa benadrukt:
"We kunnen niet wachten tot het te laat is. AI gaat sneller dan we kunnen bijbenen."
De donkere kant: Van dagelijks gevaar tot existentiële dreiging
AI zit al in het nieuws om akelige verhalen: vorige week nog linkten experts een tienerzelfmoord aan chatbots, en er zijn meldingen van manipulatie in het publieke debat via deepfakes.
De ondertekenaars waarschuwen dat dit slechts het topje van de ijsberg is. Zonder ingrijpen lonken grotere rampen: massale werkloosheid door automatisering, kunstmatig aangestuurde pandemieën of grootschalige schendingen van mensenrechten.
Specifieke 'rode lijnen' op de verlanglijst? Het verbieden van AI in nucleaire beslissingen, massasurveillance of wapens die zelfstandig doden. En zorg dat systemen niet zichzelf kunnen vermenigvuldigen, wat experts vrezen al in 2027 mogelijk is.
Europese parlementariërs sluiten zich nu aan, en de oproep krijgt bijval van fora als de G7 en UNESCO, die al pleiten voor verboden op sociale scoring en terreurbevorderende AI.
Wat betekent dit voor de toekomst?
Deze Global Call for AI Red Lines is een signaal dat de discussie verschuift van waarschuwingen naar verdragen. Het herinnert aan succesverhalen zoals het Verdrag inzake de Hoge Zeeën van dit jaar, dat internationale samenwerking mogelijk maakte.
Maar critici wijzen op de uitdaging: hoe controleer je dit globaal, als landen als de VS en China al eigen regels smeden? En met AI-bedrijven die miljarden pompen in versnelling, zoals NVIDIA's 100 miljard dollar-investering, is het een race tegen de klok.
De vraag is: luisteren de wereldleiders? Of laten we AI los zonder remmen? Wat denk jij – moeten we harder op de rem trappen, of is dit overdreven angst? Deel je mening in de comments!