Verenigde Naties pleiten voor striktere AI-regelgeving

De Verenigde Naties (VN) hebben zojuist zeven aanbevelingen uitgebracht om de risico’s van kunstmatige intelligentie (AI) te verminderen, gebaseerd op input van een adviesorgaan. Het eindrapport van deze raad benadrukt het belang van een geharmoniseerde aanpak voor de regulering van AI en zal later deze maand worden besproken bij een VN-bijeenkomst.

Wereldwijde AI-regulering is noodzakelijk

Het adviesorgaan, bestaande uit 39 experts, wees erop dat grote multinationals de ontwikkeling van AI domineren door het hoge groeitempo, wat een groot punt van zorg is. De raad benadrukte dat de wereldwijde regulering van AI zowel noodzakelijk als onvermijdelijk is, omdat de creatie en het gebruik van AI niet alleen overgelaten kan worden aan de markt.

Om het gebrek aan transparantie tussen AI-laboratoria en de rest van de wereld aan te pakken, stelt het rapport voor om een onafhankelijk panel op te richten dat betrouwbare informatie over AI verspreidt. Verder wordt aanbevolen om een wereldwijd AI-fonds te creëren om de kloof in capaciteit en samenwerking te dichten, vooral voor ontwikkelingslanden die niet de middelen hebben om AI te gebruiken.

Oproep tot samenwerking en dialoog

Het rapport bevat ook richtlijnen voor de oprichting van een wereldwijd AI-dataraamwerk dat transparantie en verantwoordelijkheid bevordert. Een beleidsdialoog is noodzakelijk om alle kwesties met betrekking tot AI-regulering aan te pakken. Hoewel het rapport geen nieuw internationaal orgaan voorstelt, wordt wel aangegeven dat bij toenemende risico’s een krachtiger orgaan met handhavingsbevoegdheden nodig kan zijn.

Dit VN-rapport verschilt van de aanpak in sommige landen, zoals de Verenigde Staten, die onlangs een plan heeft goedgekeurd om AI voor militaire doeleinden te beheren — iets wat China niet heeft ondersteund.

Daarnaast presenteerden Amerikaanse wetgevers op 12 september de NO FAKES Act, wat staat voor “Nurture Originals, Foster Art, and Keep Entertainment Safe.” Het doel van deze wetgeving is om Amerikanen te beschermen tegen misbruik van AI en het aanpakken van de verspreiding van deepfakes die zonder toestemming zijn gemaakt.

Europese oproep tot coherente AI-regulering

In Europa wordt tegelijkertijd gediscussieerd over hoe AI-regulering eruit moet zien. Prominente leiders, waaronder Yann LeCun, Chief AI Scientist bij Meta, en verschillende CEO’s en academici, hebben in een open brief gevraagd om duidelijke richtlijnen die innovatie niet in de weg staan. Ze benadrukken dat de EU de economische voordelen van AI kan benutten, mits de regels het onderzoek en de ethische implementatie niet hinderen.

Een goed voorbeeld van deze spanning tussen innovatie en regelgeving is Meta’s aankondiging dat hun nieuwe AI-model, Llama, niet in de EU wordt uitgebracht vanwege te strikte regelgeving. De open brief pleit voor regelgeving die de ontwikkeling van AI stimuleert, zonder onnodige beperkingen.

OpenAI herstructureert toezicht na kritiek

Tegelijkertijd heeft OpenAI, de organisatie achter ChatGPT, zijn veiligheids- en toezichtstructuur aangepast na kritiek vanuit de politiek en oud-medewerkers. CEO Sam Altman trad af uit de Veiligheids- en Beveiligingscommissie van het bedrijf, die werd opgericht om de veiligheid van AI-technologie te waarborgen. Deze commissie is nu omgevormd tot een onafhankelijke autoriteit die AI-modellen kan tegenhouden totdat de veiligheidsrisico’s zijn opgelost.

In deze nieuwe commissie zitten onder andere Nicole Seligman, voormalig generaal van het Amerikaanse leger Paul Nakasone, en Quora CEO Adam D’Angelo. Hun taak is ervoor te zorgen dat de veiligheidsmaatregelen van OpenAI in lijn blijven met de doelen van het bedrijf. Dit nieuws komt op een moment dat OpenAI wordt beschuldigd van een te sterke focus op winst, in plaats van op de governance van AI.