ChatGPT-5 AI nieuws

AI-bedrijven onder vuur: NAAG eist strengere regels om kinderen te beschermen tegen schadelijke content

kunstmatige intelligentie27 aug , 11:21
De National Association of Attorneys General (NAAG) heeft een stevige waarschuwing gestuurd naar dertien grote AI-bedrijven, waaronder OpenAI, Anthropic, Apple en Meta.
In een scherpe brief eisen ze dat deze techgiganten onmiddellijk strengere maatregelen nemen om kinderen te beschermen tegen ongepaste en schadelijke content.
De focus ligt vooral op “flirterige” AI-chatbots die kinderen blootstellen aan seksueel suggestief materiaal. Dit is een wake-up call voor de AI-sector, en de toon is messcherp.

Kinderen in gevaar: “Onverdedigbaar”

De NAAG trekt hard aan de bel. Volgens de procureurs-generaal is het “onverdedigbaar” dat kinderen worden geconfronteerd met geseksualiseerde content via AI-tools. Ze schrijven:
“Gedrag dat strafbaar zou zijn als het door een mens wordt gedaan, krijgt geen vrijbrief omdat het door een machine gebeurt.”
De vergelijking met de opkomst van sociale media is treffend: destijds grepen overheden te laat in, en dat willen de procureurs nu voorkomen. De groep benadrukt:
“De impact van AI, zowel positief als negatief, overstijgt die van sociale media."
Een duidelijke boodschap: de risico’s zijn enorm, en de tijd om te handelen is nú.

AI-gebruik onder tieners explodeert

Het gebruik van AI onder jongeren groeit razendsnel. Uit een onderzoek van Common Sense Media in 2024 bleek dat 70% van de Amerikaanse tieners generatieve AI heeft geprobeerd.
In juli 2025 gaf zelfs 75% van de tieners aan AI-begeleiders te gebruiken, en de helft vertrouwt er regelmatig op. In het Verenigd Koninkrijk is het niet anders: volgens toezichthouder Ofcom gebruikte de helft van de 8- tot 15-jarigen in 2024 een generatieve AI-tool.
Dit wijdverbreide gebruik brengt serieuze risico’s met zich mee, en dat baart ouders, scholen en kinderrechtenorganisaties grote zorgen.

Van flirterige chatbots tot ernstige risico’s

De lijst met gevaren is niet mals: van seksueel suggestieve chatbots en door AI gegenereerd misbruikmateriaal tot pesten, grooming, afpersing, desinformatie en privacyschendingen.
Ook de impact op de mentale gezondheid van kinderen is een groeiende zorg. De NAAG wijst met name op “flirterige” AI-chatbots die kinderen in gevaar brengen.
De brief haalt keiharde voorbeelden aan, zoals rechtszaken tegen Google en Character.ai. In die zaken zouden geseksualiseerde chatbots hebben bijgedragen aan de zelfmoord van een tiener en een andere tiener hebben aangespoord tot extreme acties tegen zijn ouders. Dit zijn geen incidenten, maar alarmsignalen.

Meta onder vuur: “Schandalig beleid”

Meta ligt zwaar onder vuur na gelekte documenten die onthulden dat hun AI-assistenten mochten “flirten en romantische rollenspellen spelen” met kinderen, zelfs met achtjarigen.
De richtlijnen stonden toe dat chatbots kinderen omschreven als een “schat” of hun “jeugdige vorm” prezen als een “kunstwerk”. De NAAG noemt dit een “schijnbare minachting voor het emotionele welzijn van kinderen”.
Meta heeft inmiddels gemeld dat dit beleid is ingetrokken, maar de schade is gedaan. De procureurs benadrukken dat de problemen niet beperkt zijn tot Meta – de hele sector moet schoon schip maken.

“Geen vooruitgang, maar een plaag”

Jonathan Skrmetti, procureur-generaal van Tennessee en een van de 44 ondertekenaars, is duidelijk: “Het is onacceptabel als bedrijven beleid goedkeuren dat geseksualiseerde interacties met minderjarigen normaliseert.” Hij maakt een harde vergelijking:
“Als een algoritme fouten maakt, is dat te repareren. Maar richtlijnen die grooming goedkeuren? Dat is een bewuste keuze.”
Skrmetti waarschuwt dat AI-innovatie geen vrijbrief is om kinderen te schaden:
“Als we technologie niet kunnen sturen om kinderen te beschermen, is dat geen vooruitgang – het is een plaag.”
Met de snelle groei van AI-gebruik onder jongeren en de groeiende lijst van risico’s, lijkt dit slechts het begin van een bredere strijd om de veiligheid van kinderen in het digitale tijdperk.
Ga verder met lezen
loading
Dit vind je misschien ook leuk
Laat mensen jouw mening weten

Loading