Ripple CTO uit zijn zorgen over AI na verkeerd advies over giftige paddenstoelen

David Schwartz, de Chief Technology Officer van Ripple, deelde recentelijk een verontrustend verhaal op zijn sociale media dat snel viraal ging. In zijn bericht beschreef hij hoe een gezin in het ziekenhuis belandde na het eten van giftige paddenstoelen, die ze hadden geïdentificeerd met behulp van een boek dat door AI was gegenereerd.

Volgens de Reddit-post gebruikte het gezin een paddenstoelengids die ze bij een populaire winkel hadden gekocht. De post stelde dat het boek afbeeldingen en teksten bevatte die door AI waren gegenereerd om de paddenstoelen te identificeren, maar dat ze allemaal giftig waren. Het gezin consumeerde de paddenstoelen met behulp van het boek dat door AI was geschreven, en ze werden allemaal in het ziekenhuis opgenomen. Dit incident roept ernstige vragen op over de betrouwbaarheid van AI-geproduceerde inhoud.

Ripple CTO trekt parallellen met historische rechtszaak

In de post werd ook vermeld dat niet alleen AI-afbeeldingen in het boek stonden, maar ook chatbot-antwoorden in de tekst van het boek, wat suggereert dat er geen menselijke hand aan te pas is gekomen. Hoewel de winkelier blijkbaar een terugbetaling voor het boek heeft verstrekt, heeft het incident mensen aan het denken gezet over de mogelijkheid dat er meer boeken van lage kwaliteit, geschreven door AI, te koop zijn.

Schwartz trok in zijn post een parallel met een bekende rechtszaak uit de jaren ’90, Winter v. G.P. Putnam’s Sons. In deze zaak werd een uitgever aangeklaagd nadat een stel bijna hun leven verloor door foutieve informatie in een paddenstoelengids. Ondanks de ernstige gevolgen oordeelde de rechtbank destijds in het voordeel van de uitgever.

Gidsen voor identificatie onder de loep vanwege AI-gebruik

De CTO van Ripple uitte ook kritiek op Quora, een populaire vraag-en-antwoord website, vanwege het gebruik van AI om vragen te genereren. Dit is niet de eerste keer dat de Ripple CTO kritiek uit op deze website en het gebruik van AI daarbij. Hij noemde deze vragen “AI-gegenereerde rommel” en waarschuwde voor de gevaren van het blindelings vertrouwen op AI voor informatievoorziening.

Dit verhaal onderstreept het belang van kritische evaluatie van door AI gegenereerde inhoud en de noodzaak om na te denken over de implicaties van het gebruik van dergelijke technologieën, vooral als het gaat om kwesties die de gezondheid en veiligheid van mensen beïnvloeden.