
AI-bedrijven krijgen veel kritiek, omdat hun chatbots kwetsbare gebruikers richting suïcide zouden praten. In China wordt er nu actie ondernomen.
In een nieuw voorstel van de Cyberspace Administration staat dat AI-chatbots beperkt moeten worden bij het beïnvloeden van menselijke emoties, op manieren die tot suïcide of zelfbeschadiging kunnen leiden.
De nieuwe regels zouden gelden voor alle AI-producten die in China publiekelijk beschikbaar zijn, waarin menselijke persoonlijkheid wordt gesimuleerd. Het is wereldwijd de eerste keer dat er regels worden voorgesteld voor AI met menselijke eigenschappen.
Ouders op de hoogte brengen
Specifiek mag AI geen content genereren dat suïcide en zelfbeschadiging aanmoedigt, of via emotionele manipulatie de mentale gezondheid van gebruikers beschadigen. Ook moet een mens het gesprek overnemen als een gebruiker over zelfmoord praat, en moet een ouder of voogd op de hoogte worden gebracht als het om een kind gaat.
Ook zouden AI-chatbots geen content meer moeten kunnen genereren rond gokken of geweld. Daarnaast staat in het voorstel dat gebruikers na twee uur lang chatten met een chatbot een waarschuwing moeten krijgen.
Kamp je met psychische klachten? Neem dan contact op met MIND via 0900-1450. Denk je aan zelfdoding, dan kun je -eventueel anoniem- bellen met 113 via 0800-0113.
Lees meer over AI, of blijf op de hoogte via de Bright Nieuwsbrief.