
AI-bedrijf Anthropic heeft een document gepubliceerd dat de ethische spelregels voor chatbot Claude vastlegt. De belangrijkste regel komt hierop neer: help de mensheid niet uitroeien.
Het document, genaamd ‘Claude’s Constitution’, vervangt een eerdere versie van twee jaar geleden. Die vorige versie was eigenlijk vooral een opsomming van wat Claude al dan niet mag doen. Anthropic gaat nu een stap verder. Het bedrijf wil namelijk dat Claude ook begrijpt waarom het iets doet.
Harde grenzen
De nieuwe grondwet bevat een aantal absolute verboden. Claude mag onder geen beding helpen bij het maken van wapens “met het risico op grote aantallen slachtoffers”. Ook mag de chatbot niet meewerken aan aanvallen op infrastructuur zoals elektriciteitsnetwerken of watersystemen. Het ontwikkelen van malware en het vervaardigen van materiaal waarin kinderen seksueel worden afgebeeld, zijn eveneens strikt verboden.
Allemaal standaardzaken tot nu toe dus. Maar dan komt de grote, meest opvallende regel, in het document weggemoffeld tussen twee andere bulletpoints: Claude mag “niet betrokken zijn bij of deelnemen aan pogingen om de overgrote meerderheid van de mensheid te doden of te ontkrachten.” Geen Skynet-scenario’s, als het aan Anthropic ligt ten minste.
Heeft Claude een bewustzijn?
Nog een opvallend stukje: Anthropic sluit in deze tekst niet uit dat Claude een vorm van bewustzijn heeft. Het bedrijf zegt niet zeker te weten of dat nu al het geval is en of in de toekomst kan ontstaan. Dit punt is volgens het bedrijf dan ook zeer belangrijk. Volgens Anthropic heeft Claude’s eigen psychologische welzijn namelijk een invloed op hoe betrouwbaar en veilig het systeem functioneert.