
De ontwikkeling van humanoïde robots gaat als de brandweer, maar er zijn anno 2026 nog voldoende problemen waar tegenaan wordt gelopen. Een van de grote vraagstukken die wetenschappers hebben is: hoe krijg je empathie in een robot, zonder dat het doorslaat?
Filipijnse wetenschapper en universitair docent computerwetenschappen Angelica Lim is het antwoord op die vraag aan het onderzoeken. Aan de Simon Fraser Universiteit werkt ze aan robots die niet alleen reageren, maar ook aanvoelen wanneer iets niet werkt of niet gepast is.
Hoewel AI steeds indrukwekkender aan het worden is, schuilt er volgens de wetenschapper wel een groot risico in de huidige generatie. Chatbots en sociale robots zijn vaak overmatig empathisch. Een probleem, zo zegt Lim tegenover CBC: “Zo’n overdosis empathie kan zelfs wanen of psychoses triggeren. Het is absoluut verschrikkelijk.”
Robots die sfeer proeven zijn de oplossing
Lim wil iets fundamenteel anders: robots die onuitgesproken sociale signalen herkennen. Om die reden werkt haar team aan de ontwikkeling van algoritmes die gezichtsuitdrukkingen analyseren en koppelen aan context. Op die manier zou een robot dus een grap kunnen maken, detecteren dat een mens niet lacht en zijn reactie vervolgens aanpassen.
Dat lijkt een kleine stap, maar is groots. De grootste uitdaging in deze zit ‘m namelijk niet in de technologie, maar eigenlijk in de mens zelf. Veel sociale regels zijn intuïtief en niet vastgelegd. “Mensen weten gewoon dingen. Ze weten hoe ze moeten reageren,” zegt Lim. “Niemand heeft die regels ooit opgeschreven. Ons lab probeert uit te zoeken wat die regels eigenlijk zijn.”