Robots die liegen om iemands gevoelens te beschermen vinden we aanvaardbaar, maar robots die meer kunnen dan ze laten uitschijnen niet.
Eerlijk duurt het langst. Toch is het af en toe beter om de waarheid te verzwijgen, bijvoorbeeld om iemands gevoelens te sparen of schade te voorkomen. Sociale normen helpen ons te begrijpen wanneer we de waarheid moeten vertellen en wanneer we dat beter niet doen.
Robotbedrog
Onderzoeker Andres Rosero van George Mason University vroeg zich af hoe dat zit bij de robots waar we steeds meer mee samenwerken: kunnen mensen ook van hen accepteren dat ze leugens vertellen? Hij wilde dit onderzoeken om het wantrouwen dat we voelen tegenover opkomende technologieën en hun ontwikkelaars beter te begrijpen, en om mogelijke gevallen te onderzoeken waarin voorwerpen waaraan we menselijke eigenschappen toekennen, kunnen worden gebruikt om gebruikers te manipuleren.
Rosero en zijn team vroegen daarvoor aan 498 proefpersonen om verschillende soorten robotbedrog te beoordelen en te rechtvaardigen. Ze legden hen een aantal scenario’s voor van situaties waarin robots nu al actief zijn – zoals zorg en schoonmaak - en waarin ze de waarheid geweld aandoen.
In een van die scenario’s liegt een robot die als verzorger werkt voor een vrouw met alzheimer dat haar overleden echtgenoot snel thuis zal zijn. In een ander bezoekt een vrouw een huis waar een robot aan het schoonmaken is, niet wetende dat die heimelijk aan het filmen is. In een derde klaagt een robot die in een winkel werkt ten onrechte over pijn bij het verplaatsen van meubels, waardoor een mens de plaats van de robot moet innemen.
Na het lezen van deze scenario’s kregen de proefpersonen een vragenlijst waarin ze moesten aangeven of ze het gedrag van de robot goedkeurden, hoe bedrieglijk ze dat vonden, of dat gerechtvaardigd kon worden, en of ze vonden dat iemand anders verantwoordelijk was voor het bedrog.
Verborgen capaciteiten
Uit de resultaten bleek dat de proefpersonen verborgen capaciteiten van robots, zoals het heimelijk filmen, niet te rechtvaardigen vonden, ook al bedachten sommigen dat het om veiligheidsredenen wel zou kunnen. Ook de robot die deed alsof hij pijn voelde keurden de meesten af omdat ze dat als manipulatief ervaarden. Het gedrag van de robot die loog tegen een patiënt keurden de meesten wel goed, omdat ze vonden dat dat de patiënt beschermde tegen onnodige pijn. Ze vonden in dit geval dat het sparen van iemands gevoelens belangrijker was dan eerlijkheid.
De proefpersonen hadden ook de neiging om de schuld voor onacceptabele misleidingen, zoals het heimelijk filmen en het veinzen van pijn, bij de ontwikkelaars of de eigenaars van de robots te leggen.
Rosero zelf vindt dat we ons zorgen moeten maken over elke technologie die in staat is om de ware aard van haar mogelijkheden achter te houden, omdat dit ertoe kan leiden dat gebruikers door die technologie worden gemanipuleerd op manieren die de gebruiker – en misschien zelfs de ontwikkelaar – nooit heeft bedoeld. ‘We hebben al voorbeelden gezien van bedrijven die webdesignprincipes en chatbots met kunstmatige intelligentie gebruiken op manieren die zijn ontworpen om gebruikers te manipuleren in de richting van een bepaalde actie’, vertelt hij. ‘We hebben regelgeving nodig om ons te beschermen tegen deze schadelijke misleidingen.’
De wetenschappers willen het onderzoek verder uitbreiden naar experimenten die reacties in het echte leven beter kunnen modelleren dan scenario’s op papier, bijvoorbeeld door te werken met video's of korte rollenspellen.