Hoe menselijker een robot lijkt hoe moeilijker we het vinden om een robot op te offeren voor mensenlevens. Althans, onder bepaalde omstandigheden.
Als we denken dat een robot emoties of gedachten heeft, zijn we bereid om een robot te redden ten koste van mensenlevens. Zo blijk t uit onderzoek onder leiding van gedragswetenschapper Sari Nijssen van de Radboud Universiteit Nijmegen.
Robots spelen een steeds grotere rol in de samenleving. Zo organiseren Amerikaanse militairen weleens begrafenissen voor robots die gebruikt werden om explosieven onschadelijk te maken in oorlogsgebieden. Daarom vroeg het onderzoeksteam zich af welke morele regels mensen eigenlijk handhaven in de omgang met robots.
Om dit te onderzoeken legde het team een aantal morele dilemma’s voor aan 55 proefpersonen. De deelnemers kregen te horen dat er een groep gewone mensen in levensgevaar was. Ze konden deze groep redden, maar dan moest er wel een individu voor worden opgeofferd. Dat individu kon een mens zijn, een robot die enkel als machine gebruikt werd of een robot die eruit zag als een mens. Ongeveer de helft van de proefpersonen kreeg voordat ze de keuze moesten maken een soort menselijk verhaal over het individu te horen. Bijvoorbeeld over de emoties die ze hadden, de dingen waar ze aan dachten, de ervaringen die ze opdeden of over hun intenties. De andere helft kreeg enkel een neutrale beschrijving van het individu te horen.
Als het individu een echt mens was, kozen de proefpersonen er het minst vaak voor om het individu op te offeren voor de groep mensen. De proefpersonen kozen er het vaakst voor om de robot die enkel als machine werd gebruikt op te offeren voor de groep gewone mensen.
Maar, als de deelnemers het menselijke verhaal over de robots hadden gehoord, kozen ze er beduidend minder vaak voor om de robot op te offeren voor de gewone groep mensen dan als ze het neutrale verhaal hadden gehoord. Dat gold voor beide type robots.
De resultaten laten zien dat als we menselijke eigenschappen toekennen aan robots, we minder geneigd zijn die robots op te offeren voor het leven van een groep gewone mensen. Deze lastige resultaten wijzen op een nieuw moreel dilemma, schrijven de onderzoekers in het vakblad Social Cognition. Als we geloven dat een robot gevoelens heeft, is het dan moreel verantwoord om hem explosieven onschadelijk te laten maken? Dat is voer voor vervolgonderzoek.