Ethiek·technologie

Robots en morele consideratie

In haar gastcolumn ‘help, de robot heeft mensenrechten’ (Volkskrant 2 oktober j.l.) vraagt Antoinette Vlieger op basis waarvan we in de toekomst robots stemrecht en mensenrechten zouden kunnen weigeren. Hoewel Vlieger op die vraag geen inhoudelijk antwoord geeft, is het uiteindelijk angst voor robots die haar doet hopen dat ver voordat robots mensenrechten zouden kunnen claimen ze al zijn uitgerust met kill-switches. De ontwikkeling van robots met eigenschappen waarmee ze voor mensenrechten in aanmerking zouden kunnen komen, ligt echter nog wel heel ver in de toekomst. Het is daarom jammer dat Vlieger qua rechten meteen zo hoog inzet. De ontwikkeling van robots die simpelweg morele consideratie verdienen, is een stuk dichterbij.

Mensenrechten vragen immers nogal wat. Die verdien je niet enkel door uiterlijk op een mens te lijken, zoals de Terminator in de gelijknamige film, maar door op drie niveaus over voldoende capaciteiten te beschikken. Allereerst zullen robots zelfstandige belangen moeten ontwikkelen, dus niet het soort belang dat een auto heeft bij een nieuwe laklaag. De robot moet een doel-in-zichzelf worden, waarmee het goed of slecht kan gaan. Niet goed of slecht voor iemand anders dan de robot, maar de robot zelf. Elk levend organisme op aarde is zo een doel-in-zichzelf; de processen die zich binnen levende organismen afspelen, staan ten dienste van het organisme zelf zoals zich in leven houden en zich voortplanten. Zelfs voor een bacterie kunnen we daarom aangeven wat vanuit zijn perspectief beter of slechter is. Op dit moment ligt wat dat betreft de simpelste bacterie nog voor op de meest geavanceerde machine of computer. Hoewel Skynet misschien een doel-in-zichzelf is, is de Terminator dat alvast niet. Als hij zijn opdracht van Skynet heeft uitgevoerd, zit zijn taak er op. Vanuit zichzelf wil hij niets. Hetzelfde geldt voor de seks- en zorgrobots waarover Vlieger schrijft.

Ten tweede dient het met robots niet alleen goed of slecht te kunnen gaan, ze moeten dat ook kunnen ervaren. Tenminste in de vorm van pijn of geluksensaties, maar als het even meezit bezitten ze verlangens, geheugen en emoties. Voor stemrecht zullen de robots tenslotte zelfstandig hun belangen moeten kunnen uitdrukken. Ze moeten niet alleen een minimaal bewustzijn hebben, maar zelfbewust zijn: een eigen ‘ik’ ervaren. De robots moeten autonoom een eigen oordeel kunnen vormen en kunnen inschatten wat op de korte en lange termijn in hun belang is. Vandaar dat ook niet alle mensen stemrecht hebben, maar er een minimumleeftijd geldt.

Robots met een dergelijke mate van autonomie dat zij zich met volwassen mensen kunnen meten en daarmee in gesprek kunnen, dat is werkelijk verre toekomstmuziek. Maar stemrecht en mensenrechten zijn niet de enige rechten die we robots zouden kunnen toekennen. Er zijn ook veel basalere rechten, zoals het recht om niet louter als middel te worden gebruikt en niet te worden mishandeld. Dieren hebben bijvoorbeeld evenmin mensenrechten, maar dierenmishandeling is bij wet verboden. Veel eenvoudigere robots dan waarop mensenrechten van toepassing zouden zijn, zouden daarom al in aanmerking kunnen komen voor enige vorm van morele consideratie. Vanaf het moment dat robots worden ontwikkeld die niet enkel in dienst staan van mensen, maar een minimale vorm van autonomie hebben zoals voor zichzelf kunnen zorgen en zintuiglijke ervaringen kunnen hebben, wordt het misschien eens tijd om in de wet op te nemen dat niet alles meer met een robot mag worden gedaan. En dat moment zie ik een stuk nader in de toekomst dan een robot die zelfstandig mensenrechten claimt.

Save

Save

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit / Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit / Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit / Bijwerken )

Google+ photo

Je reageert onder je Google+ account. Log uit / Bijwerken )

Verbinden met %s