Gevangen in de Chinese kamer: Over de lichaam-geest problematiek in robots en gerelateerde juridische kwesties

Yussef Al Tamimi, 11 juli 2012

There was a young man who said “Damn!

It is clear to me now that I am

Just a creature that moves

In predestinate grooves,

I’m not even a bus – I’m a tram!”

– Limerick, Anoniem

Inleiding

Terwijl ik deze paper typ, houdt het Amsterdamse technologiemuseum NEMO een grote tentoonstelling genaamd Reis door de Geest. Door interactieve testjes en experimenten wil het museum jonge en oude bezoekers voorzien van een antwoord op vragen als: “Hoe denken we, hoe voelen we en hoe gaan wij met elkaar om? Hoe werkt ons geheugen, waarom worden we verliefd en hoe maken we muziek?”[1]. Volgens het museum is het mogelijk om deze terreinen van de geest in een tentoonstelling te verkennen, omdat de antwoorden zich in de hersenen van de mens bevinden; de geest zit tussen de oren. Een tentoonstelling over de hersenen, is een tentoonstelling over de geest.

Museum NEMO laat geen ruimte voor nuances. Het gaat hier echter om een kwestie die filosofen en vele andere wetenschappers al millennia lang wakker houdt, de zogenaamde lichaam-geest problematiek. Dit probleem houdt zich bezig met de interactie tussen de ogenschijnlijk immateriële mentale verschijnselen van de geest enerzijds en het materiële lichaam anderzijds. Ben ik een lichaam? Of ben ik de geest die een lichaam heeft? Hoe kan een lichaam invloed hebben op de geest? Of andersom, heeft de geest invloed op het lichaam? Als de geest anders is dan het lichaam, waar bestaat deze dan uit?

De vele denkers die trachten deze vragen op te lossen kunnen ruwweg worden ingedeeld in twee grote denkstromingen, het dualisme en het materialisme. De geest wordt over het algemeen aangeduid als het geheel van gedachten, intenties en opvattingen die een persoon kenmerken[2]. Het omvat ons vermogen tot denken, ervaren, afwegen en oordelen, en is datgene wat er in moreel opzicht toe doet. Dualisten veronderstellen dat zowel de geest als het lichaam een afzonderlijk bestaan van elkaar leiden. Mentale toestanden en processen zijn aparte verschijnselen die in beginsel niet-fysiek zijn. Het materialisme, onderdeel van het monisme, stelt daarentegen dat er slechts één object bestaat, namelijk de materie. Zowel de geest als het lichaam is in de ogen van deze stroming materieel.

Tegenwoordig wint deze laatste stroming, het materiële monisme, steeds meer aan aanhang[3]. Na drie eeuwen van ontnuchterende ontwikkelingen in de natuurwetenschappen, lijkt het moment waarop ook de geest kan worden ontleed niet ver te liggen. De geest wordt steeds meer als een lichamelijk onderdeel gezien en in reductionistische termen begrepen. Vooral de aanhoudende neurowetenschappelijke vooruitgangen hebben hieraan bijgedragen. Volgens steeds meer biologen, hersenonderzoekers en psychologen[4] wordt de persoonlijkheid van de mens sterk of geheel gedetermineerd door de compositie van de hersenen. Museum NEMO gaat mee in deze ontwikkeling: de geest stoelt in de hersenen.

Toch blijft de zoektocht naar een onderscheidende faculteit in de mens voortduren. Is er een gedeelte in de mens zo uniek dat de natuurwetenschap er nooit grip op zal hebben? Wat maakt het bewustzijn van de mens zo speciaal? Of is de menselijke geest dan toch niets meer dan een verzameling waarneembare neuronen?

In het licht van deze zoektocht nemen de aanhoudende bouw van robots en de grote recente ontwikkelingen op het gebied van kunstmatige intelligentie een bijzondere rol in. Uit de gelijkstelling van de geest aan de hersenen volgt dat de geest, net als het lichaam, in fysieke termen kan worden verklaard. De uiterst interessante kwestie die zich nu voordoet is de vraag of deze gelijkstelling betekent dat de mens gaandeweg al zijn mentale faculteiten zal kunnen overdragen aan robots. Dat de fysieke gesteldheid van robots gelijk kan worden aan die van de mens, of zelfs zou kunnen overtreffen, lijkt door alle technologische ontwikkelingen immers geen ondenkbaar idee meer. Betekent dit, indien de materialistische stroming het bij het juiste einde heeft, dat robots in de toekomst evengoed een bewustzijn zullen ontwikkelen? Zullen machines ook pijn, vreugde en andere emoties ondervinden? Kan men, of moet men zelfs, in dat geval spreken van robots die net als de mens moreel verantwoordelijk zijn voor hun daden? De bouw van robots en het ontwikkelen van hun intelligentie noodzaakt de mens meer dan ooit om na te denken over de relatie tussen het lichaam en de geest, en de gevolgen die deze interactie heeft voor de rechtspositie van het subject.

In deze paper zullen de meest recente ontwikkelingen in de discussie rondom robots en de geest worden besproken. De vele juridische en ethische kwesties die hierbij komen kijken worden tevens aangehaald. Allereerst wordt kort ingegaan op de uitvoerige literatuur omtrent de lichaam-geest problematiek in robots (hoofdstuk 2). Aan dit onderwerp wordt in de ethiek veel aandacht besteed; het is duidelijk dat deze discussie een geweldig nieuw platform biedt om het veel oudere menselijke lichaam-geest probleem uit te ‘vechten’. Hierna zullen de ethische en juridische implicaties van ontwikkelingen in de kunstmatige intelligentie worden bestudeerd. Dit wordt gedaan in twee stappen. In hoofdstuk 3 worden de regels besproken waaraan de robot zich dient te houden, en of de robot wel moreel verantwoordelijk kan worden gehouden bij het schenden van deze regels. In hoofdstuk 4 wordt aandacht besteed aan de robo-ethiek, ofwel de regels waar de mens zich aan dient te houden bij het ontwerpen, bouwen en gebruikmaken van robots. In hoofdstuk 5 volgt de conclusie.

De geest en de machine

2.1 De fysieke geest

Toen Charles Darwin in 1859 zijn boek On the Origin of Species uitbracht, werd de wetenschappelijke wereld acuut in tweeën gedeeld. Aan de ene kant stonden de wetenschappers die het nieuwe darwinisme toejuichten; eindelijk was iemand erin geslaagd de evolutieleer als een volwaardige theorie neer te zetten. De tweede groep wetenschappers was minder enthousiast. Het was duidelijk dat aanvaarding van de evolutieleer zou leiden tot onherroepelijke veranderingen in het heersende wetenschappelijke mensbeeld. De evolutietheorie gaat ervan uit dat de genen en de hersenen van de mens door miljoenen jaren heen zijn gevormd tot wat ze nu zijn. Door deze biologische geschiedenis te bestuderen, kan ook huidig menselijk gedrag worden verklaard. De genen en hersenen vormen zo een plattegrond van al het menselijke handelen.

Een van de wetenschappers uit de tweede groep, Samuel Butler, maakte zich met name zorgen om de consequenties die de evolutietheorie had voor ons denken over machines[5]. Hij merkte op dat de biologie en de evolutie van de mens alleen nog in mechanische termen worden behandeld. Aangezien machines volgens hem ook een soort ‘mechanisch leven’ leiden, zijn ook zij aan evolutie onderhevig. Hieruit leidde Butler af dat de mogelijkheid bestaat dat machines door evolutie ooit ook zullen beschikken over wat mensen bij zichzelf het ‘intellect’ noemen. Hij was hier zelf niet van gediend en riep zijn tijdsgenoten op tot een oorlog om elke machine te vernietigen.

Butler was zeker niet de eerste die opmerkte dat de mens steeds vaker wordt aangeduid in mechanische termen. De mens wordt al sinds de Klassieke tijd door sommigen beschouwd als een machine, denk aan volgers van het Epicureanisme, zoals Lucretius. Het Franse materialisme dat in de 18e eeuw in Parijs ontstond, stelde ook dat de mens in zijn geheel te verklaren was aan de hand van zijn materiële verschijningsvorm[6]. De evolutieleer scherpte deze ontwikkeling echter wel aan door te stellen dat de mens in veel opzichten het resultaat is van miljoenen jaren aan natuurlijke selectie.

Tegenwoordig, ruim anderhalf eeuw na de publicatie van Darwin’s boek, is het idee dat een immateriële geest invloed uitoefent op ons handelen meer dan ooit in het nauw gedreven. De neurowetenschap heeft zich de afgelopen jaren met rasse schreden ontwikkeld en vele wetenschappers menen inmiddels dat datgene wat ons voorkomt als de geest enkel het resultaat is van complexe interacties tussen synapsen en neurotransmitters in ons zenuwstelsel. In zijn boek Wij zijn ons brein, de bestseller die de neurowetenschap in Nederland tot popular science maakte, schrijft Swaab:

“Het product van de interactie van al die miljarden zenuwcellen is onze ‘geest’. Zoals de nier urine produceert, produceert het brein de geest. (…) Ik heb nog geen goed argument gehoord tegen mijn simpele conclusie dat de ‘geest’ het resultaat is van het functioneren van onze 100 miljard hersencellen, en de ‘ziel’ een misverstand. Het universele voorkomen van het begrip ziel lijkt slechts gebaseerd op de angst van de mens voor de dood, de wens overleden geliefden weer terug te zien en het misplaatste, arrogante idee dat wij zo belangrijk zouden zijn dat er wel iets van ons móét overblijven na het overlijden.”[7]

Volgens wetenschappers als Swaab is de geest een eigenschap van het lichaam: de geest stoelt in de hersenen van de mens. In de literatuur wordt deze positie het materialisme of fysicalisme genoemd, omdat het uitgaat van de (fysische) materie als enige substantie in de mens.

Het fysicalistische mensbeeld dringt steeds meer door tot ons dagelijks leven. Door middel van PET-scans en functionele MRI-scans wordt getracht de gehele leefwereld te verklaren vanuit het brein. Reeds als foetus worden de hersenen als bepalend gezien voor de sociale aanleg[8], het niveau van agressie en stress[9], en het gevoel van man of vrouw-zijn[10] op latere leeftijd. De oorzaak van sociale fobieën en persoonlijkheidsstoornissen worden ook steeds vaker in het brein gezocht. Zo zijn psychopathie en andere antisociale stoornissen niet langer een morele tekortkoming zoals voorheen gedacht[11], maar het gevolg van een ontkoppeling van de frontale kwab en het limbisch gebied, het gebied dat ervoor zorgt dat de mens gevoelens kan uiten[12].

De opkomst van het begrip ‘hersendood’ is wellicht de duidelijkste bevestiging dat het idee dat hersenactiviteit aan de basis staat van het persoon-zijn tegenwoordig domineert[13]. Onder bepaalde omstandigheden waarin toestemming voor orgaandonatie is gegeven, wordt voor het vaststellen van de dood niet gekeken of de hartslag en de ademhaling zijn weggevallen, maar of de persoon hersendood is geworden. Volgens de huidige wetgeving wordt onder hersendood verstaan “het volledig en onherstelbaar verlies van de functies van de hersenen, inclusief de hersenstam en het verlengde merg”[14]. Deze nieuwe, juridische definitie berust op een uiterst technisch begrip van de dood[15]. Er wordt gebruikgemaakt van Elektro-encefalografie (EEG) om de aanwezigheid van elektrische hersenactiviteit te meten. Dit terwijl de hersendode er niet dood uitziet; hij lijkt te slapen, heeft door de kunstmatige beademing een normale huidskleur en voelt nog warm aan. Op de monitor is de hartslag te zien. Ogenschijnlijk is de persoon dus nog in leven, maar door het functieverlies van de hersenen wordt de persoon toch doodverklaard. Niet langer is het wegvallen van de adem en hartfuncties richtinggevend, maar het wegvallen van de hersenfuncties. Zonder hersenen, is er geen persoon.

Volgens de neurofilosoof Churchland, een radicale materialist, heeft de neurowetenschap bewezen dat men het niet meer behoort hebben over ideeën en gedachten, maar dat men uitsluitend moet spreken in termen van hersentoestanden. Volgens Churchland zal binnen enkele decennia blijken hoe verouderd onze huidige terminologie is. Het woord bewustzijn zal worden vervangen door de intralaminaire nucleus, de kern van een zeer oud hersengedeelte[16]. Uitdrukkingen als “Esther is boos” zijn dan ook niet meer correct, “Esther’s adrenalineniveau gaat over de 20 mg/l grens” is juist[17].

Veel discussie is nog mogelijk over de vraag of de fysicalisten het wel bij het goede einde hebben, een discussie die het doel van deze paper echter te buiten gaat. Ter zake is wel de enorme uitdaging waar de wetenschap voor staat indien de fysicalisten toch gelijk hebben. Betekent het gelijk van de fysicalisten namelijk dat een perfect nagebootst lichaam dezelfde mentale capaciteiten kan tonen als een als mens geboren mens? In andere woorden, kan een robot uiteindelijk fysisch zo geavanceerd zijn dat hij een ‘geest’ heeft?[18]

2.2 De Meest Menselijke Machine

In de afgelopen decennia hebben veel wiskundigen, informatici en filosofen zich over deze vragen gebogen. De grootste bijdrage aan de discussie is ongetwijfeld geleverd door de grondlegger van de informatica, Alan Turing, wiens 100e geboortedag dit jaar werd gevierd[19]. Turing is de bedenker van de Turing Test, een experiment om er achter te komen of een robot kan denken[20]. De test bestaat uit een opdracht, waarbij een mens, het jurylid, tegelijk in gesprek gaat met een mens en een machine. Alle drie de deelnemers zijn van elkaar gescheiden en communiceren via een computer. Het jurylid weet niet welke van de deelnemers mens is en welke machine. Als het jurylid na het gesprek niet in staat is om de antwoorden van de machine te onderscheiden van die van de mens, is dat volgens Turing voldoende bewijs dat de machine net als de mens intellect bezit.

​​ Turing gaat in zijn Test uit van de zogenaamde computationele theorie: denken komt neer op het hebben van het juiste computerprogramma. De mens is eigenlijk niet meer een symboolverwerkende machine, wiens hersenen een reeds vastgestelde reactie geven op een bepaald handelen. De test controleert niet of de robot het vermogen heeft om een juist antwoord te geven, het gaat na hoe nauwkeurig het antwoord lijkt op een typisch menselijk antwoord.

Jaarlijks wordt een competitie gehouden door de uitvinder Hugh Loebner, die een bedrag belooft van 100.000 dollar voor de computer die de Turing Test doorstaat. Dat bedrag is nog nooit uitgereikt, wel gaat er elk jaar een medaille naar de robot die het dichtst in de buurt komt van menselijk gedrag, de Meest Menselijke Machine.

Turing’s bewering dat een robot even intelligent is als een mens wanneer hij even intelligent overkomt, heeft veel reacties uitgelokt. De bekendste daarvan is een tegen-experiment dat wordt voorgesteld door John Searle, het zogenaamde Chinese kamer-experiment[21]. Searle wilde met zijn experiment de computationele theorie weerleggen.

Allereerst maakt Searle in zijn artikel ‘Minds, Brains, and Programs’ een onderscheid tussen twee mogelijke posities op het gebied van de kunstmatige intelligentie (KI), de zwakke KI en de sterke KI[22]. Zwakke KI stelt dat computers op vele manieren kunnen worden gebruikt, ook om het menselijk denken te bestuderen, maar dat deze computers nooit zelf zullen kunnen denken. Sterke KI is van mening dat niet alleen mensen, maar ook machines met een juiste en adequate programmering kunnen denken. De Turing Test probeert te bepalen wanneer een machine de overstap maakt van zwakke naar sterke KI: hoe kan men vaststellen dat een machine denkt? Searle valt met zijn Chinese kamer-experiment de opvatting aan dat sterke KI bestaat.

Het experiment gaat als volgt. Een proefpersoon, ik noem hem Piet, die alleen Nederlands spreekt, wordt opgesloten in een kamer zonder ramen. In de kamer is verder alleen een handleiding, een pen en een stapel lege vellen papier. Door een gleuf in de muur worden elke dag vellen papier met een Chinees symbool er op naar binnen geschoven. Het is de bedoeling dat Piet reageert op deze papieren. De handleiding bevat instructies in het Nederlands die beschrijven hoe te reageren op een binnenkomend vel, afhankelijk van het symbool dat erop staat: als je X teken ziet, schrijf dan Y teken op een leeg vel en schuif het door de gleuf, etcetera.

Voor de buitenstaander die de vellen papier naar binnen schuift, en een antwoord krijgt in dezelfde taal, is er geen twijfel dat de persoon in de kamer Chinees begrijpt. Piet voldoet dus aan de Turing Test. Searle vraagt nu echter het volgende: is het terecht om dit systeem intelligent te noemen? Kunnen we zeggen dat Piet Chinees begrijpt? Volgens Searle niet. Piet heeft geen idee wat de betekenis is van de Chinese tekens, hoe snel en efficiënt zijn antwoorden ook zijn. Hij weet niet wat er besproken wordt in het gesprek. Hij weet überhaupt niet of er sprake is van een gesprek over en weer. Wat er in de Chinese kamer gebeurt, is niets anders dan input, verwerking en output. Een dergelijke formele symboolmachine zonder enig begrip van haar eigen handelen is op geen enkele manier te beschouwen als een semantisch wezen. Searle’s gedachte-experiment lijkt hiermee de bewering van Turing te weerleggen: het laten zien van het juiste gedrag toont nog geen intelligentie en begrip aan. Het aanleren van gedrag aan robots brengt dus nog niet mee dat de robot het intellect van de mens bezit. Een robot is hoogstens een Chinese kamer die begrip lijkt te hebben.

Hiermee zijn de kwesties rondom de grenzen van kunstmatige intelligentie echter nog niet opgelost. Uit het Chinese kamer-experiment volgen twee vragen die zowel voor de mens als voor de robot van groot belang zijn. De eerste vraag is of de mens, in tegenstelling tot de robot, wel semantische waarde kan toekennen aan woorden en gesprekken. Is de mens niet ook gewoon een symboolverwerkende machine, zoals de computationele theorie stelt? De tweede vraag gaat over de handleiding in de Chinese kamer. De handleiding staat symbool voor de kennis, de kunstmatige intelligentie, die de mens aan de robot meegeeft. Wat is de inhoud van deze handleiding, en wie mag bepalen wat deze inhoud is? Het eerste vraagstuk zal eerst worden besproken, het tweede volgt in hoofdstuk 3.

2.3 Intentionaliteit

Het eerste vraagstuk waar de Chinese kamer ons mee achterlaat draait om de volgende vraag: je hoort iemand iets zeggen, maar hoe is het mogelijk dat je snapt wat hij bedoelt? Wanneer de mens een gesprek voert in een taal die hij begrijpt, heeft hij ook daadwerkelijk begrip dat er een gesprek gaande is en dat het gesprek over een bepaald onderwerp gaat. Maar wat is bij de mens het moment dat een willekeurig woord omslaat in een woord dat iets betekent? Daniel Dennett, belangrijk filosoof van de geest, verwoordt de vraag als volgt:

“It seems that understanding a heard sentence must be somehow translating it into some internal message, but how will this message in turn be understood: by translating it into something else?”[23]

Het gaat bij deze vraag om de semantische eigenschap van de mens die ook wel de ‘intentionaliteit’ van het menselijk denken wordt genoemd. Dit moeilijk grijpbare concept wordt in de Stanford Encyclopedia of Philosophy gedefinieerd als “the power of minds to be about, to represent, or to stand for, things, properties and states of affairs”[24]. Het is hier van belang om onderscheid te maken tussen wat wij normaal gesproken verstaan onder intenties en wat er in deze context mee wordt bedoeld. Want waar men normaal gesproken op doelt als het om zijn intenties gaat, is de intentionaliteit van zijn handelen[25]. Waarom was ik mijn handen voor het eten? Omwille van hygiëne. Waarom steek ik mijn hand op? Om een vraag te stellen. Het gaat om de intentie die we hebben bij een bepaald handelen.

Bij de intentionaliteit van het menselijk denken wordt echter niet gedoeld op de gerichtheid van handelingen, maar op de gerichtheid van geestelijke toestanden. Deze intentionaliteit stelt dat we nooit zomaar ‘bewust’ zijn, we zijn ons altijd bewust van iets. We denken niet, maar denken over iets. We zijn niet eenvoudigweg bang, we zijn bang van iets[26]. Als iemand zegt dat hij boos is, zal onze eerste reactie zijn: “Waarover?”. Deze eigenschap laat zien dat onze mentale toestand altijd een semantisch uitgangspunt heeft, een inhoudelijk symbool waar de toestand op is gebaseerd. Met zijn Chinese kamer-argument toont Searle aan dat robots deze inhoud niet hebben. Hoewel zij denken, of beter gezegd informatie verwerken, denken zij niet over de informatie die zij verwerken. Op deze manier geven robots geen semantische waarde aan de woorden die er aan hen voorbijgaan; elk woord heeft even veel als weinig betekenis.

Een argument dat vaak wordt gebruikt tegen het Chinese kamer-experiment is hoe Searle kan weten dat de mens wel een semantische terugkoppeling heeft bij het aanhoren van woorden en zinnen[27]. Dit zogenaamde Other Minds-argument stelt dat het onmogelijk is om het denkvermogen van een ander in te schatten, anders dan door het beoordelen van het uitwendige gedrag van diegene. Dus hoe weet Searle dat een mens wel echt Chinees begrijpt als diegene het spreekt? Alleen maar door gedragingen, namelijk het spreken van de taal. Wat maakt de mens dan anders dan een machine die de taal ook spreekt? Searle antwoordt hierop dat we concepten als begrip en bewustzijn moeten aannemen bij de mens, want anders is er überhaupt geen discussie mogelijk:

“In cognitive sciences one presupposes the reality and knowability of the mental in the same way that in physical sciences one has to presuppose the reality and knowability of physical objects.”[28]

Dennett vindt daarom dat deze discussie eigenlijk op niet meer neerkomt dan een meningsverschil, namelijk of een perfecte namaak als echt moet worden beschouwd of niet. Hij maakt de vergelijking met een dure wijn en vodka:

“(…) there is a tug toward parochiality: real Château Latour has to have been made in a particular place, in a particular way, by particular people: an artificially concocted fluid indistinguishable to both chemists and connoisseurs from Chateau Latour would still not be real Chateau Latour. Real vodka, on the other hand, can be made from just about anything, anywhere, by anybody.”[29]

Of een robot die niet te onderscheiden menselijk gedrag vertoont en er ook als een mens uitziet, als mens kan worden aangemerkt, is voor Dennett een kwestie van mening.

Machines en moraal

In de komende twee hoofdstukken zal aandacht worden besteed aan de ethische en juridische implicaties van recente ontwikkelingen in de kunstmatige intelligentie. Uit hoofdstuk 2 is gebleken dat er nog veel te discussiëren valt over de vraag of de robot ooit de menselijke mentale structuur zal bezitten. Echter, hoe meer de robot zich in de leefwereld van de mens bevindt, hoe vaker hij te maken zal hebben met situaties die een moreel keuzemoment opleveren. Daarvoor is het niet eens nodig om extreme sciencefiction scenario’s te bedenken waarin robots dezelfde mate van bewustzijn, vrije wil en gevoelens als de mens hebben. Wij leven al in een tijd waarin machines steeds vaker autonoom zijn. De komende jaren zal deze tendens alleen maar versterken. Denk aan de robotauto’s die volop in ontwikkeling zijn en die potentieel erg veel invloed zullen hebben op onze levens. Hoe gaat een robotauto om met gevaarlijke situaties op de weg? Of denk aan het gebruik van robots in oorlogen, wat momenteel al volop gebeurt. Aan welke regels moeten dergelijke robots zich houden? Is het verstandig dat deze robots een licence to kill hebben?

Deze vragen geven veel stof tot denken, zowel juridisch, ethisch, als economisch. Het is daarom van uitermate belang om op ontwikkelingen in de kunstmatige intelligentie te anticiperen en morele dilemma’s die zich zouden kunnen voordoen bij ‘menselijke’ robots te bestuderen. In dit hoofdstuk zal worden ingegaan op de regels waaraan een robot zich dient te houden, of in termen van de Chinese kamer: wat moet er in de handleiding van de robot staan?

3.1 De robot: van vijand tot vriend

Vaak is aan de literatuur van een bepaalde tijd te zien hoe er in die tijd werd gedacht over een kwestie. Zo ook bij robots. Vroeger was er niet veel enger dan een denkende machine. Robots werden gezien als gelijken van Frankenstein uit Mary Shelley’s roman (1818): sociale outcasts die zich elk moment tegen hun makers konden keren en grote ravages aanrichten. Zo komen de onderdrukte robots in het toneelstuk R.U.R. van Karel Čapek (1920) in opstand en vermoorden ze alle mensen. In de oude Superman-cartoons waren de antagonisten vrijwel zonder uitzondering robots. Het was niet voor niets dat de reeds genoemde Samuel Butler al in 1865 opriep tot een oorlog tegen de machines:

“Day by day, the machines are gaining ground upon us; day by day we are becoming more subservient to them; more men are daily bound down as slaves to tend them, more men are daily devoting the energies of their whole lives to the development of mechanical life. (…) Our opinion is that war to the death should be instantly proclaimed against them. Every machine of every sort should be destroyed by the well-wisher of his species.”[30]

Ook tegenwoordig zijn robots nog vaak genoeg de bad-guys, getuige de vele sciencefiction films en kindertekenfilms waarin zwaarbewapende robots de wereld dreigen te overheersen.

Echter, de afgelopen decennia is de robot in de literatuur in een steeds beter daglicht komen te staan. Steeds vaker is de robot een vriendelijke, behulpzame machine wiens taak het is om het leven van de mens aangenamer te maken. De robots in Isaac Asimov’s I, Robot (1950), de robots in de klassieke kindertekenfilm The Jetsons (1962-1963), en de droids in Star Wars (1977-2005): allen zijn kunstmatig intelligente wezens die gebouwd zijn om het huishouden van de menselijke personages over te nemen of anderszins als doel hebben ondersteunende taken uit te oefenen ten behoeve van de mens. Ook het beeld van sociale outcast lijkt de robot langzamerhand kwijt te raken nu gewerkt wordt aan sociale robots; robots die samenwerken en communiceren met mensen door het volgen van aangeleerde sociale vaardigheden.

Het ontstaan van dit optimistische beeld van robots is met name te danken aan Isaac Asimov. Asimov was namelijk de eerste schrijver die in zijn verhalen wetten oplegde aan zijn robots. Zijn wetten waren er drie, de Three Laws of Robotics[31]:

  1. Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.
  2. Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
  3. Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.

Door deze wetten vast te leggen in het systeem van de robots, was het mogelijk om robots autonomie te geven zonder te vrezen dat zij misbruik zouden maken van hun keuzevrijheid. Asimov was als het ware de eerste die de Chinese kamer van een handleiding voorzag. De Three Laws, hoewel fictioneel, zijn nog altijd richtinggevend in het bedenken van wetten voor robots[32]. Het moge echter duidelijk zijn wat het doel van robots is als ze worden geprogrammeerd aan de hand van deze wetten: het zullen niets meer zijn dan hulpjes voor de mens. In hoofdstuk 4 zal nader worden ingegaan op de vraag in hoeverre robots als knechten mogen worden gebruikt.

3.2 Gespecialiseerde robots

Asimov’s Three Laws zijn in zijn verhalen van toepassing op alle robots. Aangezien de technologie omtrent robots sinds 1950 enorm is gevorderd, is het tegenwoordig makkelijker om meer specifieke dilemma’s in te beelden die zich kunnen voordoen bij autonoom werkende machines met een speciale taak.

De robots die de grootste ethische uitdaging vormen zijn ongetwijfeld de militaire machines. Dit zijn robots die in oorlogstijd worden ingezet, zoals onbemande vliegtuigen of onbemande tanks. Hoewel de meeste onbemande machines nog van afstand bediend dienen te worden, zijn er nu ook robots die geen bediening nodig hebben. Via tientallen radars en sensoren kunnen ze zelf bepalen waar, wanneer en op wie ze schieten[33].

Militaire robots hebben grote voordelen. Ze zorgen ervoor dat mensen niet meer in gevaarlijke oorlogsgebieden hoeven te opereren. Het verlies van een vliegtuig betekent niet gelijk het verlies van een menselijke piloot. Robots voelen (vooralsnog) geen angst, en men hoeft ook niet te vrezen voor posttraumatische stressstoornisen of andere depressies na afloop van de oorlog. Robots zullen niet moe worden, en wanneer ze op de wacht staan, dan kunnen ze dat dag en nacht doen, de hele week lang, zonder enig concentratieverlies.

Problemen met militaire robots zijn er echter ook. Volgens Noel Sharkey, professor in kunstmatige intelligentie, komen robots tekort met betrekking tot twee basisvereisten van oorlogsvoering[34]. Het eerste is het vermogen om vriend van vijand te onderscheiden. Robots hebben niet het discriminatoire vermogen om vriend van vijand of militair van burger te onderscheiden. Het is al moeilijk genoeg voor een menselijke soldaat om dat onderscheid te maken. Uit cijfers blijkt dat tussen januari 2006 en april 2009 60 aanvallen van zogenaamde drones, onbemenande vliegtuigen, hebben plaatsgevonden in Pakistan. Daarbij werden 14 leden van Al-Qaeda omgebracht, maar kwamen ook maar liefst 687 burgers om[35]. Het tweede is het vermogen tot het beoordelen van de juiste proportionaliteit in een gegeven situatie. Volgens Sharkey is vooral dit vermogen een probleem, omdat hij gewoonweg geen mogelijkheid ziet om het vermogen over te brengen op een ander wezen:

“Forget about proportionality, there’s no software that can make a robot proportional. There’s no objective calculus of proportionality – it’s just a decision that people make.”

Men is nog bezig met het construeren van wetten die wel zouden kunnen gelden voor autonome militaire robots. Volgens Patrick Lin, werkzaam bij de U.S. Navy, is het nodig om robots “battlefield ethics… a warrior code” aan te leren[36]. Maar het is nog maar de vraag of de mens over een dergelijke ethiek beschikt en zo ja, of deze ethiek dan ooit programmeerbaar kan zijn.

Ook het vooruitzicht op een andere autonome robot, de robotauto, is, hoewel niet gewelddadig, niet zonder gevaar voor mensenlevens. Tom Standage bespreekt in The Economist een interessant dilemma[37]. Hij stelt zich een situatie voor waarin een autonome robotauto zich bevindt op een weg met twee rijstroken. Op de rijbaan waar de auto rijdt kruipt een kind, op de andere rijbaan loopt een kuiken, en de auto heeft geen mogelijkheid meer om te remmen. Moet de robot uitwijken en het kuiken aanrijden of op dezelfde rijstrook blijven? Waar de meerderheid van de mensen zou zeggen dat de robot moet uitwijken, is het ook mogelijk dat mensen het leven van het dier even dierbaar achten. Welk moraal moet in robots worden geprogrammeerd? Is het denkbaar dat we complete morele theorieën installeren, zoals het utilitarisme van Jeremy Bentham of Immanuel Kant’s Categorisch Imperatief? Voordat deze vraag kan worden beantwoord, moet eerst worden bepaald wie het moraal mag programmeren; is de Staat degene die daarvoor toegewezen is, of mag de fabrikant van de robot dat zelf doen?

Als eerste Amerikaanse staat bepaalde Nevada in juni 2011 dat het vanaf maart 2012 toegestaan is om op publieke wegen in autonome robotauto’s te rijden[38]. De wet was daarmee het eerste stuk regelgeving met betrekking tot robotauto’s. De wet bepaalt onder andere dat er altijd een persoon achter het stuur en een persoon in de bijrijderstoel zit. Over de inhoud van de kunstmatige intelligentie van de auto wordt niets gemeld.

In het kader van de morele keuzes waar robots steeds vaker voor staan, is het onderscheid dat de computerwetenschapper Weizenbaum maakt tussen ‘beslissen’ en ‘kiezen’ bijzonder interessant[39]. Weizenbaum stelt dat beslissen (deciding) een computationele activiteit is, iets wat te programmeren valt. Robots zullen dus volgens hem in de toekomst met hun kunstmatige intelligentie tot beslissingen kunnen komen. Volgens Weizenbaum ligt de grens van de kunstmatige intelligentie van robots echter in het kiezen (choosing). Keuze is namelijk het resultaat van een afweging, niet van een berekening. Het kiezen, een vermogen dat speciaal aan de mens toekomt, is in staat om niet-wiskundige factoren, zoals empathie, rechtvaardigheid en proportionaliteit, in haar uitvoerige oordeel op te nemen:

“We are capable of listening with the third ear, of sensing living truth that is truth beyond any standards of provability. It is that kind of understanding, and that kind of intelligence that is derived from it, which I claim is beyond the abilities of computers to simulate.”[40]

Het is hierom dat Weizenbaum van mening is dat bepaalde beroepen nooit mogen worden toegekend aan robots. Beroepen als therapeut, ouderenverzorger, rechter of politieagent zijn niet weggelegd voor robots, omdat deze posities een speciale empathische invulling vergen. Indien machines ze zouden invullen, zal dat ons volgens Weizenbaum vervreemd, gedevalueerd en gefrustreerd achterlaten. Een zucht naar kunstmatige intelligente wezens vormt dan ook, indien op deze manier gebruikt, een bedreiging voor de menselijke waardigheid.

3.3 Wie is verantwoordelijk?

Na kort in te zijn gegaan op de regels die van toepassing zouden kunnen zijn op autonome robots, is de vraag nu wie er verantwoordelijk is als een dergelijke robot een fout begaat. Laten we ons de onplezierige situatie voorstellen waarin een autonoom Amerikaans militair vliegtuig, een drone, door een miscalculatie al haar bommen bovenop een basisschool in Afghanistan leegt. De drone werd niet van afstand bestuurd, dus was compleet autonoom. Wie is er verantwoordelijk voor de miscalculatie die puur en alleen door deze robot is begaan?

Er zijn hier veel (rechts)personen die potentieel aansprakelijk, ofwel juridisch verantwoordelijk, zijn. Denk aan de ontwerper van het vliegtuig, de programmeur, de bouwmaatschappij, de Amerikaanse overheid etcetera. Hoe deze personen worden berecht is een kwestie van nationale wetgeving en is hier verder niet van belang. De vraag die hier speelt is of de robot, de drone, juridisch aansprakelijk kan worden gehouden. Het is immers de robot die de keuze had om wel of niet te vuren, en geheel op zichzelf besloot om zijn bommen te werpen. Voor het oplossen van deze aansprakelijkskwestie zou het onderscheid dat Weizenbaum tussen beslissingen en keuzes maakt wel eens van groot belang kunnen zijn. De drone kon namelijk slechts beslissen op basis van voorgeprogrammeerde factoren, zoals de mate van infrarood signalen die hij binnen krijgt, of andere tekenen van gevaar die via de sensoren worden teruggekoppeld naar de drone. Het is duidelijk dat er geen enkele eigen inbreng van de robot was, en dat er dus geen sprake is geweest van een keuzemoment. De beslissing om te schieten is alleen genomen omdat er werd voldaan aan de vereiste berekeningen die zijn voorgeprogrammeerd in de robot. Aangezien het onredelijk is om iemand verantwoordelijk te stellen voor zijn doen en laten, wanneer hem in zijn doen en laten geen enkele vrijheid rest[41], zou het ook onredelijk zijn om de robot aansprakelijk te stellen voor dit grove bedrijfsongeluk.

Hetzelfde principe geldt dan uiteraard voor de morele verantwoordelijkheid van de robot: geen vrijheid, dus geen verantwoordelijkheid. Bij de morele verantwoordelijkheid is er echter iets vreemds aan de hand. In een recent onderzoek van de University of Washington werd het volgende experiment uitgevoerd[42]. Veertig studenten werden gevraagd deel te nemen aan een speurtocht waarin ze binnen een bepaalde tijd een aantal voorwerpen moesten hebben verzameld. Een robot genaamd Robovie beoordeelde vervolgens de voorwerpen die een student had verzameld, en of de student het prijzengeld van 20 dollar won. Het probleem was dat Robovie was ingesteld om te liegen en dus bij elke student aangaf dat ze het prijzengeld helaas waren misgelopen. Dit tot grote verbazing en woede van de studenten, want ze hadden precies de voorwerpen verzameld die op de instructie stond, en ook ruim binnen het tijdsbestek. Hoe kon het zijn dat deze robot een zo overduidelijk waarheid over het hoofd zag en zomaar leugens verzon? Achteraf zei maar liefst 65 procent van de 40 studenten dat Robovie op zijn minst een beetje moreel verantwoordelijk was voor liegen. Wellicht is het ietwat vreemd dat zo een groot percentage van de studenten die mening deelden, maar iedereen heeft wel eens een moment gehad waarin hij of zij een machine scheef aankeek omdat de machine niet deed waar het voor was. Wie heeft zijn computer nooit een dreun gegeven omdat het opstarten zo lang duurt?

Het onderzoek toont aan dat mensen toch iets van verantwoordelijkheid verwachten van een robot. Dat is wellicht een voorbode voor de toekomst, want hoewel het tegenwoordig in minimale mate aanwezig is (wij weten best dat de robot er niets aan kan doen), naarmate de robot veiliger wordt en betrouwbaarder overkomt, zal ook de neiging van de mens groeien om de robot verantwoordelijk te houden voor grove fouten.

Robo-ethiek

In het vorige hoofdstuk is aandacht besteed aan de wetten die het gedrag van robots dienen te reguleren. Wat opvalt aan alle literatuur rondom vriendelijke robots, is dat de robots dikwijls een ondergeschikte rol vervullen ten opzichte van de mens; het zijn vaak niets meer dan hulpjes. In de Three Laws van Asimov is zelfs het eigen voortbestaan van de robot (de Derde Wet) ondergeschikt aan het menselijk leven (de Eerste Wet). In de film I, Robot[43], vrij gebaseerd op Asimov’s boek van dezelfde naam (1950), zijn de robots ook onderworpen aan de Three Laws. Ze leven in harmonie met mensen en vrijwel ieder mens bezit een robot die de huishoudelijke klusjes op zich neemt. Dit gaat goed, totdat de robots zodanig zijn ontwikkeld dat ze een bewustzijn creëren. Ze worden zich bewust van hun onvrije situatie en komen in opstand tegen de mens.

Om zulke scenario’s te voorkomen zijn niet alleen wetten nodig die gelden voor robots, maar ook wetten die het menselijk handelen omtrent robots reguleren. Dit hoofdstuk draait om deze robo-ethiek: aan welke regels dient de mens zich te houden bij het ontwerpen, bouwen en gebruikmaken van robots? Is het in onze tijd nog ethisch verantwoord om robots te gebruiken als slaven die al onze minder plezierige klusjes opknappen? Moet de mens rechten toekennen aan robots?

4.1 Gedragsregels voor de mens

In september 2010 kwamen robotici, ethici, juristen en beleidsmakers vanuit heel Europa bijeen in de Engineering and Physical Sciences Research Council (EPSRC). Zij bespraken de ontwikkelingen in de robot-industrie en hoe ermee om te gaan. Het resultaat was een ontwerp van vijf gedragsregels die bedoeld zijn als richtlijn voor de mens bij het ontwerpen, bouwen en gebruikmaken van robots[44]. Het ontwerp was niet bedoeld als definitieve richtlijn, maar als aanzet tot een discussie over wat verantwoord menselijk gedrag is tegenover robots. De vijf regels luiden als volgt:

  1. Robots are multi-use tools. Robots should not be designed solely or primarily to kill or harm humans, except in the interests of national security.
  2. Humans, not robots, are responsible agents. Robots should be designed and operated as far as is practicable to comply with existing laws and fundamental rights and freedoms, including privacy.
  3. Robots are products. They should be designed using processes which assure their safety and security.
  4. Robots are manufactured artefacts. They should not be designed in a deceptive way to exploit vulnerable users; instead their machine nature should be transparent.
  5. The person with legal responsibility for a robot should be attributed.

Ik zal kort ingaan op deze vijf regels, om tevens aan te geven waar de regels nog gebrekkig of mogelijk zelfs onjuist zijn.

De eerste regel laat onmiddellijk zien dat Asimov’s Three Laws het begeven in de realiteit. De Eerste Wet van Asimov regelt dat robots een mens nooit letsel mogen toebrengen of door niet te handelen toestaan dat een mens letsel oploopt. De wetenschappers van EPSRC voegen echter de zinsnede “…except in the interests of national security” toe aan hun eerste regel. Dit uiteraard omdat militaire robots, die allang onderdeel zijn van onze dagelijkse realiteit, juist zijn gemaakt om letsel bij mensen te veroorzaken.

De tweede en vijfde regel kunnen in samenhang worden gelezen. De vijfde regel bepaalt dat het duidelijk zichtbaar moet zijn aan de robot wie op grond van de tweede regel aansprakelijk is voor de robot. De tweede regel bepaalt dat dit altijd een mens is; een robot is nooit aansprakelijk. Op deze kwestie zal ik hier verder niet ingaan, aangezien dat al is gebeurd in hoofdstuk 3[45]. Het voldoet om te vermelden dat er vraagtekens kunnen worden geplaatst bij het geheel exonereren van aansprakelijkheid bij robots, vooral naarmate robots vorderen in hun ontwikkeling.

De derde regel bepaalt dat de mens bij het ontwerpen en bouwen van robots dient te streven naar zo veilig en betrouwbaar mogelijke resultaten. Deze norm is niets nieuws voor de technologie. De industrie heeft al langer te maken met regels om bijvoorbeeld huishoudelijke apparaten of kinderspeelgoed gebruiksveilig te maken. Bij intelligente robots dient er echter niet alleen gelet te worden op de hardware, het ‘omhulsel’, van de robot, maar ook op de veiligheid en betrouwbaarheid van zijn software, waar zijn kennis zich immers bevindt.

De vierde regel is ook bedoeld ter bescherming van de menselijke gebruiker, hoewel het hier specifiek gaat om ‘kwetsbare gebruikers’. De fabrikant van de robot moet duidelijk aangeven dat het om een robot gaat, zodat mensen niet in de illusie raken dat ze tegenover een mens staan. Dit kan bijvoorbeeld door altijd een zichtbare streepjescode te plaatsen op de robot. Waarom de EPSRC wil dat ‘menselijke’ robots moeten worden herkend, blijkt niet uit de toelichting op de vijf regels. De vraag is wel hoe ver deze toekomstige identificatieplicht mag gaan; is er ruimte voor een openbare database waarin alle gegevens van de robot staan gespecificeerd, of heeft de robot een recht op privacy dat hem tot op een bepaalde hoogte beschermt?

4.2 Robotrechten

Deze vraag leidt ons tot het onderwerp robotrechten. Heeft de mens een morele plicht om rechten toe te kennen aan robots? Dit probleem is tegenwoordig nog te overzien. Een robotstofzuiger slooft zich zonder erbij na te denken uit terwijl wij achterover leunend bevelen uitdelen. Hetzelfde geldt voor de koelkast, die we nu nog zo hard kunnen dichtslaan als we willen, maar die braaf 24 uur per dag, 7 dagen per week, hard voor ons blijft werken. De eerste volzin van de derde regel die het EPSRC stelt, is typerend voor deze houding: “Robots are products”, niets meer, niets minder.

Maar wat gebeurt er als robots steeds meer op ons gaan lijken? Hoe moet het als robots gevoelens krijgen? Uit hoofdstuk 2 is gebleken dat er nog veel te discussiëren valt over de vraag of robots ooit de menselijke mentale structuur zal bezitten. Echter, hoe menselijker de robot wordt, hoe meer reden er is om robots dezelfde of soortgelijke autonomie te schenken als de mens[46]. Schermer stelt dat het persoon-zijn afhangt van geestelijke capaciteiten, en met dat persoon-zijn zijn bepaalde morele rechten verbonden. Daarom behandelen wij mensen nu nog anders – “met meer respect en zorg” – dan machines[47].

Dit vraagstuk heeft veel gemeen met de discussie rondom dierenrechten, die al langer aan de gang is. In Animal Liberation, het boek van Peter Singer uit 1975 dat wordt beschouwd als de filosofische grondvest van dierenrechtenbewegingen[48], pleit Singer tegen het zogenaamde speciesisme: de praktijk van het voortrekken van leden van de eigen soort (species) boven de andere diersoorten. Speciesisme leidt volgens Singer dagelijks tot grove wandaden:

“[The tyranny of human over nonhuman animals] has caused and today is still causing an amount of pain and suffering that can only be compared with that which resulted from the centuries of tyranny by white humans over black humans.”[49]

Singer meent dat dieren wezens zijn die net als de mens het waarnemingsvermogen (‘sentience’) hebben om mentale toestanden als pijn, vreugde en verdriet te ervaren[50]. Dieren behoren als zodanige gevoelswezens te worden behandeld, en niet als middelen voor menselijke doelen.

De voorstanders van dierenrechten en robotrechten staan wat dat betreft aan dezelfde kant; beiden eisen een gelijkere behandeling met de mens. Het standpunt dat de Amerikaanse dierenrechtenbeweging People for the Ethical Treatment of Animals (PETA) inneemt met betrekking tot robothuisdieren is daarom op zijn minst verassend te noemen:

“The turn toward having robotic animals in place of real animals is a step in the right direction. It shows a person’s recognition that they aren’t up to the commitment of caring for a real animal. Practically speaking, from PETA’s perspective, it really doesn’t matter what you do to a tin object.”[51]

Zoals gezegd is het nog maar de vraag of robots ooit over hetzelfde waarnemingsvermogen zullen beschikken als mensen of zelfs andere dieren. Het is hierom echter van groot belang om voorzichtig te zijn met betrekking tot het ontwikkelen van kunstmatige intelligentie. Want hoe intelligenter robots worden gemaakt, hoe groter de neiging zal zijn om ze als onze soortgenoten te ervaren. En dat is de eerste stap naar vrijheid: de Amerikaanse slavenhouders gaven eerst toe dat slaven mensen waren, en daarop werd het immoreel hen als slaaf te houden[52]. Nu er nog nauwelijks regelgeving bestaat voor ontwerpers, bouwers of robots zelf, is de mens nog lang niet klaar voor die volgende stap.

Conclusie

Met deze paper heb ik getracht een uiteenzetting te geven van de juridische en ethische kwesties rondom recente ontwikkelingen in de robotica.

In hoofdstuk 2 is ingegaan op vragen over de geest bij robots. De neurowetenschap heeft zich de afgelopen jaren enorm ontwikkeld en vele wetenschappers menen inmiddels dat datgene wat ons voorkomt als de geest enkel het product is van complexe processen in onze hersenen. Dit fysicalisme roept de vraag op of een robot fysisch ooit zo geavanceerd kan zijn dat hij een ‘geest’ heeft. Searle poogt hier met zijn Chinese kamer-experiment een negatief antwoord op te formuleren, en hoewel hem dat aardig lukt, zijn er ook tegenstanders van zijn stelling. Met de huidige stand van de technologie lijkt het er toch nog altijd op dat het semantisch vermogen waarmee de mens woorden omzet in symbolen niet over te hevelen is naar robots.

In hoofdstuk 3 en 4 zijn de regels besproken die van toepassing zouden kunnen zijn op respectievelijk de robots en de mensen die robots bouwen en gebruiken. Zoals op veel gebieden in de technologie, is het duidelijk dat de wetgeving de ontwikkelingen op het gebied van de robotica nauwelijks kan bijbenen. Terwijl robotici dagelijks de kunstmatige intelligentie van hun creaturen verrijken, zijn juristen het nog altijd niet eens over, of zich niet bewust van, het belang van regelgeving voor en over robots.

Dit belang is echter groot. Want waar Weizenbaum een aantal beroepen noemt die nooit zouden mogen worden toegekend aan robots[53], zijn er ook beroepen waar er juist een morele verplichting bestaat om het werk door robots te laten doen. Weizenbaum meent bijvoorbeeld, mijns inziens terecht, dat de zorg voor ouderen niet aan robots dient te worden overgelaten. Maar door de aanhoudende onderbemanning van de ouderenzorg is het maar de vraag wanneer het in deze sector juist moreel onverantwoord wordt om geen robots in te zetten. Standage noemt hier het inzetten van robotauto’s, wat over de hele wereld naar schatting een miljoen verkeersdoden per jaar zou schelen, en het inzetten van militaire robots, wat agressieve uitspattingen zoals dorpsverbrandingen en verkrachtingen zou uitbannen[54].

Echter, simpele morele wetten zoals de Three Laws of Robotics van Asimov zijn bij lange na niet in staat om de ethische dilemma’s waar robots tegenover zullen komen te staan van een juiste oplossing te voorzien. Dit getuige het feit dat robots reeds worden gebruikt in oorlogen, en daarmee de Eerste Wet wordt overtreden. Ik meen daarom dat het noodzakelijk is dat er eerst een mondiale discussie plaatsvindt waarin vastgesteld wordt in welke juridische en ethische banen wij de ontwikkelingen in de robotica willen leiden, voor er verder wordt gebouwd aan de volgende generatie robots. Een dergelijke verkennende dialoog zal ook voor de mens zelf erg leerzaam zijn.

To end on a positive note, zoals de Engelsen zeggen, is het op zijn minst prettig om op te kunnen merken dat de lichaam-geest problematiek in robots tot zoveel ingewikkelde kwesties leidt. Het laat zien dat de meest voor de hand liggende eigenschappen die wij als mens bezitten, zoals bewustzijn en begrip, juist onze meest complexe rijkdommen zijn. Rijkdommen die meer zijn dan slechts de urine van het brein.

  1. Zie de agenda van de tentoonstelling op de website van NEMO: <http://www.e-nemo.nl/?>.
  2. M. Schermer, De geest en de machine, in: T. Swierstra, M. Boenink, B. Walhout & R. van Est (red.), Leven als bouwpakket: Ethisch verkennen van een nieuwe technologische golf, Den Haag: Rathenau Instituut 2009, p. 35.
  3. Zoals opgemerkt in: Schermer 2009, p. 38. Zie ook: J. van der Meer, Het lichaam geest probleem: Een benadering van de discussie tussen bewustzijn, fysicalisme en dualisme in de philosophy of mind, Tilburg: Stichting Europese Apologetiek 1998; N.J.M. Kwakman, Strafrecht zonder vrije wil: Risikohaftung in plaats van schuldstrafrecht, Ars Aequi december 2011, jaargang 60, p. 856-858.
  4. Een kleine greep: Victor Lamme, Richard Dawkins, Dick Swaab, Matt Ridley, Sam Harris en Jan Verplaetse.
  5. S. Butler, Darwin among the Machines, in: S. Butler, Erewhon, Londen 1865, Project Gutenberg reprint, p. 179-185.
  6. De la Mettrie’s L’homme Machine (1748) is het bekendste werk van deze stroming. Voor een behandeling van deze stromingen in samenhang met de evolutietheorie zie K. Popper, Objective Knowledge: An Evolutionary Approach, Oxford: Clarendon 1972, herziene editie 1979, p. 224.
  7. D. Swaab, Wij zijn ons brein: van baarmoeder tot Alzheimer, Amsterdam: Uitgeverij Contact 2010, p. 19 en 211.
  8. R.C. Knickmeyer, S. Wheelwright, K. Taylor, P. Raggatt, G. Hackett & S. Baron-Cohen, Gender-typed play and amniotic testosterone, Developmental Psychology 41(3) 2005, p. 517-528. Ook: R.C. Knickmeyer, S. Baron-Cohen, P. Raggatt & K. Taylor, Foetal testosterone, social relationships and restricted interests in children, Journal of Child Psychology and Psychiatry and Allied Disciplines, 46(2) 2005, p. 198-210. Uit deze onderzoeken blijkt dat er een correlatie is tussen de hoeveelheid testosteron die in het foetale brein terechtkomt en de sociale aanleg die kinderen rond vier-jarige leeftijd hebben.
  9. J. F. Leckman, R. Feldman, J. E. Swain, V. Eicher, N. Thompson & L. C. Mayes, Primary parental preoccupation: circuits, genes, and the crucial role of the environment, Journal of Neural Transmission, Volume 111, Number 7 2004, p. 753-771. Uit dit onderzoek blijkt hoe een stress van de moeder tijdens de zwangerschap van invloed is op de hersenen van de foetus en het kind op langere termijn stressproblemen oplevert.
  10. K. Wallen, Hormonal influences on sexually differentiated behavior in nonhuman primates, Frontiers in Neuroendocrinology 26 2005, p. 7–26; R.W. Goy, F.B. Bercovitch & M.C. McBrair, Behavioral masculinization is independent of genital masculinization in prenatally androgenized female rhesus macaques, Hormones and Behaviour (4) 1988, p. 552-571. Deze onderzoeken tonen dat meisjesfoetussen van primaten die testosteron geïnjecteerd krijgen in hun hersenen op latere leeftijd ruiger en aggresiever zijn dan andere vrouwelijke primaten.
  11. Pritchard (1837), geciteerd in S. Maughs, A concept of psychopathy and psychopathic personality: Its evolution and historical development, Journal of Criminal Psychopathology 2 1941, p. 329-356.
  12. E. A. Shirtcliff et al., Neurobiology of empathy and callousness: Implications for the development of antisocial behavior, Behavioral Sciences and the Law 27 2009, p. 137-171. Zie ook: T, Bosse, C. Gerritsen & J. Treur, Integration of Biological, Psychological, and Social Aspects in Agent-Based Simulation of a Violent Psychopath, Lecture Notes in Computer Science, Volume 4488 2007, p. 888-895; K. A. Kiehl, A cognitive neuroscience perspective on psychopathy: Evidence for paralimbic system dysfunction, Psychiatry Research 142 2006, p. 107-128.
  13. Schermer 2009, p. 37.
  14. Zie art. 14 lid 2 WOD, en art. 1.1 Hersendoodprotocol 2006.
  15. B. van Beers, Persoon en lichaam in het recht: Menselijke waardigheid en zelfbeschikking in het tijdperk van de medische biotechnologie (diss. Amsterdam), Den Haag: Boom Juridische uitgevers 2009, p. 446 e.v.
  16. P. Churchland, The Engine of Reason, The Seat of the Soul: A Philosophical Journey into the Brain, Massachusetts: MIT Press 1996, p. 215.
  17. A.D. Steevensz, Het lichaam – geest probleem, < http://www.godean.nl/doric-dutch/ascii/ Het%20 lichaam%20-%20geest%20probleem.htm >, geraadpleegd op 8 juli 2012.
  18. Er blijkt uit deze vraag overigens een uiterst interessant verschil tussen de lichaam-geest problematiek in mensen en in robots. Waar de vraag bij mensen luidt: ben ik een lichaam, of heb ik een lichaam?, is de vraagstelling bij robots als volgt: is de robot een lichaam, of heeft hij een geest? Het aannemen van de tweede zinsnede, het dualistische standpunt, betekent bij de mens dat hij een geest is die een lichaam heeft. Bij robots betekent het daarentegen dat de robot een lichaam is die een geest heeft. De robot wordt dan dus nog steeds vanuit zijn lichaam gedefinieerd. Dit verschil wordt misschien wel onbewust gemaakt. Men kan zich afvragen of er een tijd komt dat robots hun persoon-zijn vanuit hun geest zullen definiëren, en dus dezelfde vraagstelling als de mens nodig hebben.
  19. Op initiatief van een aantal universiteiten, ook uit Nederland, werd 2012 benoemd tot Alan Turing Year, zie <http://www.turingcentenary.eu/>.
  20. A.M. Turing, ‘Computing Machinery and Intelligence’, Mind, 59 1950, p. 433-460.
  21. J.R. Searle, ‘Minds, Brains, and Programs’, The Behavioral and Brain Sciences, Vol 3 1980, p. 417-457. Zie ook: H. Dooremalen, H. de Regt & M. Schouten, Stof tot denken: Filosofische aspecten van brein en bewustzijn, Amsterdam, Uitgeverij Boom 2010, p. 57 en 58.
  22. Verder uiteengezet in J.R. Searle, ‘Is the Brain’s Mind A Computer Program?’, Scientific American, januari 1990, p. 26-31.
  23. D. Dennett, Brainstorms: Philosophical Essays on Mind and Psychology, Cambridge, MA: MIT Press 1981, p. 122.
  24. P. Jacob, Intentionality, Stanford Encyclopedia of Philosophy 2003, http://plato.stanford.edu/entries/ intentionality/#9, geraadpleegd op 10 juli 2012.
  25. D. Dennett, The Intentional Stance, Cambridge, Massachusetts: The MIT Press 1987, p. 43 e.v.
  26. Zie P.V. Spade, Jean-Paul Sartre’s Being and Nothingness, Indiana University: Class Lecture Notes 1995, p. 46.
  27. Zie bijv. D. Cole, The Chinese Room Argument, in: E.N. Zalta, <http://plato.stanford.edu/archives/fall2004 /entries/chinese-room/>, The Stanford Encyclopedia of Philosophy 2004, p. 13. Searle (1980, p. 443) noemt dit tegenargument ook zelf in zijn paper: “How do you know that other people understand Chinese or anything else? Only by their behavior. Now the computer can pass the behavioral tests as well as they can (in principle), so if you are going to attribute cognition to other people you must in principle also attribute it to computers”.
  28. Searle 1980, p. 443.
  29. Dennett 1981, p. 197.
  30. S. Butler 1863, p. 184-185.
  31. Voor het eerst in deze volgorde verschenen in I. Asimov, Runaround, Street and Smith Publications, Inc. 1942. Later zijn de Three Laws terug te vinden in veel boeken, films en andere media.
  32. J. Stewart, ‘Ready for the robot revolution?’, BBC News, 2 oktober 2011; Engineering and Physical Sciences Research Council, Principles of Robotics, <http://www.epsrc.ac.uk/ourportfolio/themes/engineering/activities/ Pages/principlesofrobotics.aspx>, geraadpleegd op 10 juli 2012.
  33. Er zijn momenteel tien soorten militaire robots in gebruik, waarvan onder andere de Samsung SGR-A1 en de General Atomics MQ-9 Reaper autonoom hun wapen kunnen afvuren.
  34. J. Palmer, ‘Call for debate on killer robots’, BBC News, 3 augustus 2009.
  35. J. Palmer 2009.
  36. J.L. Flatley, ‘Navy report warns of robot uprising, suggests a strong moral compass’, Engadget, 18 february 2009.
  37. T. Standage, ‘Morals and the machine’, The Economist, 2 juni 2012.
  38. Nevada Assembly Bill No. 511, zie <http://www.leg.state.nv.us/Session/76th2011/Bills/AB/AB511_EN.pdf>, geraadpleegd op 9 juli 2012. Zie ook A. Knapp, ‘Nevada Passes Law Authorizing Driverless Cars’, Forbes, 22 mei 2011.
  39. J. Weizenbaum, Computer Power and Human Reason: From Judgment To Calculation, San Francisco: W. H. Freeman 1976.
  40. Weizenbaum 1976, p. 222.
  41. A.W.M. Mooij, Psychiatrie, recht en de menselijke maat: Over verantwoordelijkheid, Amsterdam: Uitgeverij Boom 1998, p. 93.
  42. P.H. Kahn et al., ‘Do people hold a humanoid robot morally accountable for the harm it causes?’, HRI ’12 Proceedings of the seventh annual ACM/IEEE international conference on Human-Robot Interaction, p.33-40.
  43. Van Alex Proyas uit 2004, zie <www.imdb.com/title/tt0343818/>.
  44. Voor het verslag van de bijeenkomst en de richtlijn zelf zie: Engineering and Physical Sciences Research Council, Principles of Robotics, <http://www.epsrc.ac.uk/ourportfolio/themes/engineering/activities /Pages/principlesofrobotics.aspx>, geraadpleegd op 10 juli 2012.
  45. Zie paragraaf 3.3.
  46. Voor zover dit een proces van schenking is en niet door een robot-revolutie zal worden afgedwongen, wat misschien wel meer voor de hand ligt gezien de geschiedenis van de mens. De filosoof Geoffrey Brown meent overigens dat het voor de vraag naar robotrechten niet eens relevant is dat de robot menselijke structuren aanneemt. Hij stelt in deze context dat: “[There is not] any reason to suppose that only our own physical make-up is such as to give rise to the appropriate conditions for autonomy”. Zie G. Brown, Minds, brains and machines, Bristol: Bristol Classical Press, p. 145.
  47. Schermer 2009, p. 35.
  48. D.D. Stull & M.J. Broadway, Slaughterhouse Blues, Wadsworth: Cengage Learning 2004, p. 77; S.E. Klein, ‘The Problem Of Animal Rights’, The Atlas Society June 2004, <http://www.atlassociety.org/animal_rights>, geraadpleegd op 11 juli 2012.
  49. P. Singer, Animal Liberation, New York: HarperCollins Publishers 2002, p. XX.
  50. Idem.
  51. G.J. MacDonald, ‘If you kick a robotic dog, is it wrong?’, The Christian Science Monitor, 5 februari 2004, <http://www.csmonitor.com/2004/0205/p18s01-stct.html>, geraadpleegd op 11 juli 2012.
  52. R.A. Brooks, De kunstmatige mens: Hoe machines ons veranderen (vert. Maaike Post en Arjen Mulder), Amsterdam: De Bezige Bij 2002, p. 241.
  53. Zie paragraaf 3.2.
  54. Standage, 2 juni 2012.

Leave a Reply

Your email address will not be published. Required fields are marked *