Robots

Deze gedachten kwamen in mij op toe mijn vrouw en ik een dispuut hadden over de Nest regelautomaat.[1]

Deze past zich aan, aan het gedrag van het instellen van de kamertemperatuur over een bepaalde periode. Het bleek dat Nest iets deed waarvan wij ondanks dat dispuut niet konden achterhalen waaróm Nest dat gedrag vertoonde.

Die gedachten vormden zich tot een gedachtemodel waar in, in een nabije toekomst, een huisrobot ingezet gaat worden in de huishouding van een gezin waarvan de samenstelling is bepaald door de leden van dat gezin. T.w. :

a.         Man-man, Man-man en kind(eren),

b.         Man-vrouw, Man-vrouw en kind(eren),

c.         Vrouw-vrouw, Vrouw-vrouw en kind(eren) en

d.         mogelijk nog meer varianten die in de loop van toekomst zullen worden bedacht of ooit al bedacht zijn.

Een robot integreert zich binnen dat gezin en past zich aan aan dat gezin of groep personen (micromaatschappij). De robot voldoet aan de drie wetten[2] en de nulde wet[3]. De robot leert van dat gezin en het gezin leert omgaan met de robot.

Als wij kijken naar de vier wetten, zal de robot nooit in staat zijn om de mens waar het mee samen leeft kwaad te doen. Ook de Robot wetten in de praktijk[4] verwijzen deels naar “begiftigd met genoeg toereikende autonomie om zijn eigen bestaan te kunnen beschermen”. Deze laatste quote is, denk ik, in mijn gedachtemodel essentieel. De robot zal worden opgenomen in de dynamiek en complexheid van de micromaatschappij: gezin of samenlevende groep personen met al of niet een bepaalde relatie met elkaar.

Zal de robot zich laten beïnvloeden door intriges en de emotionele interacties? Zal het al of niet houvast hebben aan de vier basis wetten plus de robot wetten in de praktijk? Zal het in dat gezin of die groep “partij” kiezen en aan het “twijfelen” worden gebracht ondanks die wetten? Of zal de robot als een splijtzwam gaan werken binnen die micromaatschappij en zal het daardoor uiteenvallen. Of door scheiding of splitsing, waardoor die samenlevingsstructuur uiteenvalt? Is het in staat om zich door middel van die wetten te kunnen distantiëren of neutraal op te stellen binnen dergelijke complexe menselijke interacties?

Dat gedachtemodel zal eerst goed moeten worden uitgewerkt eer wij geavanceerde robots zullen gaan inzetten, die volledig binnen een gezin of groep personen worden geïntegreerd.

Zal die robot zijn “ervaringen” moeten kunnen uitwisselen met andere gezinsrobots? Zullen die robots daarvoor moeten worden uitgerust met een extensie van die voornoemde wetten.

Wij zullen mogelijk een praktische samenwerking van die robots moeten creëren, die voorkomt dat een robot partij zal kiezen en daardoor mogelijkerwijs het die micromaatschappij in gevaar brengt.

Op deze planeet zal dat niet direct een gevaar zijn aangezien er hopelijk voldoende hulp aanwezig zal zijn. Echter op andere werelden, bijvoorbeeld Mars, zal dat een direct gevaar vormen voor de overleving van een dergelijke micromaatschappij.

Ik denk dat deze gedachten natuurlijk al eerder zijn geformuleerd en mogelijk al uitgebreid zijn beschreven. Ik heb geen literatuur onderzoek gedaan en zal dat ook niet doen. Ik ben kunstenaar die alleen zijn vluchtige gedachten probeert te beschrijven.

Ik spreek alleen de hoop uit dat de robot een zegen zal blijken te zijn voor de toekomst van de mensheid.

Amsterdam, 1 december 2016.

Bijlage uit Wikipedia.

De oorspronkelijke drie wetten geformuleerd door Isaac Asimov van de robotica (de calviniaanse religie):

Eerste Wet

Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.

Tweede Wet

Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.

Derde Wet

Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.

Nulde wet

Later formuleerden Robot Daneel Olivaw en Robot Giskard Reventlov een nieuwe wet, die naar hun oordeel van meet af aan lag besloten in de eerste wet. Omdat deze wet boven de eerste staat, noemden zij hem de "Nulde Wet" (de Giskardiaanse reformatie).

Nulde Wet

Een robot mag geen schade toebrengen aan de mensheid, of toelaten dat de mensheid schade toegebracht wordt door zijn nalatigheid.

Gevolg voor de andere wetten:

1.    Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt behalve als dit de Nulde Wet zou schenden.

2.    Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Nulde Wet of de Eerste Wet.

3.    Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Nulde, Eerste of Tweede Wet.

Robotwetten in de praktijk

In navolging van Asimov's drie wetten ontwierpen de robotwetenschappers Robin Murphy (Computer Science and Engineering van Texas A&M) en David D. Woods (directeur van het Cognitive Systems Engineering Laboratory in Ohio) de "Drie Wetten voor Verantwoordelijke Robotica":

1.    Een mens mag geen robot inzetten wanneer dit werk met de robot niet voldoet aan de hoogste wettelijke en professionele normen van veiligheid en ethiek.

2.    Een robot moet afhankelijk van zijn functie mensen voldoende kunnen beantwoorden.

3.    Een robot moet worden begiftigd met genoeg toereikende autonomie om zijn eigen bestaan te kunnen beschermen, zolang hij hierdoor gemakkelijk te bedienen blijft en zijn autonomie niet in strijd is met de Eerste en de Tweede Wet.[1]

Literatuur

De wetten spelen een belangrijke rol in al Asimov's robotboeken. De mazen en zwakheden zijn de basis van de plot in veel van de korte robotverhalen.

Ook door diverse andere auteurs zijn ze opgepakt als een belangrijk thema:

·         Terry PratchettThe Dark Side of the Sun (1976)

·         Roger Williams, The Metamorphosis of Prime Intellect (1994)

 

 

[1] Zichzelf programmerende thermostaat die energie bespaart. De Nest Thermostat leert van je levensritme

[2] Zie bijlage uit Wikipedia

[3] Zie bijlage uit Wikipedia

[4] Zie bijlage uit Wikipedia