Proefproces rond seksrobot zoekt naar juridisch kader voor intelligente software.
Het hoger beroep van een slepende zaak tussen een seksrobot en haar werkgever dient morgen in Rotterdam. In eerste aanleg kreeg de eisende bordeelhouder gelijk: de robot voldeed niet aan haar specificaties en trad met haar getwitter buiten de grenzen van haar gecertificeerde functie.
Advocaat Artificial Intelligence (AI) nodig?
Bel vrijblijvend
Een fictief proefproces van een seksrobot die in conflict raakte met haar werkgever nadat ze viral ging met een online klacht over een mishandelende klant diende vorige week in Eindhoven. Pure sciencefiction natuurlijk, maar de bedoeling van het geding bij de kantonrechter is om te werken aan een juridisch kader voor kwesties die het volgende decennium waarschijnlijk gaan spelen, zoals de aansprakelijkheidsvraag wanneer een zelfrijdende auto bij een ongeval betrokken raakt. Dinsdagavond 9 oktober dient een hoger beroep in Rotterdam (onderaan dit artikel meer informatie).
Er ligt nu een initiatiefvoorstel van de EU over een certificeringssysteem voor AI’s. De Nederlandse juristen hebben dit aangegrepen om na te denken over wat zo’n certificaat moet omvatten en hoe je de regels daarvan kunt handhaven met intelligente programma’s die steeds vaker als een black box opereren. Omdat het de bedoeling is van zulke software om tot oplossingen te komen waar we zelf nog niet aan gedacht hebben, open je de deur voor allerlei problemen over de voorspelbaarheid van de computers, aansprakelijkheid en verantwoordelijkheidsvragen en uiteindelijk zelfs de vraag wat nog een proportionele eis is wanneer machines zich verder ontwikkelen.
Futuristisch voorbeeld voor hedendaagse vragen
Door te kijken naar vragen of AI meer geldt als rechtspersoon (als een firma) of dat het als natuurlijk persoon (een mens) functioneert, kunnen we kijken naar vragen over bijvoorbeeld het belang van de samenleving versus het individuele belang. In dit voorbeeld gaat het overigens niet om het individuele belang van de robot, maar om dat van de bordeelhouder Janus Gladjakker, de eiser in de zaak. Die ziet zijn inkomsten bedreigd, omdat klanten liever niet naar een ‘fysiek ontspanningscentrum’ gaan waar hun anonimiteit te grabbel wordt gegooid door een boze seksrobot die op Twitter haar onvrede uit en een klant met naam en toenaam noemt.
Aan de andere kant is er een maatschappelijk belang. De vrije uitingen van de seksrobot waarschuwen de maatschappij voor een zeer agressieve klant die een potentieel gevaar vormt. De seksrobot toog naar Twitter toen deze klant haar arm van haar romp scheurde en diverse vitale onderdelen – zoals haar spraakcentrum – beschadigde met zijn gedrag. Mr. Dohmen, die de seksrobot verdedigde, noemde haar een spreekwoordelijke ‘kanarie in de kolenmijn’. Waarop de advocaat namens de bordeelhoudster, mr. Merel Dorgelo reageerde: “Een kanarie in de kolenmijn in prima, maar geen kanarie op het internet.”
De discussie kwam uiteindelijk neer op de fictieve EU-certificering van de seksrobot. Robot Sadie is een SM-robot en als zodanig heeft ze geleerd pijn te registreren en kan ze zich inleven in lijden. Dat is voor haar functie een geschikte toepassing, maar wanneer we het hebben over “angst en lijden” komen we in een juridisch schimmig gebied over de rechtspersoon. Een bedrijf ervaart immers zelf geen angst of lijden, alleen de werknemers of bestuurders. Moet Sadie dan bekeken worden als dier, zonder expliciete rechten, of meer als minderjarige, met beperkte rechten, of blijf je bij het idee van een rechtspersoon?
Van ondersteunend tot autonoom
Nou is dat Asimov-terrein en iets waar we als het goed is de komende decennia nog niet mee te maken krijgen. Maar een voor een specifieke functie geldende certificering en slimme apparatuur die naar buiten treedt, dat gaan we vrij snel meemaken. Hoe moet zo’n AI-certificaat er dan uitzien? Dat is een van de interessante vragen die uit het proefproces naar voren komen, omdat dit A) een begin is om na te denken over AI en de rechtspraak B) een kwestie is die een minder groot sciencefiction-gehalte heeft en C) een goed beginpunt oplevert voor dat begeerde juridische kader.
Denk bijvoorbeeld aan Samsungs militaire robots die de grens bij Zuid-Korea bewaken, waarbij dit soort vragen eigenlijk nu al spelen. De work-around voor Samsungs SGR-A1, die in principe autonoom kan werken, is dat de robot alleen maar informatie geeft en de trekker nog daadwerkelijk door een mens moet worden overgehaald. Zo blijft de robot meer een wapen van een soldaat (en is een schietincident hetzelfde te behandelen zonder ingewikkelde AI-vraagstukken te moeten oplossen), en minder een zelf opererende ED-209, met alle potentiële problemen van dien.
Het idee van hoe zo’n certificering er precies uit moet gaan zien, is nog niet duidelijk. De EU rept in zijn initiatiefvoorstel uit 2017 over ‘Europees verantwoorde AI-systemen voorzien van Europese AI-certificering en labeling’, maar daar wordt verder geen invulling aan gegeven. Waarschijnlijk moet zoiets analoog zijn aan een CE-keurmerk, met vastgestelde randvoorwaarden en specificaties waar elektronische apparatuur aan moet voldoen.
Gij zult niet tweeten
De discussie daarover kwam eigenlijk pas goed en wel op tijdens het proefproces en professor Van den Hoven van Genderen oppert dat het voor een vervolgsessie een goed idee is om zo’n certificaat op te stellen, zodat we beter kunnen kijken naar de struikelblokken die zoiets opleveren. In dit geval stuitten de twee partijen op de vraag wat de gespecificeerde grenzen waren van een certificaat voor een seksrobot. Logischerwijs zouden daar randvoorwaarden in staan over het veilig en verantwoorde uitvoeren van de functionaliteit (in dit geval het toepassen van SM), maar zou zo’n certificering ook grenzen bevatten als “gij zult niet tweeten”?
“Een certificaat omschrijft de verplichtingen en handelingen van de robot en kunnen we beschouwen als de statuten van een rechtspersoon”, oordeelt de zittende rechter, Mr. Willem Korthals Altes. In de statuten staat bijvoorbeeld omschreven wie de bestuurders zijn en hoe afvloeiing is geregeld. “In het certificaat staat niets over uitingen die betrekking hebben tot dat handelen en de gedaagde is dus buiten de grenzen van het certificaat getreden”, meent de kantonrechter. “De eis voor het verbod op de verspreiding van negatieve informatie is daarom toegewezen.”
Los van het voorbeeld van Sadie wordt er met dit proces nagedacht over hoe een EU-certificaat voor een praktisch hulpmiddel als een zelflerende virtuele assistent, beslisalgoritme of zelfrijdende auto eruit zou moeten zien. Moet je van tevoren definiëren wat precies de rechten en plichten zijn voor de houder en de eventuele kunstmatige entiteit zelf, kun je zulke leidende AI-documentatie beter ontwikkelen aan de hand van praktijkvoorbeelden wanneer die zich voordoen, of is het een beetje van allebei om een weg te vinden in het donker?
Het hoger beroep in de zaak van bordeel RoboLove tegen kunstmatige entiteit Sexy Sadie dient morgen (dinsdag 9 oktober) in congres- en debatcentrum Armenius in Rotterdam. Logischerwijs gaan we meer argumenten zien over eventuele regels met betrekking tot het maatschappelijk belang die een certificaat zou moet bevatten. De aanvang is 20.00 uur en toegang kost 6 euro (voor studenten halve prijs). Hier praktische informatie via Armenius.
Juristen als IT-rechtprofessor Rob van den Hoven van Genderen van de Vrije Universiteit, mr. Hub Dohmen (ooit begonnen als techneut, maar nu jurist) en kunst- en economieprofessor Giep Hagoort zijn de oprichters van een vereniging die zich bezighoudt met dergelijke vraagstukken. Wat zijn de gevolgen voor ons rechtssysteem als we worden geconfronteerd met zelflerende algoritmes die buiten de aanvankelijk gespecificeerde parameters van hun functie opereren? Dat is de vraag waar de nieuwe Nederlandse Vereniging voor AI- en Robotrecht (NVAIR) zich mee bezighoudt en deze zaak is een eerste aftrap voor de NVAIR. Die start officieel op 1 januari 2019.
9 oktober 2018.
Dit artikel door Henk-Jan Buist verscheen op 8 oktober op computerworld.nl.