Interview
Hub Dohmen
Artificiële Intelligentie is ongrijpbaar voor de rechtsregels van vandaag.

Leestijd: 14 minuten

Artificiële Intelligentie is ongrijpbaar. Ongrijpbaar betekent in dit geval ook ongrijpbaar voor de rechtsregels waarvan we ons vandaag bedienen. Er gaan steeds meer stemmen op om een soort derde rechtspersoonlijkheid in het leven te roepen: het systeem wordt zelf aansprakelijk.

Hub Dohmen is als advocaat gespecialiseerd in intellectuele eigendom, techniek en ICT. Zijn praktijk is in het Nederlandse Tilburg gevestigd. Hij krijgt steeds meer vragen over de mogelijke juridische gevolgen van artificiële intelligentie. Verzekeringswereld ging op gesprek.

Artificiële intelligentie belooft de mensheid veel goeds. De mogelijkheden zijn onbegrensd. Maar er zijn toch experten die waarschuwen. We mogen genieten van het goede, maar moeten ons toch bewust zijn van de mogelijke schaduwkant. AI zou ons wel eens boven het hoofd kunnen groeien. Moeten we ongerust worden?

Hub Dohmen:
“De opportuniteiten zijn inderdaad enorm. Maar we moeten ons zeer bewust zijn van de beperkingen en de risico’s. Als we ons tijdig (en dat is wat mij betreft nu meteen) bewust worden van de beperkingen en risico’s en daar oplossingen voor zoeken, dan kunnen we de kansen en mogelijkheden optimaal benutten. Maar dat is wel een absolute voorwaarde. Als we het andersom doen en AI verder op ons laten afkomen, dan kunnen we door de risico’s ingehaald worden en zal er niet genoeg meer aan te doen zijn.”

Als je over risico’s spreekt , waar moeten we dan vooral op letten?

Hub Dohmen:
“Het eigenaardige van zelflerende algoritme-technologie – want daar hebben we het over – is dat we het risico niet kennen. Dát is het grootste gevaar. Doordat we op niet betreden paden komen, weten we niet wat we zullen zien. Het is onontgonnen terrein. We hebben wel ideeën over de soorten risico’s en zodra je de contouren van een risico kent, is het ook mogelijk om er oplossingen voor te bedenken. Het lastigste zijn de risico’s waar we nog niets van weten. Daarom zeg ik: neem een vlucht voorwaarts. Doe onderzoek zodat we kunnen te weten komen wat we nu nog niet weten. Dat is belangrijk.”

Internationaal wordt ervoor gepleit om minstens evenveel onderzoek te doen naar de mogelijke schaduwkant van AI als naar de ontwikkeling ervan. Is het een goede houding om evenveel belang te hechten aan die tegenkant.

Hub Dohmen:
“Het kan niet anders dan dat je bij het ontwikkelen en ontwerpen ook al oog hebt voor het oplossen van eventuele risico’s. Het interessante daarbij is dat er heel veel initiatieven ontstaan in onze maatschappij die de facetten van – noem het maar – robotisering, belichten. Mijn oog viel deze week op een kunstenaar die tijdens de Dutch Design Week een project zal tonen van ‘een psychiatrisch ziekenhuis voor robots’ (De DDW vond plaats van 22 tot 30 oktober, redactie). Dat is een kwinkslag, maar toch ook niet helemaal gespeend van realiteitszin. Want we zijn op dit moment bezig met het almaar slimmer maken van robots. En is het niet zo dat die robots een bewustzijn krijgen? En als ze een bewustzijn krijgen, kunnen ze dan ook niet geestesziek worden?”

Stanley Kubrick toonde al zo’n paranoïde computer in de film 2001: A Space Odyssey. Dat was in 1968, straks 50 jaar geleden. Straks kan dat scenario werkelijkheid worden.

Hub Dohmen:
“We moeten ons dus dringend bezig houden met de betekenis van wat we aan het creëren zijn.”

In maart versloeg Googles Alpha GO een Koreaanse meester in het spelletje GO, dat complexer is dan schaken. En Alpha Go deed daarbij zetten die op het moment zelf onbegrijpelijk waren, maar achteraf geniaal bleken.

Hub Dohmen:
“Dat is meteen een illustratie van een kans die ook een risico kan zijn. Zo’n algoritme wordt zo slim als zelflerend systeem dat het slimmer wordt dan wij. Nog veel slimmer zelfs dan een groep slimme mensen bij elkaar. Straks kunnen we met onze beperkte inzichten en kennis niet meer beoordelen of de beslissing van een slim algoritme geniaal was of uitermate dom. En we zullen dat zeker niet meteen kunnen beoordelen. Wanneer gaan we dan ingrijpen? Nemen we de tijd om uit te zoeken of iets geniaal was of niet? Hebben we die tijd wel? Dat zijn vraagstukken die me geweldig boeien maar waar ik het antwoord niet op heb. In mei 2010 was er een flash crash op de Amerikaanse aandelenmarkt. Ineens begonnen al de geautomatiseerde systemen die aan elkaar gelinkt zijn te verkopen. En dat duurde een halfuur lang. De menselijke handelaren raakten in paniek en konden niet doorzien wat de oorzaak was voor die transacties. Ze hebben vijf maanden onderzoek gedaan voordat duidelijk werd waarom die transacties plaatsvonden.

Zolang een systeem geïsoleerd werkt, kan je het gevaar afzonderen. Maar of een systeem geïsoleerd is, weet je op de duur ook niet meer. Een slim logaritme zou wel eens een rookgordijn kunnen optrekken om de controle te misleiden en zijn werkelijke doel te bereiken. Geïsoleerde systemen bestaan eigenlijk niet meer. Alles waar een internetstekker aanhangt, is per definitie niet geïsoleerd. Wat is er dan nog wel geïsoleerd?”

Als het misloopt met zo’n intelligent algoritme dat bijvoorbeeld de energievoorziening van een stad beheert, hoe moeten we daar dan mee omgaan? Hoe kunnen we ons voorbereiden?

Hub Dohmen:
“Ik zou willen dat ik het antwoord had. Op dit moment heb ik enkel vragen. Er zijn wel richtingen waarin je zou kunnen denken. Ik ben voorstander om specialisten uit allerlei disciplines, IT, ethiek, recht, beleid, etc. te laten samenkomen om dit soort vraagstukken samen te behandelen. Als ik even naar het juridische kijk, zullen we ons recht moeten laten evolueren. Onze wetgeving is niet future proof. Maar wat moet er dan gebeuren? Moet er misschien een algoritmewetgeving komen? Een van de mensen die daar interessante gedachten over ontwikkelt is Henny van der Pluijm. Hij schreef een boek over de rechten en plichten van robots. Van der Pluijm stelt voor om een autoriteit voor algoritmen op te zetten, een soort controledienst die vooraf toetst of een algoritme een gevaar inhoudt. Dat lijkt me helemaal geen gekke gedachte. Elders waar systemen een grote invloed kunnen hebben op de gezondheid van onze maatschappij, hebben we dat ook gedaan. In Nederland hebben we de autoriteit voor de financiële markt. In België is dat de FSMA. We hebben voedselagentschappen…”

We zijn het stilaan gewoon om tips te krijgen via de smartphone. De GPS stuurt ons de juiste weg op. Zullen we AI straks niet te vaak als smoes gebruiken? Zullen we nog helder nadenken? Kunnen we systemen de schuld geven als we het kanaal in rijden?

Hub Dohmen:
“Dat zijn interessante vragen. Ik herken enigszins een parallel met volwassenen en kinderen. Als ik mijn zoon bij een probleem vertel wat hij moet doen, dan vertrouwt die op mijn autoriteit omdat hij ervan uitgaat dat ik het beter weet. En wij vinden dat het tot een bepaalde leeftijd ook zo hoort te zijn. We hebben dat wettelijk zo geregeld. Tot op een bepaalde leeftijd wordt een kind geacht zelf niet aansprakelijk te zijn voor bepaalde handelingen. Als we ervaren dat onze systemen bruikbare en slimme beslissingen nemen en achteraf blijkt dat die beslissingen inderdaad ‘heel slim’ waren, dan gaan we daar steeds meer op vertrouwen. We gaan dat systeem als een autoriteit beschouwen. Maar wat gaat dat betekenen voor onze aansprakelijkheid? Is het dan nog een eigen beslissing als een systeem ons adviseert om rechts of links af te slaan?”

Er wordt gepleit voor een school voor robots. De AI-systemen worden dan een tijdje in quarantaine gehouden en een ‘opvoeder’ controleert hoe ze leren en zich gedragen. Maar een diploma zegt niets over wat je doet met de kennis. Wat als een systeem slechte dingen leert?

Hub Dohmen:
“En de persoon die diploma’s moet verstrekken, heeft die dan wel de intelligentie en het inzicht om het examen af te kunnen nemen van zo’n slim logaritme? Is de leerling op een bepaald moment niet slimmer dan de examinator?”

Vandaag is een robot een object zonder rechten en plichten. Maar als een machine intelligent wordt en autonoom beslissingen neemt, moeten we dan niet denken aan een machine met rechten en plichten?

Hub Dohmen:
“Ik denk het wel. Het is nu nog steeds zo dat de bezitter van een apparaat of de achterliggende natuurlijke persoon verantwoordelijk is voor de handelingen ervan. Maar robots worden autonoom lerende machines die zelf beslissen om daden te stellen of niet te stellen. Als je kijkt naar gebieden als smart maintenance, dan heb je het over systemen die hun onderhoud zelf regelen. Dat systeem is zelflerend en ontwikkelt inzichten: ‘ik constateer dit en dat en uit ervaring weet ik dat dit en dat binnenkort kapot gaat, dus heb ik onderhoud nodig’. Het systeem bestelt het onderhoud dan ook. Daar zijn kosten aan verbonden. Er worden keuzes gemaakt over welk onderhoud nodig is. Er wordt een overeenkomst gesloten. Zijn dat zelfstandige beslissingen? Of zijn dat beslissingen die geïnitieerd zijn door de oorspronkelijke programmeur van dat algoritme? En het onderhoud wordt vaak nog online verstrekt door een ander slim systeem. Zo krijg je een ecosysteem van slimme systemen waarbij geen onderhoudsmens aan te pas komt. Maar dat onderhoud heeft misschien wel een wijziging van het systeem tot gevolg. Wat als een systeem de verkeerde beslissing neemt of een verkeerd onderhoud kiest waardoor schade ontstaat en het industriële proces fout loopt? Daar moet dan voor betaald worden. Wie is dan aansprakelijk? De slimme machine die rechten en plichten krijgt? Hoe moet die robot die schadevergoeding betalen? Als een robot aansprakelijk kan zijn, dan zal die dergelijke aanspraken ook moeten kunnen vergoeden. Maar die heeft geen eigen portemonnee.”

Tenzij je zo’n portemonnee verplicht maakt.

Hub Dohmen:
“Dat is een idee waar ik en anderen mee spelen. Voor je een algoritme volledig aan het werk zet, zou die robot over een eigen portemonnee moeten beschikken. De robot is dan ook de drager van een verzekering waarvan de inhoud kan evolueren.”

Zoals een robotauto zou kunnen beslissen om tijdens vrije momenten wat bij te klussen als Uber-taxi?

Hub Dohmen:
“Op zich kun je een parallel trekken naar rechtspersonen. Juridisch kennen we nu twee entiteiten die dragers van rechten en plichten kunnen zijn. De natuurlijke persoon (mensen van vlees en bloed) en de rechtspersonen (de BV’s, NV’s…). Een rechtspersoon heeft een bezit, kan schulden aangaan, moet zich verantwoorden. We hebben dat ooit zo geconstrueerd omdat we dat nodig hadden om onze maatschappij te laten functioneren, om de aansprakelijkheid van een mens los te koppelen van de onderneming die hij start. We wilden een balans vinden tussen risico nemen en bescherming bieden. Zo groot is de stap dus niet om een algoritme als een rechtspersoon te behandelen. Het krijgt rechten en plichten met voorafgaand ook nog de bevoegdheid om overeenkomsten te sluiten.

Bij die nieuwe rechtspersoon zouden we wel een vangnet moeten installeren. Bij een NV hebben we dat ook gedaan. Feitelijk is er in een vennootschap altijd iemand die een bestelling doet, een opdracht uitvoert… We hebben wel gewild dat die persoon niet aansprakelijk is, maar we hebben ook gemerkt dat je daar een grens aan moet stellen. Want het mag niet zo zijn dat iemand om het even wat kan doen onder het mom van ‘dit is toch een NV’. Want dan zou zo’n vehikel kunnen gebruikt worden om elke aansprakelijkheid te ontlopen. Daarom hebben we de bestuurdersaansprakelijkheid uitgevonden. Als jou een ernstig verwijt kan gemaakt worden als ‘handelende persoon’, kun je toch persoonlijk aansprakelijk worden gesteld. Bij een aanspreekbaar algoritme kunnen we ook zo’n vangnet voorzien. De mensen die betrokken zijn bij de opvoeding van het algoritme moeten bijvoorbeeld aangesproken kunnen worden op hun bijdrage aan wat zo’n systeem uiteindelijk doet. De bedenker mag zich niet volledig achter het algoritme kunnen verschuilen.”

Wanneer wordt een systeem zelfstandig?

Hub Dohmen:
“Dat is een semantische discussie. Daar moet een team van deskundigen zich over buigen. Zij moeten de grens tussen ‘onzelfstandigheid’ en ‘zelfstandigheid’ bepalen. De rechterlijke macht zal daar een rol in te spelen hebben. Maar de wet zal altijd geïnterpreteerd moeten worden. Dus zullen rechters zich daarover moeten buigen. Dat is bij kwesties over bestuurdersaansprakelijkheid bij rechtspersonen ook het geval.”

Wat als zo’n intelligente robot iets uitvindt?

Hub Dohmen:
“Dat is nog een aspect waar we aan moeten denken. Is het straks denkbaar dat een artificieel intelligent systeem muziek schrijft of iets anders ontwerpt. En zo ja, wie is dan de eigenaar van de rechten? De schrijver van de software en de logaritmes? De eigenaar van het systeem? De expert wiens kennis als input werd gebruikt? In het geval van artificiële intelligentie heeft de robot zichzelf bekwaamd. En welke stukje technologie heeft dan voor de inspiratie gezorgd? Wie heeft dat stukje aangeleverd of mogelijk gemaakt? Of is de artificiële intelligentie zelf de eigenaar? En mag dat systeem dan ook zelf beslissingen nemen over wat er met die muziek gebeurt? Wat als de robot iets uitvindt? Kan die daar een patent voor krijgen? Of auteursrechten verdienen? Voor een werknemer hebben we dit soort zaken geregeld. Voor AI zullen we dat ook moeten doen.”

Als het ernstig misloopt, dreigen wel zware procedureslagen. Hoe ondoorgrondelijker een systeem, hoe moeilijker het zal worden om een verantwoordelijke partij af te bakenen.

Hub Dohmen:
“Je zult rechtbanken krijgen die hierin gespecialiseerd zijn en waar de kennis gecentraliseerd is. Net zoals je militaire en handelsrechtbanken hebt, dat kan niet anders.”

Moeten verzekeraars op zoek naar gespecialiseerde kennis?

Hub Dohmen:
“Je hebt weinig ervaring uit het verleden, maar je moet wel iets bedenken voor de toekomst. Dat is zeker een uitdaging. Wellicht moet de overheid een rol opnemen en een soort waarborgfonds voorzien om extreme risico’s op te vangen, de categorie die buiten de verzekering valt.”

Een cyberrampenfonds?

Hub Dohmen:
“Zoiets. Het is nog niet duidelijk welke partijen bij uitsluiting moeten aangesproken worden. Maar laten we wel al oog hebben voor de partijen waar we nu al van weten dat ze stakeholders zijn. Verzekeringen zullen daar zeker een rol in spelen.”

Denken we nu te veel als een kerstkalkoen die elk dag blij is omdat hij lekker eten krijgt en in de verste verte het mes niet verwacht.

Hub Dohmen:
“Een intelligent systeem kan zo intelligent worden dat het te intelligent wordt en ons in de maling neemt. Laten we dus nu al waakzaam zijn en regels en oplossingsmethoden bedenken. Luister naar deze vragen en heb aandacht voor onze menselijke rol. Denk na over hoe we ons oordeel des onderscheids kunnen blijven waarmaken. Wij vinden dat we ethiek hebben. Als wij vinden dat wij beslissingsmacht moeten behouden, dan moeten we een rem voorzien. We hebben een toetsmoment nodig, een moment waar we als mens beslissen. De roboticawetten van Isaac Asimov (1919-1992) zijn nog altijd actueel. Eerste wet: ‘Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt’. Tweede wet: ‘Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste wet’. Derde wet: ‘Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede wet.’ Je merkt dat de discussie niet nieuw is.”

Wat is jouw advies aan verzekeraars die de aansprakelijkheid van deze intelligente ‘robots’ willen verzekeren?

Hub Dohmen:
“Je kan het niet alleen. We moeten meerdere disciplines bij elkaar brengen. We hebben geen ervaring uit het verleden en moeten anticiperen op wat komt. Maar we zijn niet helemaal blind. Er zijn parallellen te trekken naar andere domeinen en andere ervaringen. Verzekeraars zullen bij het ontwikkelen van producten heel goed moeten kijken naar de overeenkomsten tussen hun klanten. Ze zullen moeten toetsen onder welke voorwaarden klanten AI-systemen inschakelen. Zonder die toets zal de verzekeraar onmogelijk een product kunnen ontwikkelen. Het zal in samenspraak met klanten en brancheorganisaties moeten gebeuren. Zoek aansluiting bij collega-concurrenten.

Zorg als verzekeraar ook dat je kennis verwerft in deze materie. Begrijp hoe het werkt zodat je beseft wat er op je afkomt. Durf risico’s te benoemen. Begin vooral klein en probeer niet alles ineens volledig te regelen. Deel het risico met elkaar en probeer oplossingen uit. Als je één partij voor alles aansprakelijk wil stellen, zal niemand nog durven bewegen en is er ook geen vooruitgang mogelijk. We zullen klein moeten beginnen, de risico’s samen moeten delen en leren van pilootprojecten. We moeten erover praten, maar ook stap voor stap handelen.”

Moeten we bang zijn van de geest in de machine?

Straks vertelt je zelfrijdende auto dat die even naar de carwash rijdt omdat die zich wat vuil voelt. Het debat over de verzekerbaarheid van de zelfrijdende auto is nog maar net begonnen en er dient zich al een nieuwe discussie aan. Want robots worden steeds intelligenter en nemen zelf beslissingen. En daar bestaan nog geen wetten voor.

Zet even het beeld opzij van de machine die op een blikken mens lijkt. Laat de zorgrobots even rusten. Vergeet de auto die zichzelf parkeert en de mechanische arm die routinewerk doet. Er komen intelligente dingen aan die niet enkel taken van de mens overnemen, maar ook autonoom werken en beslissingen nemen.

Artificiële Intelligente (AI) systemen leren al doende en zijn erop geprogrammeerd om zichzelf te blijven vervolmaken in het bereiken van hun doel. Ze beoordelen informatie en situaties, zoeken daarin naar patronen, maken voorspellingen en nemen beslissingen. In een grasmachinerobot die zelf de meest optimale route berekent om je gazon af te rijden, kun je al een vleugje AI bespeuren. Maar het kan ook gewoon om intelligente software gaan, die zichzelf schrijft en herschrijft en over computers verspreid leeft.

Bij artificiële intelligentie is er dus sprake van een soort elektronisch brein, dat bijleert en besluitvorming overneemt. Als er vandaag miljarden worden geïnvesteerd in artificiële intelligentie, dan gaat het echt om investeringen in onderdelen als zelfstandig redeneren, plannen maken, situaties doorgronden, problemen oplossen, taal en ideeën begrijpen en menselijke vaardigheden aanleren. Deep learning en machine learning zijn in volle ontwikkeling. Denk aan Google, Watson, IBM, Amelia, IP-Soft…

Die artificiële intelligentie zal ook de financiële sector binnen sluipen, bijvoorbeeld door het investeringsgedrag van klanten beter te begrijpen en dag en nacht advies te verlenen zonder dat er nog één mens op de helpdesk zit. Intelligent agents is het woord dat nu de ronde doet. De intelligente agent zal tegelijk kennis hebben van alle mogelijke klantenprofielen, alle mogelijke vragen, alle mogelijke oplossingen én alle historieken en zal daarover in ‘dialoog’ kunnen gaan maar dan wel met alle klanten tegelijk. Nog een stap verder en klanten zullen over een financiële butler beschikken die binnen bepaalde grenzen het gezinsbudget beheert, zelf bestellingen plaatst én de koelkast vult.

Is dat verre toekomstmuziek? Helemaal niet. Amazon heeft Alexa die je favoriete muziek speelt. Apple heeft Siri, de slimme spraakassistent die vragen beantwoordt. Google heeft Google Now dat jou interesses volgt en je in functie van de verkeersdrukte slimmere routes naar je bestemming toont. Microsoft biedt Cortena en Bing aan. Amazon doet aankoopsuggesties. Netflix stelt leuke televisieseries voor. Dat gebeurt allemaal dankzij intelligente logaritmes en technieken van marketing automation die je surf- en koopgedrag zorgvuldig matchen met dat van andere consumenten. Facebook herkent je vrienden op andere foto’s. Hoe meer foto’s je post en mensen tagt, hoe slimmer de Facebook-logaritmes worden, en hoe accurater het je vrienden herkent. We vinden het almaar normaler dat onze smartphone een restaurant in de buurt aanraadt of ons een gepaste tweet suggereert en ons vraagt om die te mogen posten. Die artificiële communicatie zullen we straks niet meer van de ‘echte’ onderscheiden. Straks zal de cybernetische vriend(in) je vragen beantwoorden voor je ze stelt.

Artificiële intelligentie voedt zich met data. Zo leert het systeem bij. Net als een mens dus. En we zijn allemaal bereid om grote hoeveelheden data met machines te delen. Elke foto en zin die we online posten, elke zoekopdracht op het net, of elk gebruik van een app vertelt iets over wie we zijn, hoe we denken, hoe we ons voelen. Al die informatie geven we weg, vaak zonder we dat beseffen. We weten niet wat ermee gebeurt. En we weten ook niet of die data in ons voordeel of in ons nadeel wordt gebruikt. Nu gaat het vaak nog om data die bekomen wordt via onze smartphone en ons surfgedrag. Maar die intelligentie wordt ook ingebouwd in de apparaten in en rond ons huis, in onze auto… We staan allemaal met elkaar in verbinding via het Internet of Things… en al die data worden straks geïnterpreteerd door kunstmatige breinen die (straks) vele keren slimmer, sneller en ondoorgrondelijker zijn dan alle menselijke analisten samen kunnen bevatten.

De manier waarop die artificiële intelligentie zich manifesteert, wordt ook steeds slimmer. Daardoor zullen we wat artificieel is steeds minder als artificieel kunnen herkennen. De AI kan zich bedienen van een kunstmatige stem of een boodschap op je scherm. Of ze kan gewoon hele systemen gaan besturen, zonder dat je daar van buitenaf weet van hebt. Hoe intelligenter en menselijker de robot wordt, hoe moeilijker het zal worden om te begrijpen wat er juist gebeurt.

Als een systeem zich met data voedt en daarin voor zichzelf een weg zoekt, kan het ook eens misgaan. Net als bij een kind dat plots een scheldwoord oppikt en de inhoud ervan nog niet begrijpt. Begin dit jaar maakte een experiment duidelijk dat zelfs de slimste onderzoekers en programmeurs niet alles kunnen voorzien. In maart 2016 zette Microsoft op Twitter een experiment op met een automatische chatbot Tay. In minder dan 24 uur werd het experiment stopgezet. Tay bleek zich behoorlijk racistisch te gedragen. Tay bleek zich ook te voeden met de kleine kantjes van de mens. De ‘burn in hell’- opmerkingen die Tay zelf ontving, begon de machine zelf te gebruiken: chill, i’m a nice person! I just hate everybody.

Aan de ene kant belooft artificiële intelligentie de mens ongeremde mogelijkheden om zijn leven aangenamer en gemakkelijker te maken. Maar er is een schaduwkant, een dark side. Hoe kan vermeden worden dat AI zich bedient van het slechte in de mens? Wat als het systeem gekraakt wordt? Wat als die machine straks autonoom beslist om de data in ons voordeel of tegen ons te gebruiken? Wat gebeurt er als zo’n systeem zichzelf een ethiek aanleert die wij (met ons mensenverstand) niet meer begrijpen? Misschien zal het artificiële systeem zichzelf niet meer als artificieel zien? Wat als het systeem zo slim is geworden dat het zich niet meer laat stilleggen? Als je artificiële intelligentie op de wereld loslaat, krijg je een geheel nieuwe soort risico’s.

Techreuzen zoals Amazon, Facebook, Microsoft en Google willen hun technologie veilig houden door ze menselijke waarden mee te geven. Daarvoor hebben ze samen met academici en onderzoekers een consortium opgericht (het Partnership on Artificial intelligence to People and Society) om technische standaarden te ontwikkelen. Begin 2015 waarschuwden experten van het ‘Future of Life’-instituut via een open brief voor de gevaren van artificiële intelligentie. Als AI-systemen zichzelf voortdurend verbeteren, zouden ze wel eens aan de controle van de mens kunnen ontsnappen en zich tegen de mens keren. AI biedt heel veel kansen. Maar net daarom is er meer onderzoek nodig naar het vermijden van de gevaren. De brief is ondertekend door mensen als Stephen Hawking en Tesla-oprichter Elon Musk (futureoflife.org/ai-open-letter).

Er gaan stemmen op die zeggen dat het onderzoek naar het mogelijke falen van AI en het beperken van de risico’s ervan minstens evenveel aandacht en geld nodig heeft als het onderzoek naar de mogelijkheden van AI en AI zelf. Leggen we de machines straks een schoolplicht op? Komen er straks vacatures voor computeropvoeders? Het debat is volop gaande.

Hans Housen

Bron: Verzekeringswereld (december 2016), Wolters Kluwer Belgium
(pdf (Nederlands) klik hier)

Source: Monde de l’Assurance (Décembre 2016), Wolters Kluwer Belgium
(pdf (Frans) klik hier)

Afspraak/telefonisch overleg

Wilt u graag een afspraak maken of wilt u uw zaak nu voorleggen, Dohmen advocaten is iedere dag van 9:00 tot 17:00 telefonisch bereikbaar via 013-5821987.

Ook kunt u contact opnemen met ons via het onderstaande formulier: