Aansprakelijkheid voor ongeval – Tesla

Leestijd: 3 minuten

Aansprakelijkheid voor ongeval. Enige tijd geleden werden we opgeschrikt door een Tesla-autopilotslachtoffer, de heer Brown die in de VS met zijn Tesla onder een vrachtwagen schoot en het niet kon navertellen. De aansprakelijkheidsdiscussie is in de VS nog in volle gang. Maar: hoe zou zoiets naar Nederlands recht gaan? Wij kennen de zogeheten ‘productaansprakelijkheid’. De wet zegt – kort samengevat – dat een product gebrekkig is: “indien het niet de veiligheid biedt die men daarvan mag verwachten, vanuit  het redelijkerwijs te verwachten gebruik.

Aansprakelijkheid voor ongeval - Tesla

Ik denk dat je er vanuit mag gaan dat een percentage mensen dom of roekeloos of beide is. Dus ja, – er even vanuitgaand dat een oplettend bestuurder het ongeval had kunnen voorkomen: gebrekkig product. Naast/in plaats van alle alarmbellen af laten gaan, had de Tesla zich veilig dienen te parkeren in de dichtstbijzijnde parkeerhaven. Maar zijn we er dan? Nee, er bestaat zoiets als “eigen schuld”: “De aansprakelijkheid van de producent wordt verminderd of opgeheven rekening houdende met alle omstandigheden, indien de schade is veroorzaakt zowel door een gebrek in het produkt als door schuld van de benadeelde of een persoon voor wie de benadeelde aansprakelijk is”. Ofwel: de “bestuurder” die een kruiswoordpuzzel aan het invullen is, moet zelf een deel van de schade dragen. Dat wordt weer anders als de chauffeur van de vrachtwagen je Tesla over het hoofd zag door teveel alcohol: “De aansprakelijkheid van de producent wordt niet verminderd, indien de schade is veroorzaakt zowel door een gebrek in het produkt als door de gedraging van een derde.”. Dan ligt ten opzichte van het slachtoffer alle aansprakelijkheid weer bij Tesla (die dan weer verhaal heeft op de vrachtwagenchauffeur).

Naast de productaansprakelijkheid is er nog dit: als je een gevaarlijke situatie veroorzaakt, kan er sprake zijn van een “onrechtmatige daad” wegens “gevaarzetting”. In 1961 liet een Coca-Colabezorger bij café De Munt in Amsterdam het kelderluik open staan, waarna een nietsvermoedende bezoeker naar beneden tuimelde. De hoogste rechter van Nederland kwam toen met de zogenoemde ‘Kelderluikcriteria’, die nog steeds worden gebruikt:

  • Hoe waarschijnlijk is de niet-inachtneming van de vereiste oplettendheid en voorzichtigheid?
  • Hoe groot is de kans dat daaruit ongevallen ontstaan?
  • Hoe ernstig kunnen de gevolgen zijn?
  • Hoe bezwaarlijk (kosten/werk) zijn de veiligheidsmaatregelen?

Passen we dit toe op onze Teslacasus, dan krijgen we de volgende beantwoording. Daarbij ga ik er even vanuit dat er een waarschuwing “handen aan het stuur” afging en dat een oplettend bestuurder van de Tesla het ongeval had kunnen voorkomen. De kans van niet-inachtneming van de vereiste oplettendheid en voorzichtigheid is redelijk groot: als het tot dusver steeds goed ging waarom zou dat nu dan anders zijn? Waarschuwen is niet steeds voldoende.

Een latere “kelderluikzaak” ging over een vliegtuigspotter die na een jetblast met haar hoofd de stoep raakte en daardoor overleed (zie YouTube voor video’s met deze idioten …). Ging vliegveld Sint-Maarten vrijuit, omdat het een waarschuwingsbord had geplaatst: “Pas op! Niet te dichtbij komen, dodelijke jetblast!”. Nee, dat was niet voldoende. Bekend was dat elke dag thrillseekers (zo kun je ze ook noemen …) zich aan het hek vasthielden als er een vliegtuig overkwam, wachtend op die jetblast. Kernvraag was volgens de Hoge Raad “of te verwachten valt dat deze waarschuwing zal leiden tot een handelen of nalaten waardoor dit gevaar wordt vermeden”. Nou, nee dus.

Terug naar Tesla en het ondanks waarschuwing geen handjes aan het stuur houden. De kans dat uit die houding een ongeval ontstaat, is kennelijk groot genoeg voor Tesla om te waarschuwen dat je de handen aan het stuur moet houden. Verder was het ongeval in Amerika niet het eerste dodelijke auto-pilotongeluk met een Tesla. Volgens dit bericht is het aantal Tesla-ongelukken gedaald sinds Tesla een autopilot heeft, maar daarbij weten we niet of de meeste rijders de autopilot als extra steun gebruiken of als prive-chauffeur.

Ik pas hierop dan de ‘Kelderluikcriteria’ toe. Ik vind de kans op een ongeval substantieel. De gevolgen kunnen fors zijn: ernstig letsel of overlijden. Extra maatregelen zijn eenvoudig: na een minuut met losse handjes de autopilot automatisch een parkeerhaven op laten zoeken, is geen enorme (extra) programmeertoer. Dus ook volgens de Kelderluikcriteria zou Tesla niet geheel vrijuit gaan.

Ook hier geldt echter weer de verdeling op grond van “eigen schuld”: een bestuurder die alarmen negeert zal – als hij nog leeft – een deel van de schade zelf moeten dragen.

Dus: een flinke slok op? Toch maar voorlopig Uberen …

Advocaat techniek gezocht?

Bel vrijblijvend


lees-verder-tips:


Mr. Hub Dohmen
Dohmen advocaten
twitter: http://twitter.com/hdohmen
LinkedIn: http://nl.linkedin.com/in/hubdohmen
i: www.dohmenadvocaten.nl

Deze column verscheen eerder op e-totaal.nl.

Afspraak/telefonisch overleg

Wilt u graag een afspraak maken of wilt u uw zaak nu voorleggen, Dohmen advocaten is iedere dag van 9:00 tot 17:00 telefonisch bereikbaar via 013-5821987.

Ook kunt u contact opnemen met ons via het onderstaande formulier: