Tesla fail? “Autopilot veroorzaakt crash bij Utrecht”

Auteur: , 114 Reacties

Mooi man, zo'n zelfsturende elektrokar. En dat roept de vraag op: is de wereld wel klaar voor zelfsturende auto's?

Tesla Model S Autopilot tot voorruit in de puinpoeier

Laten we het belangrijkste eerst afhandelen: beide bestuurders zijn ongedeerd gebleven bij dit ongeval. Maar daar houdt het goede nieuws dan ook op.

Het was vorige week woensdagavond toen een vrachtwagenchauffeur een klap voelde en in zijn achteruitkijkspiegel ontdekte dat er een auto onder zijn trailer gehaakt zat, bij een snelheid van 80 kilometer per uur. Eenmaal aan de kant vertelt de bestuurder van de Tesla Model S dat hij de auto op de Autopilot functie had staan. Resultaat: een flink beschadigde vrachtwagen.

Oh, en die Tesla zit tot de voorruit in elkaar. Eigen schuld, dikke bult voor de Tesla omdat dat prachtige Autopilot toch niet zo mooi lijkt te werken als men hoopt. En eigen schuld, dikke bult voor de bestuurder omdat hij teveel heeft vertrouwd op het Tesla Autopilot systeem.

Want hoe mooi Autopilot in theorie ook mag werken, het blijft een systeem dat gevoelsmatig in veel te korte tijd op de markt is geslingerd door een veel te kleine speler. De grote autofabrikanten zijn nog steeds druk aan het ontwikkelen, dat heeft een reden.

Wat ik daarnaast het meest zorgwekkend vind aan systemen als Autopilot, is dat mensen er teveel op gaan vertrouwen. En ga nu niet allemaal lopen roeptoeteren dat “de bestuurder altijd eindverantwoordelijk is”, want dat is een open deur. Dat beseft ook Tesla. Natuurlijk is dat zo, maar er zijn altijd bestuurders die zich meer vrijheden gaan permitteren dan goed voor ze is. Even een appje versturen, even het nieuws lezen, even dat filmpje op Facebook kijken. What’s next, even een dutje doen? Ja, that’s next. En dat zijn dingen die in meer of mindere mate onmogelijk worden gemaakt als je zelf moet zorgen dat je auto tussen de lijnen blijft.

Noem me maar “bang voor vernieuwing” of een pessimist, maar ik ben echt bang voor de gevolgen van dit soort systemen in ons huidige verkeersbeeld. Kijk eens goed naar de schade aan die Tesla en bedenk je wat er had kunnen gebeuren als die vrachtwagen een Daewoo Matiz met een paar kinderen op de achterbank was geweest, vorige week woensdagavond op de A2. Ik moet er niet aan denken. En natuurlijk zijn er honderden, zo niet duizenden Tesla-chauffeurs die wél goed opletten en waarbij dit niet was gebeurd. Maar helaas moeten we de regelgeving afstemmen op die enkeling die het voor de rest van de wereld verneukt, en niet andersom.

Is Autopilot klaar voor gebruik? Misschien wel, het heeft zeker ook voordelen zoals het voorkomen van ongelukken. Maar je kan je afvragen of de wereld klaar is voor Autopilot. En ook die verantwoordelijkheid ligt bij de fabrikant.

UPDATE: uiteraard weten we nog niet zeker of Autopilot aanstond, maar de bestuurder beweerde dit in ieder geval. Doet niets af aan het vraagstuk, overigens. Titel iets genuanceerd.

Foto en bron: Prinsenbeeknieuws.nl



114 reacties

Autopilot of niet, als de bestuurder zelf niet oplet kunnen er ongelukken gebeuren. Dat kan in een hypermoderne Tesla zijn , maar ook in een 20 jaar oude Nissan Micra waar een bestuurder niet op zit te letten omdat hij bijvoorbeeld met zn telefoon zit te rommelen. Ik zie hier niet perse in waarom de autopilot gevaarlijker is. Wel als het zo is dat de autopilot stug gas blijft geven als de bestuurder probeert te remmen.
@gertjan2012:
Betreft die laatste opmerking: is dat wel zo? De cruise control schiet er namelijk wel af als je de rem aanraakt, zoals bij iedere ander auto. Zou bij de Auto Pilot toch ook wel zo zijn?
@Rob: als je zelf een stuurcorrectie maakt of bij het aantikken van de rem
@Rob: Dat lijkt me wel ja, maar bedoelde meer te zeggen dat als blijkt dat een dergelijk ongeval door zo’n “storing/bug” ontstaan is dan snap ik de angst wel.
@Rob: Ik weet t niet bij Tesla, maar als je autopilot hebt, moet je toch ook een apart bots-preventie systeem hebben?
Als ik mijn cruise er vanaf haal omdat ik zelf wil remmen voor iets, dan werk mijn bots-preventie nog wel. Dus die zal extra hard remmen als ik het slecht inschat.
Lijkt me een grote fail van Tesla als dat het geval was.
@gregorius: Lastig om over te oordelen puur op basis van deze foto. Mogelijk dat Tesla hier zelf kan achterhalen wat er gebeurt is. Voor hetzelfde geld reed de bestuurder onverantwoord hard, en heeft de auto nog getracht zo hard mogelijk te remmen en heeft ie daarmee het leven van de bestuurder gered.
@pramm: precies. We wachten op de uitslag van het onderzoek. Tesla kan zien of Autopilot idd actief was.
Het kan ook goed zijn dat de bestuurder aan het appen was, AP niet actief was maar dat wel claimt om zichzelf er onderuit te praten. We will see.
@gertjan2012: de autopilot is gevaarlijker omdat een deel van de gebruikers er vanuit gaat dat de auto het wel voor ze oplost. En zich dus meer onoplettendheid gaat veroorloven.
@CasperH: Omdat de bestuurder zegt dat auto pilot aan stond geloven we dat allemaal zo maar?

Vooralsnog vermoed ik dat het een menselijke fout was, en er maar even de schuld werd gegeven aan auto pilot.
@damrakker: ik geloof het ook niet zomaar, en dan nog, zolang er geen regels omtrent bestaan is de bestuurder toch altijd zelf verantwoordelijk.
@CasperH: Ik snap je punt Casper, maar het gaat dus nog steeds om de verantwoordelijkheid die de bestuurder zelf heeft ( waar een aantal mensen dus niet mee om kunnen gaan ) , dat ligt niet aan het autopilot systeem.
@gertjan2012: helemaal mee eens, dat geef ik ook aan in mijn artikel.

Waar het mij om gaat is dat dit soort zaken niet geschikt zijn voor verkoop, als ze nog niet uitontwikkeld en 100% veilig zijn. Want er zijn altijd mensen die het systeem wél de controle uit handen laten nemen. Helaas is het in deze wereld nog steeds zo dat we rekening moeten houden met die minderheid, omdat anders de veiligheid van de goedwillenden in gevaar komt.
@CasperH: 100% veilig bestaat niet.
@stfu: je snapt wat ik bedoel.
@CasperH: We weten de situatie allemaal niet. Misschien heeft de auto hier door ingrijpen juist erger weten te voorkomen. En 100% getest.. dat bestaat inderdaad niet. Maar de functionaliteit is wel getoetst en goed bevonden door o.a. de RDW.
@CasperH: “als die vrachtwagen een Daewoo Matiz met een paar kinderen op de achterbank was geweest” dat zou ook verboden moeten zijn, Wat een kosten je de maatschappij dan mee opzadelt. Als je al geen fatsoenlijke auto kunt permiteren om je kinderen veilig in te vervoeren wie zegt dan dat je je zorgverzekering wel kunt betalen zonder toeslagen……
Leuk al die snufjes op auto’s vandaag de dag, maar mensen kunnen niet meer rijden en zelf nadenken. In de mist met de dagrijlampjes blijven rijden, blind vertrouwen in de navigatie en op geen enkel bord meer letten en nu als dieptepunt dit…
@borrelnoot:

Jouw voorbeeld van dagrijlampjes is juist ideaal om te automatiseren.
Je licht automatisch aanpassen aan de omgeving.
Dus geen mistlicht bij 200m zicht. en Dgrijverlichting waar nodig.
@borrelnoot: mee eens. En daarbij worden onze autowegen steeds saaier met het idee dat dat veiliger is. Dus worden we steeds sneller afgeleid door andere zaken, de auto neemt steeds meer functies van ons over en het gros weet zich niet meer te concentreren op het autorijden.
Dat geeft maar weer aan hoe lekker dit werkt. Deze systemen moet uitvoerig getest worden buiten normaal verkeer in plaats van dat tesla ze in verkeer laat testen door gewone stervelingen.
@dieselaer: die “stervelingen” hebben nog altijd zelf de keuze om het systeem danwel in- of uit te schakelen. Het jammere is dat veel automobilisten zich niet beseffen dat ze stervelingen zijn.
@prod: oftewel, je kunt een gewone automobilist niet de verantwoordelijkheid geven testrijder te zijn.
@dieselaer: Het systeem is door en door getest en akkoord bevonden door de RDW. Wat Tesla doet is data vergaren vanuit de bestuurders om het systeem nog verder te verbeteren. De gebruikers zien exact wat het systeem wel en niet kan alvorens eea. aan te zetten.
Tenzij de vrachtwagen ineens een noodstop heeft gemaakt, is dat toch een faal van de bestuurder lijkt mij. Hoewel Autopilot taken van je kan overnemen, moet je nog steeds je ogen op de weg houden en voorbereid zijn de boel weer over te nemen als de situatie daarom vraagt. Het is immers een hulpfunctie, geen volledig autonome auto. Als je je ogen netjes op de weg houdt en je handen aan het stuur houdt, moet je normaal gesproken ruim van tevoren zien wanneer je te hard op een vrachtwagen af gaat, en heb je ruim de tijd om de controle weer over te nemen.

Ik vind het mooi dat Tesla zo’n voortrekkersrol neemt in het (semi) autonoom maken van auto’s, maar ik vind dat het bedrijf ook de verantwoordelijkheid om in te schatten dat niet elke Tesla-bezitter met die functie kan omgaan. Ik ben benieuwd wie bijvoorbeeld straks de schadeclaims mag betalen als je je Tesla-summont, en de garagepoortknop het even niet doet. Mag jij die nieuwe deur betalen of Tesla?
@Edge: Hij detecteert of de deur open is (parkeersensoren bv), dus zal niet zomaar door je deur heen rijden.
@stfu: Precies, net als dat de auto een vrachtwagen detecteert die 80 km/u rijdt.
O wacht….
@n54coupe: als ik door mijn eigen fout tegen een vrachtwagen rijd, zou ik ook zeggen dat het de schuld van Autopilot is… Als het snelheidsverschil niet erg groot is zal het systeem niet zomaar ingrijpen. Dat doet ie wel als ineens de vrachtwagen vol op de rem knalt. Overigens kan je die systemen ook instellen (dus ook uit!).
@Edge: Je eerste zin: ook bij een noodstop vd vrachtwagen zat de Tesla bestuurder gewoon fout. Iets met voldoende afstand houden zodat je je voertuig tijdig tot stilstand kan brengen 😉
@borrelnoot: autopilot zou het nooit zover laten komen. Die forceert voldoende afstand dus eigenlijk geloof ik er geen zak van dat AP “aan was en het niet gezien heeft”.

Je kan AP overigens ook “oversturen” door het pedaal in te trappen. De auto begint dan te mekkeren maar hij doet wel wat jij vraagt. Kan hier ook gebeurt zijn.

Allemaal speculatie. We gaan het wel zien.
@Edge: het probleem is dat dit systeem autonoom rijdt, maar dat de bestuurder wel op moet letten. Dat kunnen mensen niet. Wij zijn geen robots, wij hebben stimulans nodig om op te blijven letten. Stimulans als een stuurwiel vasthouden bijvoorbeeld.

Tesla had beter moeten weten. Iedereen die er over nadenkt weet dat onoplettendheid een gevolg is. Dus iedereen die er over nadenkt weet dat er ongelukken gaan gebeuren met een systeem wat nog niet perfect is.
@lekbak: Maar mogelijk dat het systeem hier juist erger heeft weten te voorkomen. En hoeveel ongelukken heeft het systeem al voorkomen? Dat horen we dus nooit.
Ik heb zelf al een aantal keer gehad dat het systeem een fractie van een seconde sneller ingreep dan ik zelf deed.
@Edge: “Tenzij de vrachtwagen ineens een noodstop heeft gemaakt, is dat toch een faal van de bestuurder lijkt mij”
In allereerste instantie lijkt het me een faal van het autopilot systeem.
Ja, laten we weer EV’s bashen! Laten we eerst gewoon afwachten waarom het is gebeurd. Ik rij op de snelweg bijna altijd op Autopilot en werkt perfect. Misschien had ie het per ongeluk uitgezet, weet jij veel.
@stfu: kritiek op je favo merk moet je altijd kunnen trekken. Ook als fanboy. Iets meer open visie zou je sieren. Even snel gelezen. Volgens mij is ie onder die trailer geschoven. Dode hoek voor het oog van de Tesla? Te hoog wellicht? Heb jij daar geen problemen mee?
@camber24: Dat zijn pure speculaties. Ik volg in deze stfu.
Daarnaast vind ik het een beetje flauw dat er zo snel op de bestuurder geschoten wordt. Wat heb je nu aan een autopilot als je zelf nog ten allen tijden paraat moet zijn om in te grijpen?
@invictus66: dat laatste stukje ben ik met je eens. Ik gebruik ook altijd alle mogelijke hulpmiddelen. Maar ik blijf wel altijd zoveel mogelijk er zelf bij, en kijk meer mee als medepassagier die kan ingrijpen. Speculaties, mee eens. Maar uit de schade valt natuurlijk wel eea af te leiden. Dit is zo te zien geen sec zijwaartse impact geweest.
@invictus66: dat laatste is exact de reden van alle kritiek op dit systeem!

Het functioneert niet door exact het denkbeeld wat jij daar schetst. Mensen gaan stoppen met opletten als het systeem aan staat. En tesla weet dat het systeem daar nog niet klaar voor is.
@camber24: tuurlijk. Als het echt 100% door de auto komt is dat zeer vervelend. Maar met de redenatie van de auteur zou je ook kunnen zeggen: “Weer een Ferrari in de fik. Zijn we wel klaar voor brandstofmotoren?”
@stfu: ben ik met je eens, is idd wel heel erg gekleurd en ‘bang-voor-innovatie’ geschreven
@camber24: Met camera achter de voorspiegel is dat zeker geen dode hoek van de camera, en natuurlijk al helemaal niet van de radar.
@stfu: of hij geeft de schuld aan autopilot om er zelf niet op aan gekeken te worden. Stond misschien helemaal niet aan…
Er waren ook wel eens incidenten waarbij de schuld aan de cruisecontrol werd gegeven. Die is gelukkig ook niet verboden daardoor. http://www.volkskrant.nl/binnenland/marco-bakker-reed-vrouw-dood-onder-invloed-van-drank~a492411/
@12Esc: idd, je kan bij de Model S een hoop systemen uitzetten. Zo heb ik Lane Departure Warning altijd uit, vind dat verschrikkelijk.
@12Esc: precies. Dit hele artikel is gebaseerd op de aanname dat de verklaring van de bestuurder de waarheid is. Wellicht was ie gewoon aan t appen zonder dat het aanstond. Betekent niet per se dat ie liegt, alleen wel dat ie de waarheid niet spreekt. (Als die theorie waar is)
@jipino: wie weet is het gewoon de eigen fout en is het ‘schuld geven’ aan autopilot makkelijker. Iets wat onderzoek zal moeten uitwijzen.
@stfu: Het feit dat het een EV is staat hier volledig los van.
@stfu: ik bash geen EV’s. Ik zet mijn vraagtekens bij het gegeven dat een fabrikant een systeem invoert waarvoor een deel van de gebruikers simpelweg nog niet klaar is. Dat heeft werkelijk niets te maken met het feit dat het toevallig op een EV te vinden is.

Overigens heb ik eerder mijn vraagtekens bij vergelijkbare systemen gezet, zoals in deze column: http://www.autoblog.nl/hoe-veilig-zijn-moderne-veiligheidsvoorzieningen
@CasperH: excuses. Ik lees het vooral als weer een mogelijkheid om een merk als Tesla negatief in beeld te krijgen, want elektrisch wordt voor vele autoliefhebbers nog als de duivel gezien. Je kan het ook omdraaien: hoe vaak heeft het systeem er niet voor gezorgd dat er GEEN ongeval zou zijn? Daar zijn immers ook voorbeelden van. Ik snap je angst, maar de hele insteek van het artikel komt nogal negatief over. Plus ik geloof nooit iemand op z’n woord. Mensen liegen nogal eens om er zelf beter uit te komen. Zoals ik al zei: systeem kon op dat moment uit staan of hij lette gewoon zelf niet op. Als het wel de schuld van de auto is: zeer vervelend maar als dit de eerste is van de ruim 100.000 Tesla’s… Nogmaals; er vliegen constant brandstofauto’s in de fik en dat zou ondertussen ook al doorontwikkeld moeten zijn na 100 jaar…
Maar wat is er nou gebeurd?
A: Tesla reed recht achter vrachtwagen en is er tegenaan gereden?
B: Tesla maakte ook stuur actie en is er half-zijdelings ingeknald omdat Tesla aanhanger niet zag door xxx?
Meestal weten de eigenaar van de auto’s wel welke dingen zo’n auto wat slecht ziet. ( @fijnkonijn ?).
Zo verloor mijn Audi uit 2005 motoren voor zich nog wel eens uit het oog (te smal). Dat weet je na een paar keer, dus kijk je er mee uit,
En zo beveiligt mijn Infiniti zich wel erg snel bij regen en zet het zichzelf uit (waar de Audi met meer regen nog gewoon door ging). Infiniti ziet motoren wel erg goed en ik ook erg goed in het zien van lijnen naast je bijv.

Maar als het geval A is, moeten we niet zeiken over auto-pilot, want dat was gewoon een geval van adaptive cruise control die het niet lekker deed.
Kortom, we kunnen niet oordelen auto-pilot in het geheel voordat we weten wat er nou mis is gegaan hier. Feit is wel dat Tesla misschien hun software ietsje veiliger moet afstellen.
@gregorius: C: De auto stond niet op auto-pilot. En de chauffeur lette zelf niet goed op en reed daardoor achterop de vrachtwagen.
Wat zeg je dan? Ik zat te appen op mijn telefoon of zeg je dan dat je auto het heeft gedaan.
@sudsprint: dat kan Tesla gewoon uitlezen uit de auto lijkt me. Waarschijnljjk zelfs remote.
Geen schuld voor Tesla, gewoon schuld bij bestuurder.
Dat zou betekenen dat de bestuurder ook tegen de politie heeft gelogen…

(en ja, zelf met de functie aan, is de bestuurder verantwoordelijk; maar t zou wel zeggen dat Tesla een probleem heeft met de software).
@gregorius: Ik neem inderdaad ook aan dat Tesla dat kan. En tot die tijd heb ik geen oordeel over dit ongeluk, althans niet dat auto-pilot zo slecht is in elk geval. Wel dat de bestuurder een fout heeft gemaakt.
Het is natuurlijk heel vervelend, maar absoluut geen reden om de autopilot af te fakkelen. Al hoop ik stiekem dat het natuurlijk nog erg lang duurt voordat de auto pilot echt het stuur kan overnemen.
Ik begrijp je sentiment en ga er ook wel voor een deel in mee. Dat gezegd hebbende staat zo’n instelling vooruitgang ook in de weg. Als wij, toen de eerste persoon doodviel toen hij van een hoge muur met een vleugel op zijn rug sprong, hadden gezegd: “niet meer doen want kijk eens wat er van kan gebeuren!”. Dan hadden wij nu niet in een vliegtuig richting onze vakantiebestemming gezeten.
En zie nu het is één van de veiligste transportmiddelen.

Wat we hier juist moeten doen is accepteren dat er altijd fouten kunnen zijn maar dat we er vooral van moeten leren.
Nu kunnen we natuurlijk op emotie spelen door de “stel dat” redenering te gebruiken, maar uiteindelijk moeten we naar het groter plaatje kijken.
Stel dat de persoon die het vuur heeft uitgevonden per ongeluk een kind er mee verband zou hebben of dat de persoon die het wiel heeft uitgevonden een kind had overreden met dat wiel. Hoe zou de wereld er dan uitgezien hebben?

Al met al kom ik tot de conclusie dat wij mannen heel veel dingen hebben uitgevonden die de mensheid vooruitgang heeft gebracht. Ergo mannen zijn beter dan vrouwen….
@Rick-dos: Weet een paar dingen die vrouwen toch beter kunnen…
@norge: Koken en schoonmaken bedoel je? Dat laten we ze toch denken omdat we het zelf niet willen doen?

Tenminste dat is bij mij wel zo…
@Rick-dos: nee, was niet mijn eerste gedachte…… :)
@Rick-dos: een systeem als dit zal je moeten testen zoals andere bedrijven het doen. Mensen die speciaal daarvoor in dienst zijn. Laat je het door gewone burgers doen dan gaan die stoppen met opletten, zo zitten mensen in elkaar. Dat is zo’n open deur dat ik het tesla persoonlijk zèèr kwalijk neem dat ze het systeem gelanceerd hebben. Ze hadden beter moeten weten.
@lekbak: system is uitvoerig getest en bijgesteld alvorens get ter test bij de rdw aan te bieden. Dat Tesla data verzameld voor verbeteringen en optimalisatie staat daar los van
@Rick-dos: ik ben het met je eens dat vooruitgang soms offers vraagt, maar een wezenlijk verschil vind ik toch wel dat de meneer met vleugel alleen zichzelf in gevaar bracht.

Tesla heeft een iets grotere verantwoordelijkheid. Niet alleen naar de eigen klanten, die kan je desnoods via een update van de Algemene Voorwaarden laten accorderen dat al hun bezittingen eigendom worden van Tesla nadat hun auto ze de dood in gejaagd heeft. Maar je hebt ook te maken met weggebruikers die nooit gevraagd hebben om een Tesla achterop hun vrachtwagen.
@CasperH: Ik begrijp je redenering en tot op zekere hoogte heb je gelijk, maar als Tesla al haar klanten gewaarschuwd heeft om het systeem niet 100% te vertrouwen is het dan nog hun verantwoordelijkheid? Is een navigatiebedrijf verantwoordelijk als iemand weer eens op het spoor parkeert omdat de bestuurder niet z’n ogen en gezond boerenverstand gebruikt?

We moeten niet vergeten dat dit hulpmiddelen zijn. Het zijn geen opties die jou als bestuurder moeten vervangen.

We moeten, en dat was meer mijn punt, er voor oppassen dat we niet bij dit soort nieuws nieuwe technologie maar meteen moeten afschieten als er dit soort dingen voordoen. In de luchtvaart zijn er door de jaren genoeg (passagiers)vliegtuigen uit de lucht gevallen. Ook vliegtuigen die op bewoonde gebieden terecht zijn gekomen waarbij onschuldige slachtoffers zijn gevallen en die er niet om gevraagd hebben.
Als we op dat moment hadden gesteld dat we maar niet meer moeten vliegen omdat het gevaarlijk is dan hadden wij geen vooruitgang geboekt.
Kijk wat het ons allemaal heeft opgeleverd. Als er niet een paar comets uit de lucht waren gevallen dan hadden we nooit van metaalmoeheid gehoord. Als we geen luchtvaart hadden hadden we geen ABS in onze auto’s gehad. Enfin ik kan zo even doorgaan, maar denk dat je het wel snapt.

Het punt is we moeten niet gelijk moord en brand gaan schreeuwen met als gevolg dat dit soort initiatieven maar in de prullenmand worden gegooid. We moeten natuurlijk wel van dit soort bedrijven een bepaalde standaard eisen waardoor risico’s verkleind worden. We kunnen echter niet eisen dat er helemaal geen risico’s zijn immers met alles wat nieuw is hangen er altijd risico’s aan vast.

Er wordt trouwens van uitgegaan dat Tesla dit allemaal niet getest heeft, maar is dat wel zo? Weten wij welke R&D hier in is gestoken? Of is het maar een aanname dat Tesla niet genoeg getest heeft?
@Rick-dos: het gaat mij er zeker niet om dat de technologie in de prullenbak moet belanden, en ik ga er vanuit dat er wel degelijk mee getest is voordat het in de auto’s werd gestopt.

Zoals anderen hierboven echter ook al aangeven, is het allemaal niet zo best voor de aandacht van de bestuurder voor de weg. Uiteraard is de bestuurder ook de zwakste schakel in dit verhaal.

De enige vraag die ik hardop stel is: moeten we dit willen? Misschien ligt het probleem niet eens zozeer bij Tesla, als wel bij de regelgeving? Dat een RDW dit goedkeurt is het logische gevolg van “het werkt, bestuurder blijft verantwoordelijk” maar misschien is dat goedkeuringsproces met deze ontwikkelingen ook wel achterhaald?
Laten we hopen dat het @fijnkonijn niet was…
Lijkt me eerder een noodstop functie fail…Of heeft Tesla dat niet?
@norge: Tesla met NL kenteken. @fijnkonijn zel er wel een Zwitsers kenteken op hebben zitten.
@gregorius: heb een witte, pre-AP wagen en idd. een CH kenteken. It wasn’t me.
Een hoop ophef zonder dat de details (wat is er echt verkeerd gegaan?) bekend zijn. We kunnen ook de vraag stellen: Is de wereld klaar voor mensen die auto’s besturen? Duizenden (misschien wel honderdduizenden) keren per dag wordt bewezen dat dit niet zo is ;)
Zegt zo een ding niet dat je altijd je handen aan het stuur moet houden en zelf op moet letten? Bestuurder is gewoon een idioot, niet de technirk
Ik ken iemand die met Autopilit rijdt en vervolgens series kijkt op z’n laptop die op de bijrijdersstoel staat. Mensen kunnen niet omgaan met dit soort dingen
Heb ik altijd al gezegd toch jongens??

Vanaf de eerste discussie die hierover ging!!

Kan nooit goed gaan en wij er maar weer mee voorop lopen in Nederland
@bigfun: [facepalm]…[/facepalm]
Wie zegt dat de wagen daadwerkelijk op AutoPilot stond? Voor de bestuurder is het natuurlijk makkelijk om de wagen de schuld te geven.

Het lijkt mij een veel te simpele aanrijding, zomaar achterop een vrachtwagen rijden door Autopilot. Dat hij bij een rare bocht de verkeerde afslag neemt begrijp ik, maar afremmen bij een vrachtwagen zou die absoluut moeten kunnen doen.
Je hoort het natuurlijk direct als zo’n systeem een fout maakt en daardoor schade ontstaat, maar hoeveel schade is er nou eigenlijk voorkomen door dit systeem? Daar hoor je niets over..
Natuurlijk is het belangrijk dat dit incident goed wordt uitgezocht door Tesla, maar in wezen verschilt het uitzoeken niet van hetgeen Volvo doet bij ongelukken. Immers: de bestuurder is nog steeds verantwoordelijk (dit is ook door Tesla gecommuniceerd) en die heeft kennelijk niet goed opgelet. Het is niet voor niets een beta-product.

Het probleem van dit soort artikelen is dat autofabrikanten inderdaad eerst langdurig moeten testen, waardoor de kosten van dit soort producten gigantisch hard stijgen. Liever doe je een praktijktest met eventueel wat (blik)schade tot gevolg, daar leer je als autofabrikant veel meer van. Reken maar dat Tesla veel data heeft om hun algoritme te verbeteren: alle (stuur)correcties bijvoorbeeld leveren een schat aan kennis op. Tesla moet dit zo doen om zo de nadelen van een kleine fabrikant te omzeilen. Lijkt mij een prima methode, zeker omdat ze het er expliciet bijzeggen.
@krisp: iets zeggen is één, weten dat een mens dusdanig in elkaar zit dat het in de praktijk anders is is twee.

Elk mens, ook jij en ik, gaan andere dingen doen in zo’n situatie. Al zijn het maar gedachtes. Je zult over moeten schakelen van die andere gedachtes naar het autorijden. Tegen die tijd is het al boem, vooral omdat je niet goed genoeg weet hoe te reageren omdat je je niet bewust bent van de situatie op de weg.

Natuurlijk kan iedereen gedurende 5 minuten maximaal op blijven letten, maar niet als het al 5 keer eerder een uur lang perfect gefunctioneerd heeft. Wij zijn nog altijd geen robots…
Wie zegt dat hij echt op auto pilot stond?

Is er een kans dat de bestuurder zelf tegen de vrachtenwagen aan reed en dit nu wil afschuiven op de autopilot?
Software zal uiteindelijk veel veiliger zijn dan mensen die sturen: geen drank of drugs, geen (extreme) vermoeidheid, geen emoties, nooit afgeleid door de smartphones appjes, geen te hoge snelheid bij mist/duisternis/regen etc etc
100% perfect zal het nooit zijn maar er zullen waarschijnlijk wel de helft minder doden en zwaargewonden vallen in het verkeer?
@fit4fun:

Assumpties. (Tmoafu)
@kempenaer: Nee geen veronderstellingen. Deze verwachte uitkomsten (ik denk dat ze kloppen en zelfs aan de voorzichtige kant zijn) laten zich in de toekomst met statistiek wel bewijzen.
Systemen als autopilot moeten voordat ze op de markt worden gebracht zo uitvoerig getest zijn dat ze eigenlijk foutloos werken. Eerder niet. Dat tesla dit niet heeft gedaan, en dat blijkt wel als dit ongeluk door autopilot is ontstaan, is sterk verwijtbaar.
Bij alle tesla’s moet autopilot permanent worden uitgeschakeld totdat de problemen zijn opgelost. Is dat niet mogelijk, dan dienen deze auto’s allemaal van de weg te worden gehaald. Zonder twijfel. Onverantwoord om deze electromobielen dan nog rond te laten rijden.
Dit merk heeft een slechte reputatie wat kwaliteit betreft. Ze gooien hun producten veel te vroeg op de markt en gebruiken de naïve teslagroupies als testdummies.
Ik vind dat ook deze figueren tegen zichzelf beschermd moeten worden. Meer nog vind ik dat de maatschappij tegen deze figuren beschermd dient te worden.
In de begin jaren van de auto’s was het wet dat er een man/vrouw 30 meter voor de auto uit moest lopen met een rode vlag.
Het is natuurlijk altijd leuk als er iets mis gaat, vooral als het iets is wat je zelf ook graag zou willen hebben of waarvan de bestaande merken er baat bij hebben dat het breed uitgemeten in de media komt.
Hoeveel ongelukken komen voort uit mensen die zitten te kletsen en naar hun passagier kijken of gewoon niet opletten en dan niet te vergeten hele volksstammen die misschien 1x per week achter het stuur zitten en wel een rijbewijs hebben maar eigenlijk geen fatsoenlijke verkeersdeelnemer zijn…..
Een goedkope dooddoener trouwens dat de bestuurder verantwoordelijk blijft. Als je zo’n systeem lanceert mag je als bestuurder ervan uitgaan dat het goed werkt. Als je continu moet opletten dat het systeem je auto in een fractie van een seconde achterop of voorop een andere weggebruiker rijdt, dan kun je het stuur beter zelf vasthouden, dat is dan nog meer ontspannen.
Ik snap mensen sowieso niet die blind varen op autopilot en dat doe je feitelijk al als je je handen van het stuur afhaalt. Dat soort bestuurders is niet goed bij hun hoofd en alleen al op basis hiervan zou hun rijbewijs moeten worden ingevorderd.
Laat ik voorop stellen dat ik voor vooruitgang bent. Zou raar zijn als ontwerper als dat niet zo zou zijn. Ik vind dit soort techniek fantastisch al rij ik persoonlijk juist een auto van 15 jaar oud omdat ik nieuwe auto’s te kill vind.

Waar ik wel mijn vraag tekens bij zet zijn dit soort halfbakken tussen oplossingen. Als er zo een systeem aanstaat en er dreigt iets fout te gaan duurt het extra lang voor een bestuurder ingrijpt omdat hij:
A. Cognitief niet heel actief is, zijn brein moet hem dus eerst aanschakelen voor hij kan handelen
B. Hij vertrouwd het systeem en gaat dus pas beginnen in te grijpen als hij het vertrouwen in het systeem verliest wat kostbare seconden duurt (wellicht tientallen seconden)
C. Dan pas om zich heen gaat kijken waar hij heen kan of wat hij kan doen om het ongeluk te voorkomen.

Kunnen we deze fase in de ontwikkeling dan overslaan? Nee helaas niet. Het is onmogelijk om een zelf rijdend systeem te ontwikkelen zonder heel veel KM’s te maken en helaas ook ongelukken te analyseren.
Denk aan Volvo. Die doen heel veel crashtests in hun lab maar sturen ook onderzoek teams naar echte ongelukken om van te leren.

We zullen er dus mee moeten leven en eerlijk gezegd denk ik dat de systemen minder ongelukken zullen veroorzaken dan de idioten die ik dagelijks tegen kom.
Het is pas onverantwoord om een Daewoo Matiz te rijden met kinderen op de achterbank. Het jammere is, is dat ik dit regelmatig zie. Superklein koekblikje met twee kinderen op de achterbank, levensgevaarlijk..
@cls350sb: geld ligt in deze maatschappij voor het oprapen immers als je zo stom bent om te werken. Iedereen die werkt kan dan ook een dikke auto betalen!
Wie is beter in rekenen?
-een persoon die alles al jaren moet hoofdrekenen
-een persoon die alles al jaren met een rekenmachine doet

Wie is beter in autorijden?
-een persoon die zelf moet besturen zonder allemaal regeltjes
-een persoon die in een auto zit waarbij de computer stuurt en rijdt….

hmmmmmm lemme think… Als men hier in de westerse wereld alles door computers en sensoren laat oplossen en dan claimt dat we steeds slimmer worden dan heeft men het niet echt op een rijtje.
Evolutie of devolutie? DE overkoepelende instantie worden namelijk wel slimmer want die hebben steeds meer controle over hun spullen maar ach….
Voordat we conclusies kunnen trekken uit dit ongeval moeten we natuurlijk eerst weten wat er precies gebeurd is. Zelfs Autopilot kan niet alle ongevallen voorkomen, net zoals een goed oplettende bestuurder dat niet kan. Wat nou als die vrachtwagen dacht even een baantje op te schuiven, terwijl die Tesla daar reed?

Dat gezegd hebbende, van filmpjes die ik van Tesla’s autopilot gezien heb, krijg ik nog sterk het idee dat ze nog volop aan het beta-testen zijn: meestal gaat het prima, maar soms ook weer helemaal niet.
wat een flutartikel zeg, autopilot is een extra functie waarvan Tesla altijd heeft gezegd dat bestuurders nog altijd op moeten blijven letten, beide handen aan het stuur etc.
Eigen schuld dikke bult voor die domme bestuurder die dacht dat ‘ie lekker kon appen of rukken tijdens het rijden.
@prod: er is geen mens die op blijft letten op een voldoende hoog niveau als die niks hoeft te doen. Dat is nou eenmaal natuur van het beestje. Juist om die reden is een dergelijke -niet uitontwikkeld- systeem zo gevaarlijk.
Ik vind dit soort systemen een zorgwekkend iets. Het blijft een systeem en dat kan ook falen. Er kan iets kapot gaan, kan het systeem echt alles goed detecteren. Maar nog belangrijker: mensen gaan er blind op vertrouwen en dat maakt het gevaarlijk.

Dit verhaal had voorkomen kunnen worden want de vrachtauto reed gewoon (dus geen verhaal van een noodstop). Dan betekend het dus dat de bestuurder niet opgelet heeft wat er dus gebeurd op de weg voor hem omdat hij hem toch op autopilot had staan.

Daarnaast vind ik het ook slecht dat een dusdanig systeem als beta door weggebruikers moet worden getest. Ik zit niet te wachten op schade (met of zonder letsel of dodelijke afloop) en al het gezeik eromheen omdat Tesla een nog niet 100% foolproof systeem laat testen op de openbare weg.
@sportevo: een van de belangrijkste veiligheidsconcepten voor dit soort systemen is dat het eigen falen kan detecteren. Een defecte sensor leidt dus tot het uitschakelen van het systeem.
Maar ik denk ook dat het niveau van R&D van Tesla dichter bij consumentenelectronica zit dan bij dat van klassieke automotive bedrijven en dat is gevaarlijk.
@mashell: juist niet. Automerken weten vooral veel van auto’s bouwen. Tesla is juist vooral een technisch bedrijf. Come on, ze zitten in Silicone Valley. Daar werken de slimste mensen van de wereld.
Precies wat in de luchtvaart is gebeurd de afgelopen 30 jaar, meer automatisering, men gaat vertrouwen op de systemen, weet vervolgens onvoldoende van de systemen, en dan gaat het mis.
Iedereen wist toch dat dit ging gebeuren? Slechts een kwestie van tijd…
Niet dat ik er tegen ben, maar het is gewoon nog niet volwassen genoeg.
Is er al onderzoek gedaan? Is er al bewezen dat de auto-pilot faalde? Sorry hoor maar ik vind dit een beetje simpele journalistiek. Er is nog nergens bewijs van maar de auto pilot wordt wel gelijk volledig de grond in getrapt. Misschien had meneertje de auto pilot wel niet aan en had hij de andere systemen wel uit staan en was hij gewoon in slaap gevallen en klapte hij vol op de vrachtwagen??

Moraal van het verhaal is: wacht eerst eens de feiten af…
ik weet niet wat er precies gebeurt is en hoe de situatie er uit ziet maar ik weet wel dat toen wij thuis net een auto hadden met adaptieve cruisecontrole dat ik het op soms onhandige plekken ging uitproberen. je wil tenslotte weten hoe ie dan reageert. dus het kan ook zijn dat die man op de meest onlogische plek die auto pilot aanzet en de auto gewoon geen kans had.

verder vind ik dit een beetje een artikel in de trend van als we alle auto’s limiteren op 100 km/h gebeuren er nooit meer ongelukken met 120 km/h. er komen nou eenmaal veranderingen die helaas niet altijd direct perfect zijn.

ook ben ik erg benieuwd of tesla de auto uitleest en bevestigt/ ontkracht dat autopilot aan stond.
We zijn er klaar voor gewoon een sensor bij de bumper waardoor de zelfsturende autos niet te dicht bij kunnen komen
Wederom een zeer subjectief artikel wat vermoedens en aannames aan de basis heeft staan…
Het is eigenlijk vrij simpel. Geen normaal mens kan zich blijven concentreren op de weg als ze niks hoeven te doen. Zoiets simpels als het stuur vast moeten houden is genoeg stimulans, haal je dat weg dan gaan mensen andere dingen doen. Zo steken mensen nou eenmaal in elkaar.

Dus zolang de bestuurder op moet letten zal autonoom rijden niet functioneren. De grote jongens weten dat, dus die perfectioneren het systeem. En perfectie kost tijd, dusdanig veel tijd dat het nog heel lang gaat duren voordat we het gaan zien op de weg.
@fijnkonijn: Ben jij dat?
@ziekegeest: heb een witte, pre-AP wagen en idd. een CH kenteken. It wasn’t me.
Persoonlijk kom ik na een rit compleet zelf rijden een stuk fitter op locatie aan dan wanneer ik hulp systemen zoals lane assist en active cruise control gebruik. Ik merk tijdens de rit dan ook al vrij snel dat ik suffer wordt wanneer ik aan bepaalde taken minder aandacht hoef te besteden. Hierbij zit ik nu dan nog in een stadium dat ik let op wat er om me heen gebeurd echter gezien het enorm saai is wordt de stap naar iets anders doen tijdens het rijden steeds eenvoudiger.

Om die reden denk ik dat een aantal hulp systemen een averechts effect hebben op het rijgedrag. Wanneer ik nu bijvoorbeeld in de auto van mijn vriendin stap moet ik goed opletten dat ik zelf de rem in trap voordat ik tegen de voorganger aanzit gezien hier geen active cruise control op zit. De gewenning aan hulp systemen maakt je uiteindelijk een slechtere bestuurder naar mijn mening.
@djauweh: en toch kom ik juist veel ontspannender aan. Op bepaalde wegen stuur ik liever zelf en bedien ik ook liever het stroompedaal, want houdt mij inderdaad alert. Maar op lange saaie wegen of op 80 km/u wegen waar m’n voorganger van 85 naar 70 gaat en weer naar 75 hou ik zoveel van het systeem. Ik word minder geïrriteerd, zit niet constant naar de bumper te loeren (of ie nu weer gas los laat of niet) en voel me dus eigenlijk veel fijner.
Ruim 2100 kg, zo’n Tesla Model S. Die wil je inderdaad niet achterin moeders boodschappenauto met twee kinderen op de achterbank zien knallen. En een vrachtwagen over het hoofd zien is natuurlijk onvergeeflijk van zo’n systeem. Nog even doorpuzzelen meneer Musk!
Zou Tesla dit vergoeden?
@cla220: nee natuurlijk niet. Er zit nogsteeds een rempedaal en stuur in.
Als het klopt dat dit ongeval door falen van het autopilot systeem is veroorzaakt (in zoverre dat mogelijk is met een eindverantwoordelijke, de bestuurder, aan boord), dan is het te hopen dat meneer Musk deze niet in wil gaan zetten voor de ritjes naar Mars…
Ook na “nuancering” nog een torenhoog televaag gehalte. Hoor zonder wederhoor, aanname hier, aanname daar. Bestuurder X zegt het, dus het is waar.

Hadden we dit soort artikelen ook toen de eerste cruise control en automatische afstand houders afgeleverd werden? Ongetwijfeld.
Stel je voor dat vrachtwagens straks op de autopilot staan. Dat gaat pas vervelend worden als het fout gaat.
Dus 1 op de 50.000 autopilot systemen heeft een foutje gemaakt en meteen moet men bezorgd zijn? Blijkbaar hebben de autoblog schrijvers nooit statistiek lessen gevolgd, is ook niet verrassend gezien het IQ van de gemiddelde autobloggers rond de 2 getallen hangt.
@zyklonee: je prijst jezelf ook flink de lucht in….blogger😂😂😂
Ik zie dat hier vrij veel kritiek op het autopilot systeem wordt geuit. Ik wil graag even duidelijk maken dat dit ongeluk nooit door autopilot kan zijn veroorzaakt. Het enige dat autopilot doet wanneer je gewoon op de snelweg rijdt is dat hij ervoor zorgt dat de auto binnen de lijntjes blijft. Hij stuurt dus zelf.
Voor het regelen van de snelheid is er een adaptive cruisecontrol die ervoor zorgt dat er voldoende afstand gehouden wordt tot de voorganger. Als er al een fout gemaakt is door de tesla is dit in dit systeem geweest.
Overigens maken zo ongeveer alle grote automerken en ook toyota gebruik van een adaptive cruisecontrol dus wanneer je dit systeem wil verbieden zeg je dus eigenlijk dat het merendeel van de auto’s van de weg gehaald moet worden.. dat lijkt mij iets overdreven. Voor dit soort systemen geldt altijd dat de bestuurder gewoon op moet letten. Dat moet in een tesla en net zo goed in een mercedes of BMW of welk ander merk dan ook. Bij dot ongeluk heeft de bestuurder hoe dan ook niet op zitten letten.
mooi, weer 1 minder
Stel je voor, het is einde van de avond en de weg is nagenoeg leeg. Een Tesla met nuchtere en alerte bestuurder rijdt op de middelste baan, handen aan het stuur en blik op de weg. Vrachtauto met oplegger rijdt op de rechterbaan en lijkt daar te blijven rijden. Bestuurder van de Tesla maakt automatische overweging om vrachtwagen te passeren, autopilot is aan, handen zijn aan het stuur en blik is op de weg, niks aan de hand. Een volgend moment komt vrachtwagen naar links, bestuurder Tesla reageert net te laat en rijdt met rechter voorkant tegen linker achterkant van de vrachtwagen. Vervelende klap, vervelende schade. De chauffeurs van de vrachtwagen en de Tesla stappen uit, kijken elkaar in de ogen aan, beiden met de schrik in de benen, en constateren dat ze, ondanks het ongeval, veel geluk hebben gehad. Ze besluiten contact te houden en dit verder over te laten aan de wederzijdse verzekeringsmaatschappijen. Plausibel verhaal, toch? Niet spannend, geen insinuaties, geen sensatie…
Dat dit incident door Autoblog wordt gebruikt om Tesla in een kwaad daglicht te stellen is begrijpelijk, maar waarschijnlijk feitelijk onjuist. Het zal daarentegen Tesla motiveren zich verder te verbeteren en grondig onderzoek te doen naar de feiten en het gedrag van de software versie van dat moment op de precieze plek van het ongeval. Dat de onlangs uitgekomen versie van de software dergelijke situaties mogelijk wel ondervangt is een toevallige bijkomstigheid waar de bestuurder van de Tesla zich in de toekomst over zal verwonderen als hij zich weer op de weg begeeft met zijn gerepareerde auto. Ik stel hier dat de situatie waarbij geen sprake was geweest van Autopilot, hoogstwaarschijnlijk hetzelfde resultaat zou hebben gehad en die is, dat de bestuurder van de Tesla waarschijnlijk voor het eerst in zijn leven een ongeval heeft gehad waarbij hij achterop een ander voertuig is gereden. Ik stel ook dat de optelsom van een alerte bestuurder plus de Autopilot meer is dan alleen een alerte bestuurder of alleen de Autopilot. Een moment van onoplettendheid kan ongelukken geven, daarover kunnen we het altijd eens zijn. Maar uiteindelijk zijn ook de hoofdsteun, de gordel en de airbag eens uitgevonden en verguisd. Heeft iemand de bestuurders al gesproken trouwens? Kan een hoop duidelijkheid geven.

Geef een reactie:

Je moet ingelogd zijn om reacties te posten, registreren kan HIER (ook via Facebook).