Brokkenpiloot geeft Autopilot toch NIET de schuld

Auteur: , 37 Reacties

Het blijkt maar weer dat zelfrijdende auto's niet altijd het beste in de mens naar boven halen.

Brokkenpiloot geeft Autopilot toch NIET de schuld

Een 58-jarige Amerikaan gaf in eerste instantie het Autopilot systeem de schuld van zijn crash in de stad Minnesota. Volgens bestuurder David Clark accelereerde de Model S plotseling nadat hij de autonome modus had ingeschakeld, waarna de Tesla van de weg reed en een paar keer over de kop sloeg. De vijf inzittenden raakten lichtgewond bij deze klapper.

Zoals we al vaker gezien hebben heeft Tesla aangegeven de crash te zullen onderzoeken. Het bedrijf kan immers data uitlezen waaruit blijkt wat er precies gebeurd is en dus ook of de bestuurder het ongeluk aan zichzelf of aan Autopilot te danken heeft.

Clark heeft zich echter bedacht. Het eerdere statement zou niet kloppen omdat hij juist Autopilot had uitgeschakeld om vlak daarna zélf op het gaspedaal te gaan staan. Daarna verloor de auto grip en vloog de Model S uit de bocht.

Tesla heeft aangegeven nog steeds uit te zullen zoeken wat precies de aanleiding voor de crash is geweest. Overigens willen we niet meteen met een beschuldigende vinger naar Clark wijzen want het kan ook zo zijn dat zijn aanvankelijke statement verkeerd begrepen is.

Wel wordt het een beetje vermoeiend dat Autopilot meteen na elke Tesla-crash ter sprake komt. Het systeem is immers niet bedoeld om incapabele bestuurders een alibi te geven, maar gelukkig heeft Tesla de data om te bewijzen hoe de vork écht in de steel zit.



37 reacties

Een Nederlandse Model S bestuurder heeft ook al geroepen dat de auto de oorzaak was van zijn ongeval. Waarom is dit niet strafbaar of kan Tesla imago schade verhalen op de liegebeesten?
@w0o0dy: het kan ook gewoon waar zijn hè. Totdat dat duidelijk is lijkt het me een beetje voorbarig voor zo’n vraagstelling.

Als wel duidelijk is en kan worden bewezen dat deze man/mensen liegen dan zijn daar in Nederland wel wetten voor.
@lekbak: in theorie kan het waar zijn alleen is er niet 1 geval bekend waar de Tesla iets deed wat het ongeval veroorzaakte.
@w0o0dy: maar wel iets wat het niet deed : https://www.rtlnieuws.nl/economie/musk-autopilot-ongeluk-tesla-niet-relevant-voor-aandeelhouders
@bitd: niet juist.. het systeem bleek de bestuurder al een aantal keren gewaarschuwd te hebben maar omdat de man de controle overnam en het systeem het niet helemaal goed zag ging het mis.. idd had het systeem het kunnen zien maar de bestuurder hield zich niet aan de regels.
@w0o0dy: omdat de man de controle NIET overnam
Sowieso vind ik het vermoeiend dat elk ongeluk met een Tesla gelijk nieuws is.
@mauking: komt door de Autopilot. Het is de eerste echte stap naar autonoom rijden. Best wel een revolutionair dingetje. Maar (nog) niet onomstreden.
via Android app
@willeme: adaptieve cc bestaat al jaren en alle safety features ook. Enig verschil is is dat de auto binnen de lijnen blijft rijden en rijbaan kan wisselen.
@stfu: “enige verschil”, dat zijn flinke stappen (diende concurrentie overigens ook al in productie heeft).
@willeme: het is ook vooral de manier waarop tesla het doet.

Ze brengen een ‘speeltje’ op de markt wat erg leuk is (voor wie er van houd) maar ze zeggen erbij dat ze het niet mogen gebruiken zoals ze willen. Wetende dat de mensen het toch verkeerd gaan gebruiken want mensen zijn slechts mensen.

Nu krijgt tesla dus hun data terwijl ze in het proces vele onschuldige omstanders in gevaar brengen (de software is immers nog lang niet af), en ondertussen òòk nog eens de verantwoordelijkheid bij de klanten leggen. Dat vind ik wel zo bizar ontzettend laag en moreel verwerpelijk.

Het is allemaal reuze knap wat tesla presteert. En eigenlijk wil ik ze het het beste gunnen. Maar op deze manier omgaan met mensenlevens is gewoon ronduit walgelijk. Wachten tot de onvoltooide software een ongeluk gemaakt heeft om daar van te kunnen leren…
@lekbak: Ik vind het gek dat je zo inzoomt op Tesla. Alle autobouwers zijn onverantwoordelijke plurken. Zomaar machines bouwen die rijden zonder dat er spierkracht aan te pas komt! Dat vraagt toch om ongelukken! En wat dacht je van die plurken van Ikea! Die kasten, die mensen nota bene zelf in elkaar moeten schroeven, die kunnen omvallen!. En de bakker! Die bakt brood waar ik me in kan verslikken! Die baziboejoek houdt er niet eens rekening mee of ik wel of niet met mes en vork kan eten! Een schande is het!
@pomoek: Het brood van de bakker stuurt zichzelf niet het verkeerde keelgat in. Feit blijft dat er een systeem is wat besturingsmogelijkheden heeft in de auto. Een systeem wat de snelheid en richting van het voertuig kan aanpassen zonder tussenkomst. Alleen is dat systeem nog niet volledig. En kan dat potentieel gevaarlijke situaties veroorzaken. Dat is iets waar Lekbak wel een punt heeft. Je rolt een systeem uit voor gebruik terwijl dat systeem niet feilloos is. Dat is potentieel gevaarlijk. Als de bakker ineens brood met kogelvis gaat bakken maar slechts ongeveer weet hoe dat moet geeft dat ook potentieel vervelende situaties. Dan kun je dat beter nog even achterwege laten vind ik. Snap wel dat je techniek moet testen, maar omdat door je klanten te laten doen vind ik nogal ‘bijzonder’.
@e34m5touring: Ik ben benieuwd: Noem eens een systeem dat 100% feilloos is? Dus niet 99,99999% feilloos maar 100%? En wanneer heeft Tesla gezegd dat de autopilot 100% feilloos is?
@pomoek: Ik zeg nergens dat Tesla vind dat het systeem feilloos is. Het feit dat men dat zelf ook niet vind zou een reden kunnen zijn om nog even te wachten met het uitrollen van dat systeem. Meer zeg ik niet. Er zijn zat bedrijven bezig met autonoom, sommige al langer dan Tesla, toch kiezen zij er voor het niet te implementeren omdat het nog niet voldoende ontwikkeld is volgens hen. Dus zo raar is mijn stelling toch niet. En als je echt zo vast zit op dat feilloos, nee geen enkel systeem is feilloos (weet je zelf ook wel) maar goed, een systeem wat 2000+ kg zelf kan besturen zonder dat het volledig uitontwikkeld is, wel laten werken vind ik bijzonder.
@e34m5touring: Goed. Waar we het dus over eens zijn is dat geen enkel systeem 100% feilloos is. Maar de stelling dat ze dat daarom dus maar niet moeten uitrollen vind ik eigenaardig. Automatische cruisecontrol is ook niet feilloos en wordt ook uitgerold. Lande departure idem dito, blinde hoek detectie, airbags, veiligheidsgordels, navigatiesystemen zijn allemaal uitgerold en gebruikt terwijl ze niet feilloos zijn. Dat er mensen zijn die, ondanks dat ze weten en dat is aangegeven dat iets niet feilloos is dit toch als zodanig gebruiken, dat kun je Tesla toch niet kwalijk nemen? Dat is een beetje een magnetronfabrikant kwalijk nemen dat ze niet op een magnetron zetten dat je die niet mag gebruiken om je hond te drogen. En ja, mensen doen dat.
@pomoek: Allemaal waar. Met 1 klein verschil. Alle systemen die jij opnoemt hebben geen volledige controle over de auto. Dat het hele systeem een auto kan besturen terwijl zelfs Tesla aangeeft dat het daarvoor nog niet klaar is vind ik dan nogal optimistisch. En zoals ik al zei, er zijn zat partijen bezig met Autonoom en zij kiezen er allemaal voor het nog niet te gebruiken. Kan je wel zeggen dat de klanten het gebruiken en dat Tesla daar niks aan kan doen, maar dat is onzin. Zodra je zoiets met veel reuring introduceert weet je dat men het gaat gebruiken. Beetje foei en ‘jaaaaa maar wij zeggen al dat je het niet mag gebruiken’ roepen als het mis gaat en verder lekker gratis data trekken, zo ken ik er nog wel 10…
@E34M5Touring: zo denkt mijn moeder ook over cruise control.

Overigens is er volgens mij slechts 1 ongeluk te wijten aan de techniek (die spiegelende trailer).
@flutterby: Ik probeer enkel uit te leggen waar Lekbak en ik dezelfde mening hebben. Ik zeg nergens dat ongelukken te wijten zijn aan die techniek. Ik gebruik het woord potentieel. En wat betreft ongelukken die wel of niet te wijten zijn aan Tesla, uit Tesla’s data blijkt nooit dat het aan de auto ligt. Maar als het wel aan de auto zou liggen, zou Tesla dat dan ook zo uitgebreid gaan melden? Don’t think so…
@E34M5Touring: een rechter kan die ruwe data gewoon opeisen en door een onafhankelijk onderzoeker laten beoordelen. En hoogst waarschijnlijk heeft Tesla zelf de logging zo gemaakt dat het niet te manipuleren is.

Liever een onbetrouwbare techniek als een onbetrouwbaar bedrijf. Vergeet niet dat autopilot slechts een hulpmiddel is en niet de USP van een Tesla is.
@flutterby: Autopilot is gewoon een sellpoint voor Tesla. En dat ‘slechts een hulpmiddel’ is gewoon juridisch timmerwerk. Als je niet zeker bent van de werking kun je het beter niet beschikbaar maken vind ik.
@E34M5Touring: onzin, BMW, VAG, Renault en Mercedes doen exact hetzelfde…
@flutterby: Oh ok, dus omdat zij het ook doen maakt het niet uit ofzo? Net zo erg.
@willeme: ik heb vanmorgen twee Tesla (senior) engineers (één NLer) gesproken maar niet hierover. Ga misschien vanavond nog even wat met hen drinken dus zal het eens bespreken misschien.
Die data is leuk, maar natuurlijk ook niet 100% betrouwbaar. Zeker niet als het door wc-eend zelf wordt geanalyseerd.

Een haperende of defecte gaspedaal-potmeter die plots op 100% knalt, geeft al een totaal vertekend beeld. En Tesla zal claimen dat “uit de data” blijkt, dat de bestuurder het pedaal vol heeft ingetrapt.
@melkkoe: Ik mag aannemen dat zo’n sensor altijd te niet gedaan kan worden door het rempedaal? Dus dat het rempedaal altijd het gaspedaal overruled.
@melkkoe: drive-by-wire zal altijd correcte informatie laten zien. Als de sensor niet werkt krijgt de motor ook geen opdracht.
@flutterby: ik werk zelf in automatisering, en heb regelmatig met dit soort problemen te kampen.
Meestal zal de sensor dood zijn, maar Het komt regelmatig voor dat defecte sensoren hun maximale waarde tonen.
“maar gelukkig heeft Tesla de data om te bewijzen hoe de vork écht in de steel zit” of
“maar gelukkig heeft Tesla de data om de privacy van de bestuurder te schenden ” of
“maar gelukkig heeft Tesla de data om de schuld op de bestuurder af te wentelen ” of
“maar gelukkig heeft Tesla de data om de autopilot vrij te pleiten ”
Ik ben er nog niet van overtuigd dat het juist is dat Tesla die data analyseert na een ongeval, ipv de politie, en of Tesla daar nou altijd wel zo zuiver mee omgaat.
@mashell: de politie is bezig met een nieuwe computersysteem die hiermee overweg kan. De verwachte oplevering is 2020 en wordt in 2022 uiteindelijk afgeschreven omdat het niet de gewenste functionaliteit heeft.
Eh.. ” Wel wordt het een beetje vermoeiend dat Autopilot meteen na elke Tesla-crash ter sprake komt. ”

Onder dit bericht staan alleen al 3 interne linkjes naar berichten op AutoBlog zeg, met “Autopilot” crashes,.. zijn jullie niet zelf ook enigzins debet aan de hype?
Autopilot is de nieuwe cruise control.
Over een gsm achter het stuur roept men moord en brand (is niet oké trouwens) maar een auto zelf laten rijden werd meteen aanvaard.(ook door de wetgeving). De eerste keer dat ik een Tesla zelf zag rijden was tijdens een nieuwsuitzending en in die reportage van 2 minuten ging het op een afrit van de snelweg al grondig mis. Auto en vooral infrastructuur is hier duidelijk nog niet klaar voor!
@geertvn: Het wordt juist niet meteen aanvaard. Ik denk dat vrijwel iedereen die voor het eerst achter het stuur van een autonoom rijdende auto zit dit een hele vreemde gewaarwording vindt. Met de GSM aan het oor rijden is jarenlang gewoon aanvaard en werd normaal gevonden. Helaas nog steeds door heel veel mensen.
Zonder er verder op in te gaan of het ongeluk nu wel of niet aan Autopilot te wijten is, vind ik het wel altijd frappant wanneer mensen als Clark hun verklaringen ineens 180 graden wijzigen. Het kan natuurlijk zo zijn dat het verhaal wereldwijd zodanig opgeblazen is dat hij bang geworden is voor zijn eigen excuus, maar ik houd toch ook rekening met een dubieuze mutatie van het banksaldo van de bewuste meneer.
Ga voor een miljoen short op Tesla, ram je 2e hands S in de poeier en zag dat de autopilot aan stond en zoek het nieuws. Koers gaat naar beneden en de winst is binnen.

Geef een reactie:

Je moet ingelogd zijn om reacties te posten, registreren kan HIER (ook via Facebook).