mboost-dp1

Tesla

Musk svarer igen efter Tesla-ulykke: FSD og autopilot var ikke slået til

- Via engadget -

En køretur endte tragisk for to mænd i staten Texas. Teslas CEO Elon Musk skriver på Twitter, at ejeren af bilen ikke havde tilkøbt FSD. 

To mænd mistede livet da en Tesla Model S ramt et træ og brød i brand i staten Texas.

Myndighederne, der har til opgave at efterforske ulykken, fortæller, at der ikke var en person i førersædet, da ulykken skete.

Ulykken kommer på et tidspunkt, hvor Teslas selvkørende teknologi Full Self Driving (FSD) stadig er i gang med at blive testet.

Ejere af en Tesla kan tilkøbe FSD-pakken, og har mulighed for at deltage i en betatest af teknologien, der senere skal blive til et færdigudviklet produkt.

Dog har der været flere tilfælde af, at brugere af Teslas FSD og Autopilot ikke har fulgt retningslinjerne om, at føreren af bilen skal have hænderne på rattet og være opmærksom på trafikken.

Læs også: Tesla-chauffør sigtet for at sove under kørsel med 150 km/t.

Efter ulykken har Teslas CEO Elon Musk fremhævet nogle vigtige detaljer omkring ulykken.

Ifølge Teslas data var Autopilot-funktionen ikke slået til, og den forulykkede bil havde heller ikke købt FSD-pakken.

Den vej bilen kørte på var heller ikke afstribet ifølge Elon Musk. Det er en af forudsætninger for, at Autopilot-funktionen kan slås til.





Gå til bund
Gravatar #1 - DrHouseDK
21. apr. 2021 07:19
Og et af de første svar derinde er en TikTok-video der viser en Tesla med FSD aktiveret og ingen i førersædet...
Gravatar #2 - Googus
21. apr. 2021 08:51
DrHouseDK (1) skrev:
Og et af de første svar derinde er en TikTok-video der viser en Tesla med FSD aktiveret og ingen i førersædet...

Måske føreren i videoen bruger OpenPilot i stedet for FSD, eller et andet alternativ som kan bypass alle sikkerhedsforanstaltninger.

Det er jo kun software, til en computer på hjul.
Gravatar #3 - larsp
21. apr. 2021 09:38
Musk tweeter "Data logs recovered so far show Autopilot was not enabled" og mainstream media siger med det samme "Musk denies autopilot was active", f.eks.: https://arstechnica.com/cars/2021/04/elon-musk-den...

Det er et malerrigt lille eksempel på trash journalism. Musk sagde ikke stålfast at autopilot ikke var slået etil, han sagde bare hvad "data logs recovered so far" tyder på.

Men alle elsker jo at hade Musk, så, here we go.

(Edit: den linkede engadget artikel er dog mere fair i sin overskrift)
Gravatar #4 - sirius09
21. apr. 2021 09:57
larsp (3) skrev:
Musk tweeter "Data logs recovered so far show Autopilot was not enabled" og mainstream media siger med det samme "Musk denies autopilot was active", f.eks.: https://arstechnica.com/cars/2021/04/elon-musk-den...

Det er et malerrigt lille eksempel på trash journalism. Musk sagde ikke stålfast at autopilot ikke var slået etil, han sagde bare hvad "data logs recovered so far" tyder på.

Men alle elsker jo at hade Musk, så, here we go.

(Edit: den linkede engadget artikel er dog mere fair i sin overskrift)



Hvordan kan man hade virklighedens svar på Tony Stark, oh.... never mind xD

Men ja man skal virkelig passe på med hvad man siger, medierne har det med at fordeje tingene for at skabe overskrifter.
Gravatar #5 - T_A
21. apr. 2021 11:50
Man kan godt forstå at Tesla er hurtigt ude, selv om Tesla sikkert har kørt mange flere km uden uheld via autopilot end en gennemsnitlig bilist, så ved de at alle uheld vil bliver kørt op i medierne.

Er Tesla's data fra log korrekt, så er der slet ikke noget at komme efter.
Gravatar #6 - arne_v
21. apr. 2021 17:23
#sagen

https://www.reuters.com/business/autos-transportat...


Mark Herman, Harris County Constable Precinct 4, said evidence including witness statements clearly indicated there was nobody in the driver's seat of the Model S when it crashed into a tree, killing two people, on Saturday night.
...
In Saturday's accident, the 2019 Tesla Model S was traveling at high-speed near Houston when it failed to negotiate a curve and went off the road, crashing into a tree and bursting into flames, Herman said.

Authorities found the bodies of two men in the car, one in the front passenger seat and the owner of the car in the backseat.

"We have witness statements from people that said they left to test drive the vehicle without a driver and to show the friend how it can drive itself," Herman said.


Vidneudsagn i flertal samt inspektion af ulykkesstedet lyder ret overbevisende.
Gravatar #7 - arne_v
21. apr. 2021 18:06
#sagen2

Deres argumenter lyder fine på overfladen.

Men jeg synes ikke at de står for lidt nærmere analyse.

Der argumenteres for at Tesla autopilot ikke overskrider hastighedsbegrænsningen. Men for det første siger politiet ikke at der er kørt hurtigere end hastighedsbegrænsningen - de siger bare høj hastighed. For det andet så er der masser af veje hvor navigationen ikke kender hastighedsbegrænsningen. Det må også gælde Tesla. Jeg finder det meget usandsynligt at en Tesla autopilot stopper bilen hvis man kommer på sådan en vej.

Der argumenteres for at autopilot ikke kan bruges når der ikke er striber på begge side (og det er der ikke på den pågældende vej). Men her er det ikke helt klart hvad der menes. Der kan jo godt være striber først og så ingen striber senere. Menes der at Tesla autopilot stopper bilen når der ikke længere er striber? Det lyder igen meget usandsynligt. Menes der at Tesla autopilot stopper med at dreje på rattet når der ikke længere er striber og forventer at føreren gør det. Det kan jo fint forklare ulykken - først styrer autopiloten, så stopper striberne og så kommer der et sving. Men at sige at autopiloten ikke er slået til i den situation er ganske vist teknisk korrekt men også vildledende.

Gravatar #8 - nwinther
22. apr. 2021 08:37
arne_v (7) skrev:
#sagen2

Deres argumenter lyder fine på overfladen.

Men jeg synes ikke at de står for lidt nærmere analyse.

Der argumenteres for at Tesla autopilot ikke overskrider hastighedsbegrænsningen. Men for det første siger politiet ikke at der er kørt hurtigere end hastighedsbegrænsningen - de siger bare høj hastighed. For det andet så er der masser af veje hvor navigationen ikke kender hastighedsbegrænsningen. Det må også gælde Tesla. Jeg finder det meget usandsynligt at en Tesla autopilot stopper bilen hvis man kommer på sådan en vej.

Der argumenteres for at autopilot ikke kan bruges når der ikke er striber på begge side (og det er der ikke på den pågældende vej). Men her er det ikke helt klart hvad der menes. Der kan jo godt være striber først og så ingen striber senere. Menes der at Tesla autopilot stopper bilen når der ikke længere er striber? Det lyder igen meget usandsynligt. Menes der at Tesla autopilot stopper med at dreje på rattet når der ikke længere er striber og forventer at føreren gør det. Det kan jo fint forklare ulykken - først styrer autopiloten, så stopper striberne og så kommer der et sving. Men at sige at autopiloten ikke er slået til i den situation er ganske vist teknisk korrekt men også vildledende.




Aner ikke hvordan sådan noget autopilot fungerer - men der må jo uanset være grænsetilfælde ift. hvad den tolererer ift. manglende striber mv.

Jeg ved, at det er lidt off-topic, men hvad forestiller man sig at en Tesla skal/kan gøre, hvis du kører på en opstribet vej, og stribningen er slidt af eller mangler over en 100 meters strækning? Har den en margin hvor den kører videre og præver at genfinde striberne, og når de så dukker op (efter et rimeligt stykke vej) fortsætter den som normalt?
Hvad hvis det er 10 meter, der mangler?
Hvad hvis det er 1 meter, der mangler?

Et eller andet sted, må man have sagt at "så langt må den godt køre, uden afstribning".

Jeg forstår godt, at hænderne på rattet og fokus på trafikken er et krav, og selv nul-margin vil således afhjælpes af, at mennesket tager over. Men så må det jo kræve, at man på nogle stræk sidder og genstarter autopiloten igen og igen, hvis den ikke selv forstår at "nu er der striber igen", og tager dét som udtryk for at den tidligere aktiverede autopilot nu skal genaktiveres automatisk.

Nogen der ved, hvordan det foregår?
Gravatar #9 - arne_v
22. apr. 2021 12:39
#8

Altså funktionaliteten med at bilen detekterer striber i begge sider og selv drejer på rattet er meget almindelig idag.

Begge biler her i huset har det.

Systemet på disse biler fungerer som:
* system er normalt altid slået til
* i konsollen viser den to striber : hvide => den gør ingenting, grønne => den drejer selv
* kun aktivt ved over 40 (60)

Og det virker fint.

Men den går ofte i hvid. Af mange forskellige årsager. Det er helt normalt at der mangler striber.

Ingen kunne drømme om ikke at være opmærksom.

Featurens navn LKA (Lane Keep Assistant) lover dog heller ikke lige så meget som Tesla's "autopilot".

Jeg ved ikke hvordan det virker på en Tesla.
Gravatar #10 - arne_v
22. apr. 2021 13:27
arne_v (9) skrev:

i konsollen viser den to striber


og HUD hvis man har det ...
Gravatar #11 - Breakingpoint
22. apr. 2021 16:48
Folk skulle tage at sætte sig ind i hvad:
Autopilot er og hvad Fsd (full self driving) det er.

Når folk høre Tesla autopilot. Tænker de selvkørede og det desværre en misforståelse.

Hvis man køre med Standard autopilot i en Tesla. Skal man bestemt sidde i førersædet og holde øje med hvad den laver.
Den holder vognbanen, hastighed, afstand til forankørende og fartgrænsen aflæser den på skilte men også via GPS.

Autopilot kan fx ikke finde ud af et T-kryds hvor vejen ender.
Eller en vej med meget skarpe sving. Der vil den bippe helt vildt og bede om at overtage rattet.

Gravatar #12 - dk_picard
22. apr. 2021 20:05
Hvis man virkelig vil kan man godt, men...
Gravatar #13 - arne_v
23. apr. 2021 13:54
Gravatar #14 - DrHouseDK
26. apr. 2021 07:56
arne_v (13) skrev:
Men hvis man bruger sådan er bør man naturligvis ikke klandre Tesla for ulykker.


Både og, for så er deres krav bare ikke høje nok. Man kunne jo f.eks. benytte kameraer til at sikre der sidder nogen i førersædet og som har øjnene på vejen. Det kan f.eks. BMW finde ud af.
Gravatar #15 - larsp
26. apr. 2021 11:23
#14 Hr. Idiot kørte ind i et træ fordi han for sjov tog bind for øjnene mens han kørte. Med den logik er det så bilproducenten der skal klandres for ikke at have et kamera der checker om folk har bind for øjnene når de kører.

Der er uendeligt mange måder at slå sig selv ihjel i en bil. Hvis man bevist snyder autopiloten og forlader førersædet, som det tyder på er sket her, er man altså selv ude om det.
Gravatar #16 - arne_v
26. apr. 2021 14:40
#15

Det er helt klart uforsvarligt at lade en bil som ikke er godkendt til det køre selv uden at være klar til øjeblikkeligt at tage over.

Men selvom det ikke er et Tesla problem så kan det godt være et "Teslaisme" problem.

Teslas marketingsfolk har valgt at kalde Teslas adaptive cruise control og lane keep assistant for "autopilot" på trods af at det ikke er en autopilot. Teslas chef Elon Musk kommer med en på overfladen klar melding men som ved nærmere analyse er total sort snak. En Tesla fan argumenterer for at det som faktisk er sket ikke kan lade sig gøre (når man nu ved at det er sket så er det ikke svært at finde ting som f.eks. de Amazon links).

En blanding af videnskab og religion kan være farlig.
Gravatar #17 - CBM
27. apr. 2021 04:48
#16

jeg er sikker på at Apple vil kalde alt deres teknologi noget der smager af religion når deres abbonements baserede el bil kommer på markedet om 10 år
Gravatar #18 - dugfrisk
28. apr. 2021 15:50
apple syn. apple car bliver med glas bund, og sim slots lavet af tin. air tag car key koster ekstra. batterier sælges separat
Gravatar #19 - dugfrisk
28. apr. 2021 15:55
musk er immun.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login