mboost-dp1

FCA US LLC
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Well, Tesla vil formegentlig annoncere autonome biler med deres Model 3, hvilket sker i år, så tidsrammen 2020-2050 virker ikke realistisk. Autonome biler er teknisk set muligt i dag - og statistik viser at de er markant mere sikre end biler kørt af mennesker.
Det eneste der reelt mangler for at vi har fuldt ud autonome biler, er lovgivning.
Det eneste der reelt mangler for at vi har fuldt ud autonome biler, er lovgivning.
Lasse O (1) skrev:Det eneste der reelt mangler for at vi har fuldt ud autonome biler, er lovgivning.
Og at fjerne alle biler med mennesker fra vejene.
På sigt bliver den største fare for selvkørende biler de biler med mennesker bag rattet, for de vil være utilregnelige og siger ikke hvad de har tænkt sig at gøre trådløst...
Lasse O (1) skrev:
Det eneste der reelt mangler for at vi har fuldt ud autonome biler, er lovgivning.
Bilerne er så vidt jeg ved heller ikke klar til at køre når der er sne og is på vejene, hvilket nok lige skal virke før det kan bruges hele året rundt her i Danmark
Man ja, er sikker på at lovgivningen nok er det der kommer til at spænde mest ben
HenrikH (4) skrev:Lasse O (1) skrev:Det eneste der reelt mangler for at vi har fuldt ud autonome biler, er lovgivning.
Og at fjerne alle biler med mennesker fra vejene.
På sigt bliver den største fare for selvkørende biler de biler med mennesker bag rattet, for de vil være utilregnelige og siger ikke hvad de har tænkt sig at gøre trådløst...
De nuværende testbiler fortæller heller ikke hvad deres hensigt er. De kører netop iblandt almindelige mennesker, og klarer det vist ganske fint. Ifølge en rapport som Google fik Virginia Tech til at lave, så er der mellem ca. 50 % og ca. 100 % færre ulykker pr. 1 mio. kørte kilometer.
Biler - som vi kender dem - vil formentlig altid skulle have en "manual"-mode, hvor mennesket får næsten fuld kontrol med bilen. Det kan være i en parkeringssituation og i køresituationer, hvor maskinen ikke ved, hvad der er op og ned.
Men bare rolig - forsikringsselskaberne skal nok finde en måde at øge indtjeningen på. Jeg vil gætte på at det bliver et gebyrtungt område.
Men bare rolig - forsikringsselskaberne skal nok finde en måde at øge indtjeningen på. Jeg vil gætte på at det bliver et gebyrtungt område.
Vi når nok frem til at selvkørende biler bliver 100% elektriske, måske endda med anti gravity og uden forsikring, da de vil blive pålagt regelmæssig automatisk service, 100% automatisk styring og ingen lovkrav til passagerer måske udover sikkerhedssele.
Indtil da vil vi nok se mange hybrider imellem den løsning og de nuværende (antikke) biler.
Indtil da vil vi nok se mange hybrider imellem den løsning og de nuværende (antikke) biler.
Altså Musk siger jo, som jeg vil mene er meget rigtigt, er at de ikke tager ansvar for hvor godt bilen selv kører, så de forventer at der er en person som er klar til at overtage styringen.
Hvis man laver en bil som man sælger som værende selvkørende og den måske ikke engang har et rat, så ja, der må ansvaret ligge på producenten.
Hvis man laver en bil som man sælger som værende selvkørende og den måske ikke engang har et rat, så ja, der må ansvaret ligge på producenten.
Det må være førerens ansvar, selv når man bruger en computer til at styre bilen.
Folk er jo også ansvarlige når de bruger GPS og drejer forkert af enten fordi GPS'en ikke er opdateret eller simpelthen tager fejl.
Så det må være forsikringen som dækker (ansvarsforsikringen herhjemme). Viser det sig at være en teknisk fejl må vedkommende så dokumentere dette og sagsøge producenten, men hovedreglen må være at føreren er ansvarlig.
Derimod bør forsikringsselskaberne være lykkelige over selvkørende biler da deres uheldsstatistik er langt lavere end personers manuelle evner. Mener at de uheld som selvkørende biler har været involveret i indtil videre har været andres skyld, pga. for hård opbremsning, køre bag i bilen osv. Men vidst aldrig pga. softwaren har fejlbedømt. Hvis dette holder på sigt så vil der næsten ikke være nogen uheld pga. selvkørende biler især hvis der er nok sikkerhedsmekanismer i tilfælde af software fejl, strømsvigt osv. som tager over og stopper bilen forsvarligt indtil føreren tager over. Det vil jo betyde langt færre udbetalinger fra forsikringsselskabet og langt sikre trafik i takt med flere benytter selvkørende biler især hvis de kan opdatere sig selv via ruter de kører og bliver bedre med tiden.
Folk er jo også ansvarlige når de bruger GPS og drejer forkert af enten fordi GPS'en ikke er opdateret eller simpelthen tager fejl.
Så det må være forsikringen som dækker (ansvarsforsikringen herhjemme). Viser det sig at være en teknisk fejl må vedkommende så dokumentere dette og sagsøge producenten, men hovedreglen må være at føreren er ansvarlig.
Derimod bør forsikringsselskaberne være lykkelige over selvkørende biler da deres uheldsstatistik er langt lavere end personers manuelle evner. Mener at de uheld som selvkørende biler har været involveret i indtil videre har været andres skyld, pga. for hård opbremsning, køre bag i bilen osv. Men vidst aldrig pga. softwaren har fejlbedømt. Hvis dette holder på sigt så vil der næsten ikke være nogen uheld pga. selvkørende biler især hvis der er nok sikkerhedsmekanismer i tilfælde af software fejl, strømsvigt osv. som tager over og stopper bilen forsvarligt indtil føreren tager over. Det vil jo betyde langt færre udbetalinger fra forsikringsselskabet og langt sikre trafik i takt med flere benytter selvkørende biler især hvis de kan opdatere sig selv via ruter de kører og bliver bedre med tiden.
f-style () skrev:Mener at de uheld som selvkørende biler har været involveret i indtil videre har været andres skyld, pga. for hård opbremsning, køre bag i bilen osv. Men vidst aldrig pga. softwaren har fejlbedømt.
Der har været et uheld hvor Google tog skylden for sammen stødet. Men det er stadig flot.
http://www.dailymail.co.uk/sciencetech/article-349...
_tweak (14) skrev:Google car crashed because bus driver didn't do what it expected
Det med andre ord ikke være sket hvis det var en selvkørende bus :-D
Hehe :) Det ville det.
Man fandt ud af at Googles bil egentlig ikke gjorde nogen fejl, ud over ikke at kører mere menneskeligt, for det ville have gjort det mere tydeligt for bussen hvad bilen havde tænkt sig at gøre. Problemet var ikke at den ikke måtte det som den gjorde, men det var en situation hvor at man skulle vise hvad man var ved at gøre på anden vis end med lys og bare kører forsigtigt frem.
Rainmeter (16) skrev:#15
Prøv at læs det du skrev igen, giver ingen mening.
Det giver mening, bare ikke nemt at forstå. Googles bil kørte stille frem og kunne se at den havde plads, men forventede at bussen kunne se hvad Google bilen var ved.
Måden Google bilen kørte på gjorde det bare ikke tydeligt nok og den formodede forkert da den formodede at busen ville holde tilbage eller holde lidt afstand ud til siden.
http://www.theverge.com/2016/3/9/11186072/google-s...
kblood (17) skrev:Rainmeter (16) skrev:#15
Prøv at læs det du skrev igen, giver ingen mening.
Det giver mening, bare ikke nemt at forstå. Googles bil kørte stille frem og kunne se at den havde plads, men forventede at bussen kunne se hvad Google bilen var ved.
Måden Google bilen kørte på gjorde det bare ikke tydeligt nok og den formodede forkert da den formodede at busen ville holde tilbage eller holde lidt afstand ud til siden.
http://www.theverge.com/2016/3/9/11186072/google-s...
Pointen er, at hvis både bilen OG busen havde været føreløs, ville ulykken ikke være sket, da det essentielt kan koges ned til en menneskelig fejl fra buschaufføren.
Hvis nu vi antager at begge var føreløse, ville bilens måde at køre på være åbenlys for bussens system og en misforståelse ville ikke ske.
Det er først når et menneske skal til at lave en tolkning, at fejlen kan ske, uanset om så fejlen er at bilens måde at køre på ikke var "tydelig nok"
#18 Den pointe anerkendte jeg da også, men det ændre ikke på at selvkørende biler SKAL kunne færdes med mennesker i trafikken. Resten af det jeg skrev var ikke et svar på det det ville være løst hvis at bussen var selvkørende, det var at Google bilen tog fejl ved at formode hvordan bussen ville reagere og Google er kommet frem til hvorfor bussen ikke gjorde som Google bilen forventede.
Loven siger at i dette tilfælde var det Google bilen som ikke fulgte loven. Det er faktisk ikke engang sikkert at problemet var løst med en selvkørende bus, men det er da sandsynligt, men nu er det vidst lidt tidligt at begynde at planlægge efter at alle køretøjer skal være selvkørende.
Desuden er det jo vigtigt at man viser sine intentioner i trafikken tydeligt nok. Hvis man ikke gør, så sker denne slags jo.
Loven siger at i dette tilfælde var det Google bilen som ikke fulgte loven. Det er faktisk ikke engang sikkert at problemet var løst med en selvkørende bus, men det er da sandsynligt, men nu er det vidst lidt tidligt at begynde at planlægge efter at alle køretøjer skal være selvkørende.
Desuden er det jo vigtigt at man viser sine intentioner i trafikken tydeligt nok. Hvis man ikke gør, så sker denne slags jo.
HenrikH (20) skrev:#19: Nej, du affejede faktisk det at ulykken ikke ville være sket hvis begge have været selvkørende med den formulering du brugte ;-)
#14 skrev: Det ville ikke være sket med selvkørende begge steder.
#15: Det ville det (implicit, jo det ville være sket med to selvkørende).
Hov, ja det var en dobbelt negativ. Mente at skrive at det ville være undgået med to selvkørende. Det kan være derfor min post ser ud til at være blevet misforstået en del. Ja, med to selvkørende burde der være langt større sandsyndlighed for at bussen havde holdt tilbage eller kørt lidt til siden.
Havde helt overset at jeg skrev "Det ville det" og at det ikke betød at det ville have hjulpet med at afværge det. Tror måske det var fordi jeg læste det som jeg svarede på anderledes i mit hoved.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.