mboost-dp1

Wayve / YouTube

Selvkørende bil-prototype fungerer uden avanceret udstyr

- Via TechCrunch -

Wayve har lavet en selvkørende bil, som kan klare sig med almindelige kameraer og GPS.

Normalvis er selvkørende biler som Googles Waymo-biler afhængig af avanceret udstyr som LIDAR og meget detaljeret kort-data.

Det er ikke tilfældet med en ny prototype fra Wayve. I en video viser selskabet en selvkørende bil, som kører rundt i Cambridge kun ved hjælp af kameraer og GPS på en smartphone. 

Wayves mål er nemlig at lave selvkørende biler, som er mere selvstændige.

Det betyder også, at bilen aldrig havde ‘set’ vejene før, og at den kun kørte på 20 timers trænings-data.

Bilen lærer imens den kører ved at se, hvordan andre gør.

Den bruger desuden kun de data, som er mest relevant for dens opgave, hvilket betyder, at en almindelig moderne laptop er nok til at køre Wayves selvkørende AI.





Gå til bund
Gravatar #1 - Ajukrezi
5. apr. 2019 09:08
nu regner det på den video som ellers var noget jeg frygtede, men almindelige kameraer er jo lysfølsomme, regn mm.
jeg er imponeret hvis de kan klare sig i alle situationer uden LIDAR mm.
Gravatar #2 - CBM
5. apr. 2019 09:12
Jeg håber ikke de lader den lære fra italienske eller franske bilister :-D
Gravatar #3 - CBM
5. apr. 2019 09:35
btw så vil jeg anse en smartphone for at være avanceret udstyr :-)
Gravatar #4 - ToFFo
5. apr. 2019 09:46
Med almindelige kameraer og GPS'en fra en mobiltelefon, kan bilen uden hjælp fra Lidar finde og påkøre fodgængere, uden chaufførens indblanden.
Gravatar #5 - SukkerFri
5. apr. 2019 10:29
Det var jo ligsom den gang man kunne sende folk til månen med mindre regnekraft end man finder i en denver tablet fra Harald Nyborg. I dag skal der datacenter til. Jaja, det var også ved at gå galt tusind gange på de månelandinger, but still.

Er det samme ved at ske med de selvkørende biler? Ikke det med at køre galt, men at de simpelthen gør det for kompliceret? Men så igen, man skal jo holde sig selv i gang :)
Gravatar #6 - T_A
5. apr. 2019 14:33
Siden mennesker fint kan køre uden andre sanser end synet, giver det mening at en robot også kan.
Specielt hvis man laver softwaren bagved ekstra intelligent og som en ekstra sikkerhed f.eks. sikrer sig at flere kameraer overlapper henandens vinkler, så selv hvis et af dem skulle blive mudret til, defekt osv. Så vil dette ikke bevirke en utilsigtet reaktion, da den ud fra de andre kameraer kan konkludere det er pga. defekt og derfor ekskludere dette til at skabe sit 3D univers indtil det igen gav et billede som matchede virkeligheden fra de andre inputs.

Fordelen ved kun at benytte kameraer er også at vi har brugt oceaner af tid og penge på at udvikle dem til de i dag er billige og har en billedekvalitet som overgår det menneskelige øje på næsten alle punkter punkter.

Det der kræves er en god AI og kraftig hardware, der kan finde ud af kombinere alle disse kameraer til et enkelt virtuelt 3D gengivelse af verden omkring køretøjet.

Når Google mestre softwaren bag dette, vil det også åbne op for at denne platform kan benyttes i alt fra kampvogne, fly og overvågnings systemer til bygninger m.m.

Tænk hvor effektivt det ville være, hvis en person kunne sidde med VR udstyr og få perfekt billede udvendigt som om den kampvogn eller bygning de sad i var 100% gennemsigtig.
Gravatar #7 - CBM
5. apr. 2019 18:20
#6

Fuldstændig tillukket bil
VR/ar gear
Kommando style
Selv kørende
VR/ar pron

Fapilicious

Gravatar #8 - kblood
5. apr. 2019 21:01
Tesla gik jo hen imod at bruge Lidar mere end de gjorde pga der var en der døde og det kunne være undgået hvis de ikke havde stolet helt så meget på kamera input.
Gravatar #9 - Molgaard
6. apr. 2019 07:53
T_A (6) skrev:
Siden mennesker fint kan køre uden andre sanser end synet, giver det mening at en robot også kan.


Vigtigste detalje omkring syn vs kamera.

Det menneskelige syn er i stand til at fornemme dybde. Det kan et kamera ikke og siden dybde er en forudsætning for at afgøre hvor langt væk ting er i trafikken er det ikke et trivielt problem.

Jeg ved så godt at hvis man har to kameraer, der optager det samme emne fra to forskellige vinkler, så kan man beregne afstanden til emnet via simpel trigonometri.

Det kræver blot at computeren kan identificere de samme punkter på to forskellige billeder og kender relation imellem dem.

Ikke just en triviel opgave.

Næh, så er det nemmere at bruge LIDAR til at lave et 360 grades point cloud og den som basis, når man skal navigere.
Gravatar #10 - T_A
6. apr. 2019 10:27
Molgaard (9) skrev:
T_A (6) skrev:
Siden mennesker fint kan køre uden andre sanser end synet, giver det mening at en robot også kan.


Vigtigste detalje omkring syn vs kamera.

Det menneskelige syn er i stand til at fornemme dybde. Det kan et kamera ikke og siden dybde er en forudsætning for at afgøre hvor langt væk ting er i trafikken er det ikke et trivielt problem.

Jeg ved så godt at hvis man har to kameraer, der optager det samme emne fra to forskellige vinkler, så kan man beregne afstanden til emnet via simpel trigonometri.

Det kræver blot at computeren kan identificere de samme punkter på to forskellige billeder og kender relation imellem dem.

Ikke just en triviel opgave.

Næh, så er det nemmere at bruge LIDAR til at lave et 360 grades point cloud og den som basis, når man skal navigere.


Nemlig præcis, som de skriver så kræver det bare 2 eller flere kameraer og beregning.

Men hvis Google formår at opbygge software som samler alle disse forskellige inputs til et enkelt 360 grader 3D univers, så er det hele allerede beregnet.

Men det kræver de kan gøre det på en hel ny måde og ikke bare som man plejer analysere på et enkelt input hver for sig.

Man kan sige fordelen ved normalt synlig lys til forskel fra et LIDAR billede er at vi allerede intuitivt ved hvad visuelle effekter som kan være svære at se forskel på i vores dagligdag og kan derfor fra starten optimere systemet til genkende disse.

F.eks. Sne dækkede objekter, men en baggrund af sne.

LIDAR er jo som sådan ikke ufejlbarlig og dens målinger kan også blive snydt f.eks. af reflekterende overflader med en uheldig vinkel, så intet af pulsen kommer tilbage til dens sensor.

En ekstra fordel for Google ved en kamera løsning er jo så også at de nu ikke behøver deres street view biler mere, da de kunne få en hel hær af biler til at opdatere Street View næsten live.
Puhh har sagt det før Google ville være det perfekte skalkeskjul firma for NSA.
Gravatar #11 - kblood
6. apr. 2019 12:58
Nu er computere da godt nok i stand til at genkende mange ting efterhånden, men man må huske at hvis en AI skal køre en bil kun ud fra kamera input, så kræver det jo noget mere end bare at kunne genkende forskellige ting, der skal ofte kunne genkendes ting på få sekunder og det skal ske hele tiden.

Ikke nok med det, det er ikke nok at kunne genkende en bil og en vej, der skal kunne genkendes hvad der er dyr, mennesker, lastbiler, almindelige biler og flere forskellige typer veje, og om vejen af blokeret af sand eller andet der er spredt ud over den og meget meget mere.

Som det er nu, så trænes disse neural nets jo til at kunne genkende ret specifikke ting. Det går ikke at den prøver at genkende alle forskellige typer ting den får øje på, på vejen. Derfor trænes den i stedet til at genkende veje og afstande til andre biler og... "væsner". En selvkørende bil har ikke tid til at tage højde for om det er et menneske eller en hun. At genkende en vej betyder at disse biler gerne er afhængig af vejstriber, og det er også det der går det så nemt at snyde dem. F.eks. har man kunne få en bil til at skifte bane bare ved at lave 3 små hvide pletter på en vej.

Vi er stadigt rent langt fra at kunne sammenligne hvordan et menneske er i stand til at køre bil og hvordan disse AIer køre en bil.
Gravatar #12 - MarsontheRocks
7. apr. 2019 20:18
T_A (6) skrev:
Siden mennesker fint kan køre uden andre sanser end synet, giver det mening at en robot også kan.
Specielt hvis man laver softwaren bagved ekstra intelligent og som en ekstra sikkerhed f.eks. sikrer sig at flere kameraer overlapper henandens vinkler, så selv hvis et af dem skulle blive mudret til, defekt osv. Så vil dette ikke bevirke en utilsigtet reaktion, da den ud fra de andre kameraer kan konkludere det er pga. defekt og derfor ekskludere dette til at skabe sit 3D univers indtil det igen gav et billede som matchede virkeligheden fra de andre inputs.

Fordelen ved kun at benytte kameraer er også at vi har brugt oceaner af tid og penge på at udvikle dem til de i dag er billige og har en billedekvalitet som overgår det menneskelige øje på næsten alle punkter punkter.

Det der kræves er en god AI og kraftig hardware, der kan finde ud af kombinere alle disse kameraer til et enkelt virtuelt 3D gengivelse af verden omkring køretøjet.

Når Google mestre softwaren bag dette, vil det også åbne op for at denne platform kan benyttes i alt fra kampvogne, fly og overvågnings systemer til bygninger m.m.

Tænk hvor effektivt det ville være, hvis en person kunne sidde med VR udstyr og få perfekt billede udvendigt som om den kampvogn eller bygning de sad i var 100% gennemsigtig.


Nu nævner du Google/Waymo, og at når de mestrer at navigere alene med kameraerne, at de så ville kunne bruges mange andre steder, men det er nemlig akkurat det Waymo ikke gør. De er afhængige af Lidar, og virker kun i et 100% kendt miljø.
Tesla Vision selvkørende AI, kan derimod navigere alene med input fra de 8 kameraer rundt om bilen, ud over de 12 ultrasoniske sensorer og samt den fremadrettede radar.

Denne artikel er også misvisende, da Tesla allerede kan det samme som demonstreret i videoen, dog uden at køre så usikkert.

Det som er “imponerende” med det, er vel at det kører på en bærbar, men jeg synes det begynder at komme mange af disse “se hvad jeg også kan”, men hvor sikkerheden og pålideligheden ikke bliver specificeret eller talt om. For at disse systemer skal have nogen interesse overhovedet, er det at de kan bevise at de er, eller kan blive, bedre bilister end de fleste mennesker. Ellers er det bare show-of af noget software udviklet af en eller nogle studerende, der ikke skal gøre andet end at få x fra a til b nogenlunde.
Gravatar #13 - MarsontheRocks
26. apr. 2019 07:03
kblood (8) skrev:
Tesla gik jo hen imod at bruge Lidar mere end de gjorde pga der var en der døde og det kunne være undgået hvis de ikke havde stolet helt så meget på kamera input.


Ikke sandt. Tesla har officielt aldrig været interesseret i LiDAR. Dødsfaldet du nævner, er nok den med Uber og Volvo XC90, der påkørte en person der trak sin cykel tværs over vejen et mørkt sted.

Tesla har haft ét dødsfald, måske to, som var direkte pga. autopilot (ikke selvkørende, men delvist selvkørende/Cruise control+). Dette var pga af daværende MobilEye samarbejdet, hvor de tabt MobilEye der leverede kamera og software til at stå for Autopilot delen. Her vægtede Radar delen mere end det visuelle input, eller omvendt, hvilket var del af skylden for, at software ikke så den krydsende hvide trailer mod den lyse himmel. Dette ændrede de på efterfølgende.
Tesla fik ikke erstatningskrav, så vidt jeg ved, da autopilot ikke er selvkørende teknologi, men kræver at du konstant er klar til at overtage styringen, skulle systemet svigte. Den nu afdøde bilist, var optaget med at kigge ned på passagersædet, efter film eller noget andet, og bilen havde ikke registreret nogen/noget reaktion/input fra bilisten, der indikerede at han havde set den krydsende lastbil.

Tesla har desuden lige demonstreret deres FSD (fully self-driving) teknologi frem i denne uge. Søg på youtube efter Tesla Autonomy. De er kommet så langt, at de forventer at have selvkørende robotaxier på vejene til næste år.
Gravatar #14 - kblood
26. apr. 2019 16:55
Lidar / radar... synes ikke det ændre så meget. De valgte at fokusere på et system der brugte kameraet mindre end de gjorde før.

https://www.tesla.com/blog/upgrading-autopilot-see...
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login