mboost-dp1

- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Det er glædeligt at se hvordan mennesket bruger den slags mere og mere :p Der er selvfølgelig også en del flere der har adgang til en maskine der kan gå online nu end i 2007. Væksten og brugen af smartphones har også sin del at sige i den her statistik :)
Der er ingen tvivl om at sådan noget statistik her, er med til at vise hvordan vi bliver mere informeret. Hurtigere, via flere og flere perspektiver og sidst men ikke mindst, online i stedet for alt det TV :)
YouTube kunne dog stadig bruge forbedringer. Men det er efter min mening et ganske godt fundament for en fremtid med en endnu større database af multimedie.
Der er ingen tvivl om at sådan noget statistik her, er med til at vise hvordan vi bliver mere informeret. Hurtigere, via flere og flere perspektiver og sidst men ikke mindst, online i stedet for alt det TV :)
YouTube kunne dog stadig bruge forbedringer. Men det er efter min mening et ganske godt fundament for en fremtid med en endnu større database af multimedie.
Naar man har set et 2 sekunders clip der er folaenget til 10 timers video paa youtube med Quagmire der siger, gigity-gigity-gigity som er loopet. Saa ved man godt at 1 times i sekundet er 1 times lort der er samplet fra andre videoer paa youtube, eller paa den ene eller anden maade er en kopi af allerede eksiterende videoer.
Dem jeg har set så ikke ud af noget særligt, men jeg har nu heller ikke set dem alle.burgurne (3) skrev:Hvordan mon YouTube's "PC" ser ud?
Youtubes internetleverandør hedder Google. Og hvilke internetleverandører Google bruger kan jeg ikke huske, men Sprint og Level 3 er et par realistiske bud.burgurne (3) skrev:Og hvad hedder deres Internetforbindelse/leverandør? Det er nok ikke TDC eller Fullrate.
Hvis vi rent hypotetisk forestiller os at en kunde hos Telia ønsker at se en video på youtube, og at Telia og Google begge er kunder hos Sprint, så kunne begge parter komme til at skulle betale penge til Sprint for at pakkerne kommer frem. Det ville være godt for Sprint, men skidt for TDC og Google.
Når der sendes nok trafik mellem to selskaber, så kan det ikke længere betale sig for selskaberne at de begge skal betale til deres internetleverandør for at få trafikken frem, så kan de i stedet vælge at lave en peering aftale. Det vil sige at de aftaler et sted hvor begge virksomheder har deres egne kabler til, og så kan trafikken sendes direkte mellem de to virksomheder.
Og en sådan peering aftale eksisterer der faktisk mellem Telia og Google. Hvis jeg ser en video på youtube kommer trafikken igennem sådan en peering. Google har deres eget verdensomspændende netværk og peeringaftaler med mange internetudbydere.
Og så vidt jeg ved tilbyder Google også at de interesserede internetudbydere kan få en cache af de mest populære videoer ud på deres eget netværk. De præcise detaljer om hvordan det fungerer har jeg dog ikke styr på.
Nu synes jeg godt nok du overdriver. Jeg tror ikke der er mere end 59 minutter og 59 sekunder af det.tadeusz (6) skrev:Saa ved man godt at 1 times i sekundet er 1 times lort
Youtube mangler godt nok en mulighed for at man kan fravælge alle de uploads der har fået 90% eller flere negative stemmer. Hvorfor dukker den slags op som forslag?
Og der er da også mange der uploader noget, som de ved er elendigt, de undgår så at få 90% negative stemmer ved at vælge at videoen ikke må rates. WTF? Hvad er pointen med et ratingsystem, hvis man kan omgå det ved at vælge at et upload ikke må rates?
Der uploades mange gode ting til youtube, jeg ville bare ønske man kunne finde dem uden at skulle gennem så meget elendigt.
https://www.peeringdb.com/private/participant_view...
Kasperd, den ting du kan få ind i dit eget netværk fra Google kalder de 'Google Global Cache'. Kravene er rimelig høje, og jeg mener ikke nogen af de danske udbydere kvalificere sig.
Derudover kan det fortælles at Google har en meget åben peering policy, de kræver kun 24/7 NOC, (mindre end) 100 mbit peak (I EU) og POP ved en af deres peering points.
Ovenstående link skrev:All peering has migrated behind Google (AS15169, AS43515, AS36040) as of EOY 2009. AS36561 is not adding any more peers.
Kasperd, den ting du kan få ind i dit eget netværk fra Google kalder de 'Google Global Cache'. Kravene er rimelig høje, og jeg mener ikke nogen af de danske udbydere kvalificere sig.
Derudover kan det fortælles at Google har en meget åben peering policy, de kræver kun 24/7 NOC, (mindre end) 100 mbit peak (I EU) og POP ved en af deres peering points.
kasperd (13) skrev:Interessant spørgsmål, men jeg må desværre ikke fortælle hvor mange diske der var i hver.
Hvorfor så kommentere på det?
Er det for at være lidt mere interessant, som piger oftest gør: "Jeg har en hemmelighed, men jeg må altså ikke snakke om det..." Baaah! Så lad sog være med at nævne det!
Google/YouTube har flere millioner harddiske; tænk på at de kører backup osv. på alle deres ting også.
Google kørte også en undersøgelse på 100.000 harddiske, for at se hvor effektivt SMART egentligt er. Så vidt jeg erindrer, så meldte SMART-systemet kun fejl ved ca. 46% af alle fejl.
For at burgurne ikke skulle være i tvivl om hvorvidt jeg havde læst spørgsmålet.Hånter (14) skrev:Hvorfor så kommentere på det?
Der køres backup i stor stil. Dengang jeg arbejdede ved Google var jeg ansvarlig for båndbackupsystemet (sammen med en håndfuld kollegaer). For knap et år siden var der en fejl i gmail som gjorde at de blev nødt til at restore et antal brugere fra bånd. Havde det ikke været for den hændelse havde det sikkert stadig været en hemmelighed, at Google har et båndbackupsystem.Hånter (14) skrev:Google/YouTube har flere millioner harddiske; tænk på at de kører backup osv. på alle deres ting også.
Der stod over 100.000 i undersøgelsen. Det præcise antal kender jeg ikke. Der blev kigget på forskellige måder at forudsige fejl, SMART var blot en enkelt af dem. Dog var SMART så vidt jeg husker den mest væsentlige kilde til at forudsige fejl.Hånter (14) skrev:Google kørte også en undersøgelse på 100.000 harddiske, for at se hvor effektivt SMART egentligt er. Så vidt jeg erindrer, så meldte SMART-systemet kun fejl ved ca. 46% af alle fejl.
De fandt ganske rigtigt ud af, at for en ganske betydelig procentdel var der ikke et eneste symptom før disken fejlede fuldstændigt. Det vil sige at hvis man vil beskytte sig imod datatab, så er man nødt til at have kopier af data på mere end et enkelt medie. Det er ikke særligt sikkert at vente på at SMART rapporterer det første symptom og derefter begynde at kopiere data ud fra disken.
Man kan stadig reducere risikoen for tab ved at både kopiere data på flere medier og bruge SMART til at holde øje med hvert enkelt medie. En af de konklusioner jeg kan huske fra artiklen var, at når SMART rapporterede at der var en relocated sector, så var der betydeligt højere risiko for at den ville fejle end der var før. Det var ligegyldigt hvor mange relocated sectors der blev rapporteret, hvis tallet var større end nul var det en risiko.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.