mboost-dp1

unknown

Google er færdig om 300 år

- , redigeret af Net_Srak

På en konference i USA i weekenden fortalte Googles direktør, Eric Schmidt, at Googles database over indekserede websider, i dag fylder 170 terabyte og at den er mere end tre gange så stor, som nærmeste konkurrerende søgemaskine.

Eric Schmidt anslår, at den samlede informationsmængde tilgængelig på internettet, overstiger 5 millioner terabyte og at indekseringen af dette ved den nuværende hastighed, vil tage yderligere 300 år at indeksere.

Han mener også, at der i fremtiden vil øget fokus på annoncering via internettet, men samtidig vil der være plads til annoncefrie sites, hvor brugene skal betale for indholdet. Om dette er en forsmag på Googles foretningsmodel for fremtiden, forlyder der ikke noget om.





Gå til bund
Gravatar #1 - bulldog
11. okt. 2005 14:46
5 mill TB informationer?!

Damn det bliver sq interressant at se hvor de kommer til at lagre det!
Gravatar #2 - isakn
11. okt. 2005 14:50
Jamen, der bliver jo ved med at komme mere information på internettet - til den tid er der jo endnu flere terabytes så.

Så i teorien vil de jo aldrig blive færdige.. :)
Gravatar #3 - Norrah
11. okt. 2005 14:50
Ja, google er færdig om 300år, hvis der vel og mærket ikke kommer yderlige mængder data ind på internettet, så med andre ord vil de på ingen måde være færdig om 300år. Så passer den Title?
Gravatar #4 - cK
11. okt. 2005 14:51

""Han mener også, at der i fremtiden vil øget fokus på annoncering via internettet, men samtidig vil der være plads til annoncefrie sites, hvor brugene skal betale for indholdet.""

Hold kæft hvor er han klog ! Det lyder som en konference, hvor man allerede efter 10 min. kunne råbe "bullshit" :D

Så har han vel også forudset at klienterne bliver tyndere... lol.
Gravatar #5 - DusteD
11. okt. 2005 14:54
Nogen der har overvejet hvordan fremtiden kunne blive, i forhold til at surfe på nettet ?

Jeg mener, kan jo være vi når dertil hvor "nettet" ikke er til noget somhelst uden google.. Hvis dette sker kommer der sikkert brugerbetaling på google, så hvis man vil bruge nettet, bedes man betale google for det :P
Gravatar #6 - drbravo
11. okt. 2005 15:01
hmm..


5000000 / 300 = 16666

16.666 / 365 = 45,6TB pr dag?

Har jeg glemt et eller andet i mit regnestykke eller hvad? Det lyder jo af pænt meget!
Gravatar #7 - isakn
11. okt. 2005 15:01
hvorfor skulle nettet blive ingenting uden google?
google har da massere af konkurrenter, f.eks.

edit;
burde der ikke stå eric schmidt og ikke schimdt? :)
bare en lille pointering.
Gravatar #8 - IzeBurn
11. okt. 2005 15:12
#6, i så fald må man jo formode at Google er i stand til at indeksere 45,6 terabyte trafik om dagen - om end det lyder af ret så meget, ja :)

Men hans/Deres udregninger er jo mere eller mindre komplet ligegyldige, han siger jo selv at der vil blive mere fokus på annoncering af nettet, hvilket vel er en sideeffekt af, at folk benytter internettet mere og mere, for hver dag der går. Så med andre ord vil mængden af information tilgængelig på nettet stige for hver dag der går.
Gravatar #9 - drbravo
11. okt. 2005 15:14
#8

Især hvis de har indekseret 170TB. Så begyndte de for 4 dage siden o_O
Gravatar #10 - ron
11. okt. 2005 15:24
#6,8,9:
Husk på at den mængde de kan indeksere om dagen ikke er konstant, men tiltagende.
Altså, det vil blive muligt for dem at indeksere en større og større mængde data.

Men man kan sige at de i gennemsnit regner de med at komme til at indeksere 45,6 TB pr. dag. Dvs. at de efter 300 år kan indeksere langt over 45,6 TB pr. dag.
Gravatar #11 - peter_m
11. okt. 2005 15:31
#7 takker..er rettet :P
Gravatar #12 - isakn
11. okt. 2005 15:31
#9
De støder jo tit på noget af det samme, og springer så over det.
Hvis de ikke skulle springe over, er jeg sikker på at de ville kunne hente så meget ind.
Gravatar #13 - drbravo
11. okt. 2005 15:35
#10


overstiger 5 millioner terabyte og at indekseringen af dette ved den nuværende hastighed, vil tage yderligere 300 år at indeksere.
Gravatar #14 - Christ Superstar
11. okt. 2005 15:51
Kæft det var dejligt dengang i internettets tidlige alder, hvor alle internetsider var gratis. Okay der var ikke lige så meget som nu, men kapitalismen har så sandeligt sat sit præg på internettet. Om det er en god eller dårlig ting er jo en personlig sag.

Jeg hader personligt hver gang jeg skal betale for at se en internetside. Håber da ikke det bliver Googles forretningsmodel fremover :(
Gravatar #15 - larsp
11. okt. 2005 15:55
Mon ikke forklaringen er at der (selvfølgelig) er forskel på hvor stort ens index er og hvor meget data man har indekseret (scannet). Google har således et index på 170 TB, og har scannet jeg-ved-ikke hvor meget. Men med den nuværende hastighed vil de åbenbart først blive færdig med at scanne alle 5 mill. TB, som åbenbart er på nettet idag, om 300 år... (ligegyldigt marketing BS IMO)
Gravatar #16 - saucer
11. okt. 2005 15:56
Hvor seriøst er det her ?? Tror det selv at vi om 300år vil side med en Pentium 60000Mhz og søge på nettet som vi gøre i dag ??

300år er sq en del inden for IT og teknologi så jeg er sikker på at vi om 50år har en helt anden måde at bruge nettet på, og så er google's indeksering pist væk..

Så det er da flot at det kan samle så store mængder data men jeg er sq bange for at vi aldrig vil kunne bruge det på den måde om 300år som vi gøre nu.. Måske er jeg bare en spasser og ikke tænker på at man bare kan opgradere google's database løbende men igen 300år....
Gravatar #17 - webwarp
11. okt. 2005 16:26
Fuldstændig værdigløst og spild af tid at regne på, som enhver kan regne ud..
Gravatar #18 - plask
11. okt. 2005 16:43
Tror sq altid der vil være en flok nørder med den rette indstilling der tilbyder et alternativ uden brugerbetaling / reklamer.

Måske er jeg naiv!?
Gravatar #19 - Azjo
11. okt. 2005 17:00
170 terabyte.. hvor mange sider så? Kunne være fedt at vide hvor mange billeder de har inde og eventuelt ord.
Nu bruger de vel osse de fleste resourcer på at opdatere fra sites hver dag kan jeg forestille mig.

Nogen der har lagt mærke til at de på forsiden ikke mere praler af deres 8 millioner sider? Eller hvad det nu var.
Efter Yahoo pludselig havde mere.. ;)
Gravatar #20 - Cyrack
11. okt. 2005 17:00
Man kunne jo så antage at de fem millioner terabyte data er inklusiv billeder, binære filer og en masse andet, der ikke umiddelbart kan indekseres. Google laver jo ikke lige frem en 1:1 kopi af internettet, de hiver de vigtige info ud, og smider resten væk, derfor må det også antages at (medmindre google vil til at indeksere _alt_) så vil en stor del af de 5 mill. også kunne smides væk, hvilket realistisk betyder at googles database er en tilnærmelse af skrevne data på internettet.
Gravatar #21 - Dijkstra
11. okt. 2005 17:02
Jah, jah. Det skal nok passe!

5.000.000 terabytes = 5.000.000.000 Gigabyte

En pæn stor harddisk er vel 300 Gigabyte i dag, - så dem er der altså

5.000.000.000 / 300 = 16,7 millioner af.

Jeg vil gerne tro at de maskiner der er på nettet tilsammen har en størrelse der er i det område, - men så vil utrolig meget information være spejling af andres site, private computere som ikke ligefrem deler alt (i hvert fald ikke til dem der ikke ligefrem hacker sig ind).

Men spørgsmålet er naturligvis også hvor meget metadata man skal tage med. Google's egen søgemaskine har jo faktisk en enormt mængde materiale.
Gravatar #22 - Dijkstra
11. okt. 2005 17:04
#20 god pointe. Dog er Google jo netop begyndt at indeksere ikke alene billeder (som dog kun gemmes i thumbnails), men også videoer (som nok ikke gemmes hos Google???)
Gravatar #23 - Windcape
11. okt. 2005 17:12
Dog ville vi nok inden for en 50års radius ende med at slette omkring 50% af alle indexere bare informationer på nettet, da nye standarder som XHTML2 vil være gældende, og gøre alt ikke valid html/xhtml ubrugeligt, og dermed ikke indexertbart for google.

Så jeg vil nu mene at det er meget sandsynligt at de når det :)
Specielt hvis de køber en kopi af IBM's Deep Blue, som skulle kunne downloade internettet på 1/3 sekund, hvis den fik linje nok.
Gravatar #24 - utdiscant
11. okt. 2005 17:28
Så må de finde på en mere effektiv måde at indeksere på ;) Arbejder faktisk på et program der er meget effektivt til netop det.
Gravatar #25 - plazm
11. okt. 2005 17:39
Tja, mine beregninger siger at de indexserer 66,54 gb om dagen i gennemsnit. Hvilket er beregnet ud fra at de er ca. 7 år gamle, og at de har hentet 170 TB indtil nu.
Men hvordan de så får det til at give 300 år, skal jeg ikke kunne sige, men mon ikke han har ment med den nuværende hastighedsforøgelse i indexsering? For jeg tror da hastigheden de indexserer er steget voldsomt, måske nærmest eksponentiel ?
Gravatar #26 - Cyrack
11. okt. 2005 18:19
Hvorfor er det alle regner med statiske data? Blandt andre, så går plazm til syneladende ud fra at internettet ikke har ændret sige de sidste syv år... hvilket nok hører til i kategorien "tankespind".

Selv om google "kun" har et indeks på 170 TB, betyder det jo ikke at de kun har hentet 170BG. Hvis I har en webserver kan I jo se hvor tit google kommer forbi... og regn så ud hvor mange gange de kan nå at hente *din* side på et år. Find så ud af hvor meget en gns. webserver har af information og gang det med antallet af besøg, så har man et mere realistisk billede af hvad der sker.
Gravatar #27 - PikkeMand
11. okt. 2005 18:33
Jeg synes det er lidt sjovt at de kalder det "Information på internettet".

Altså, nu har min nabo fx en 250GB film, spil, programmer osv. delt via et verdensomspændende fildelingsnetværk. Jeg kan ikke se hvordan det ikke skulle høre ind under kategorien "Information på internettet". Og der er fantastisk mange ting der høre ind under det hvis man lige tænker sig om.

Jeg ved godt at de siger "overstiger 5 millioner terabyte", men jeg ville mene at tallet også overstiger både 10, 20 og 50 millioner terabyte.

Tror vidst at det er information tilgængelig på webservere via HTTP protokolen de snakker om. Så lyder "5 millioner terabyte" lidt mere realistisk :)
Gravatar #28 - webwarp
11. okt. 2005 19:38
http://comon.dk/index.php/news/show/id=23914 -->
Ny artikel, der er relevant i forbindelse med denne, den fortæller at "Alene i år er nettet vokset med mere end 17 millioner hjemmeside"

Hehe så er nu oxo en djævelsk masse information der skal indexeret, hvis der fra januar til oktober er kommet 17 millioner nye hjemmesider :) ..
Gravatar #29 - ron
11. okt. 2005 19:51
#13,

Det står der faktisk ikke i den originale nyhed ;)
Gravatar #30 - Lobais
11. okt. 2005 20:09
5 millioner terabyte / 6 milliarder mennesker = 833 gigabyte per menneske i verden! Hvem i alverden er det der trækker så meget op?
Gravatar #31 - Lobais
11. okt. 2005 20:10
#30 - Nogen med en hel masse gmail accounts!
Gravatar #32 - FinnHolger
11. okt. 2005 21:58
#27 "Jeg ved godt at de siger "overstiger 5 millioner terabyte", men jeg ville mene at tallet også overstiger både 10, 20 og 50 millioner terabyte."

Som #30 regner ud, så vil 50 EB give HVER enkelt person på Jorden ca. 8,3 TB harddiskplads. Lad os så sige at der findes 1 mia aktive computere i verden i stedet. så får vi 6x så meget plads per computer, altså 40 TB harddiskplads per PC. Dét er noget der rykker, dér!

50.000.000 terabytes = 50.000 petabytes = 50 exabytes (ikke EiB).
http://whatis.techtarget.com/definition/0,,sid9_gc...

Det lyder så dumt når nogen siger "én million milliard". Godav Merlin økseskaft.
Gravatar #33 - Dijkstra
12. okt. 2005 05:54
#30 (og #32) der er en regnefejl i dit eksempel

5 mil / 6 mia giver ikke 833 men 0,833. Så det er ikke 833 gigabyte pr. menneske, - men kun 833 megabyte. (Jfr. i øvrigt mit regneeksempel ovenfor som 'kun' giver godt 16 mio. computere med en 300 GB HD).
Gravatar #34 - Lobais
12. okt. 2005 06:16
#33 uhm, ja det har du vist ret i. Gad vide hvor meget google selv tæller op i det regnskab.
Gravatar #35 - EmKay
12. okt. 2005 08:39
#33
Der er ikke nogen regnefejl i #30..
5 mil / 6 mia giver 0,833.. Ja, men det er 0,833 terabyte, som jo så er 833 gigabyte.. :o)
Gravatar #36 - smiley
12. okt. 2005 09:37
#6

Husk at ikke alt er lige svært, eller lige nemt at indexere..
Fx. et enkeklt porno-site har nok en par GB af film og billeder liggende..

Hvorimod hvis man indexerer for 1 terrabyte små-hjemmesider og skal se hver enkelt igennem begynder det at se en del mere svært ud..

Men det virker stadig som en stor mundfuld, de nogle og 40 TB om dagen o.O

30#

Vi er nok tættere på 9 Milliarder end 6 nu?
Jeg mener det er lang tid siden at vi snakkede om 6 milliarder..

EDIT: Nevermind, vi er omkring de 6.5 milliarder nu...
I 2034 skulle vi gerne nå de 10..
Gravatar #37 - el_barto
12. okt. 2005 10:07
Ja jeg sidder da bare og håber at der stadig findes gratis sites uden reklamer om 300 år :(

Det er det jeg savner mest ved de gode gamle dage. Et net lavet af glade amatører, men dejligt fri for spammere, reklamer, spyware (indsæt selv flere hadeobjekter her) og alt det andet snask.

Iøvrigt, mon ikke lagerkapaciteten stiger hurtigere end mængden af information?
Gravatar #38 - markjensen
12. okt. 2005 17:35
#37 Du regner måske med at være i live om 300 år? :)
Gravatar #39 - Norrah
14. okt. 2005 16:21
#36 jep, 6.5 milliarder mennesker, men der skulle eftesigende være 200 millioner mennesker der ikke er blevet talt...!!

gad godt møde ham der har talt det....
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login