mboost-dp1

unknown

12 petabyte data om året

- Via TecChannel - , redigeret af Net_Srak

Det er mængden af data som CERNs kommende partikel accelerator LHC, Large Hadron Collider, vil producere når den kommer i drift 2007/2008. De 8 PB er måledata, resten stammer fra simulationer.

For at kun håndtere de enorme mængder data, 12 millioner gigabyte, som ikke kun skal lagres, men også bearbejdes, er arbejdet på et omfattende Grid-netværk gået i gang.

Opbygningen sker på 8 til 10 forskellige forskningscentre, hvoraf et er GridKa, Grid Computing Centre Karlsruhe. De regner med at have godt 24.000 pc’er klar til LHC’s start. Sammenlagt med de andre centre, skal Gridet bestå af godt 200.000 pc’er.

Selve behandlingen af data sker i fem niveauer. Niveau 0 er selve dataopsamlingen som foretages af CERN, på niveau 1 behandles data i Gridet, derfter behandles det yderligere på universiteter i niveau 2, og diverse institutioner på niveau 3. På det øverste niveau sidder forskerne der benytter de opsamlede data.

Linket er på tysk.





Gå til bund
Gravatar #1 - XorpiZ
3. sep. 2003 11:00
Nogen der kan gennemskue hva det skal bruges til?
Gravatar #2 - Disky
3. sep. 2003 11:03
Forskning
Gravatar #3 - XorpiZ
3. sep. 2003 11:19
#2

Ja, hehe, så langt var jeg med ;) Men står der noget mere præcist i nyheden? Er ikke alt for skarp til tysk eller "babelfish-engelsk" for den sags skyld.
Gravatar #4 - T.A
3. sep. 2003 11:23
Tjaa ved ikke hvad de vil bruge lige denne til men det kunne være forskning i nye grundstoffer eller forskning i elementar partikler osv.
Gravatar #5 - XorpiZ
3. sep. 2003 11:27
#4

Lyder da lidt som noget spild af beregningskraft, vil jeg mene..de kunne da bruge den til noget fornuftigt istedet :P
Gravatar #6 - Just@ce
3. sep. 2003 11:52
Det det hele går ud på er at deres partikelaccelerator genererer de omtalte 12 petabyte om året. Dvs. at den i sig selv ikke beregner noget, men bare spytter data ud.
Det omfattende netværk (som er det interessante ved det hele) er så hvad der skal bruges til at lagre og behandle de data som partikelaccelleratoren genererer.

CERN er verdens største partikel-forskningscenter, og denne partikelaccelerator skal bruges til netop det (forskning i partikler).

Jeg håber det udrydder den værste tvivl om hvad det hele handler om :-)
Gravatar #8 - Pernicious
3. sep. 2003 12:00
Der kan læses meget mere om projekter her på deres egen hjemmeside.

Citat andetsteds fra: "The motivation for this project, is the desire to better understand the structure and interactions of the elementary particles, which are the building blocks of our universe. For a non-technical description of what might be learned, please visit the following sites - The ATLAS Experiment and The CMS Outreach Websites".
Gravatar #9 - Mr.Weasel
3. sep. 2003 13:02
Hmm 12petabyte.... det er godt nok meget porno.

Jeg er dybt facineret over at selv en partikel accelerator kan generere så meget data.
Gravatar #10 - MNM
3. sep. 2003 13:54
#1 for at sige det simpelt: så skal den løse gåden om, hvorfor der findes masse i universet.

PS: dette er jo ikke en nyhed, der står en masse om det i Illustreret Videnskab nr. 3 2003.
Gravatar #11 - iphase
3. sep. 2003 14:15
Det var ikke så lidt. så må vi håbe de lærer en masse nyt :)
Gravatar #12 - dasbutt
3. sep. 2003 17:17
JEG gider ikke skifte backup bånd på det system.
Gravatar #13 - Regus
3. sep. 2003 17:18
de spændende spørgsmål er så bare om årsagen til den enorme mængde data bare er manglende effektivitet sådan i bedste std. satelit v.s ørsted satelitten :-)
Gravatar #14 - Pernicious
3. sep. 2003 17:58
#10

Ikke helt korrekt, der var en størrer artikel i det nummer om LHC'en, men der blev kun flygtigt nævnt noget om datakapaciteten der skulle benyttes.
Gravatar #15 - Cronoz
3. sep. 2003 21:05
#9 & #10
Måske kan de løse gåden om, hvorfor der er mere porno i universet end der er masse...
Gravatar #16 - CRiSpY
3. sep. 2003 21:56
gad vide om de komprimere dataen? så vidt jeg ved spytter den nok en hel del ren tekst ud som jo er rimelig .rar-bar :)
Gravatar #17 - Pakster
3. sep. 2003 23:21
#9 hehe en del porno ja. Vel svarende til hvad man kan finde på kazaa. :)
Gravatar #18 - El_Coyote
4. sep. 2003 00:31
alle universiteter burde jo have et distrebuted computing system (ala folding og seti) på alle elev computere udover dedikerede computer, så vilde man da spilde mindre cpu tid der.
Gravatar #19 - annoia
4. sep. 2003 05:48
Det var godt nok ikke så lidt... Det bliver til 32 Terabytes om dagen, 22GB i minuttet, eller 300 MB i sekundet... Jeg håber sgu de får noget ordentligt RAID op, der kan klare den slags belastning i længere tid.
Gravatar #20 - fuzzynoise
4. sep. 2003 06:33
8 Million GB. om året eller 24.000 computere i et kæmpe cluster, firmaet der står bag, Grid Computing Centre Karlsruhe, ville ikke kunne levere fuld funktionalitet, til at starte med, (200.000 computere) men de vil bruge MEGA WAN clusteret til at beregne bl.a. Atom fysik, mange af de beregninger vi mennesker ikke forstår i dag, vil så kunne gennemskues og muligvis føre til større sikker m.m. Der skal også forsker i fysik generalt, måske finder de ud af noget ny :)
Gravatar #21 - fuzzynoise
4. sep. 2003 06:37
...noget nyt vedrørende Fusions energi, kunne vi bare udnytte denne i stedet for atom fysik, ville verden være et bedre sted at være. Det er sku´ikke særligt fedt at side i Kbh. og tænke på at de dumme svenskere
Gravatar #22 - fuzzynoise
4. sep. 2003 06:41
der ikke vil låkke Barsebäck ATOM kræftværket. :(
Gravatar #23 - Boggie
4. sep. 2003 07:43
#21
fusionsenergi er vel også atomfysik, bare det omvendte af hvad svenskerne gør i barsebäck.

I stedet for fission hvor man tager et tungt grundstof atom og splitter, tager man "bare" to lette atomer og smasker sammen.
Gravatar #24 - xect
4. sep. 2003 11:31
Jeg forstår ikke hvad problemet i barsebäck er. Risikoen for at det lækker er jo så utroligt lille at den er næsten væk. Den eneste grund til at tjernobyl nedsmeltede var jo at sikkerheden i de sovjetiske atomkraftværker var helt i bund.

Så længe man tænker sig om sker der ikke noget.
Gravatar #25 - Cronoz
4. sep. 2003 14:46
Jeg stoler lidt mere på svenske atomkraftværker, end russiske...
Gravatar #26 - nvj
6. sep. 2003 10:09
Det store problem ved de mange data er faktisk at vølge ud hvilke man vil smide væk - der er ikke plads eller regnekraft til alle.

Jeg var på rundvisning på COMPASS-eksperimentet på CERN, hvor de lader en computer tage en hurtig beslutning om hvorvidt data skal gemmes. Mens computeren regner sendes data gennem et langt netkabel, og når de kommer ud bliver de så lagret eller smidt væk. Længere nede i kæden er der så flere sorterings- og analysemekanismer. Problemet er at man i fysik (og i det hele taget) kan opnå lige de resultater man vil når man smider data væk efter behag. Derfor er man nødt til at simulere hele detektoropstillingen i alle detaljer, og afprøve om sorteringsalgoritmen virker, og man kan kompensere for de manglende data. Tricky.

Jeg spurgte ikke om de brugte RAR-komprimering, men jeg kan garantere at de har nogle af verdens bedste hjerner på dataopsamlingsproblemet. Det er nok mere sandsynligt at de opdagelser der bliver gjort i den forbindelse finder vej ind i kommerciel komprimering end omvendt...
Gravatar #27 - Thorolf15
6. sep. 2003 15:26
Jeg har lige søgt arbejde dernede :)
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login