mboost-dp1

CERN

CERN begynder at distribuere LHC-data

- Via Hpcwire - , redigeret af Net_Srak

I forbindelse med at CERN med succes har fået gang i partikelkollisioner i den enorme partikelaccelerator, er de også begyndt at indsamle store mængder af data.

CERN kan ikke selv bearbejde de mange data og har derfor i årene op til færdiggørelsen af projektet opbygget et GRID, et netværk af computere verden over der skal hjælpe. Dette netværk er nu begyndt at modtage data.

Netværket er opbygget i flere lag, med Tier 0 værende CERN. Tier 1 består af 11 centre, der koordinerer de mange data og sender dem videre til Tier 2 datacentre, hvor den egentlige datalagring og computerkraft stilles til rådighed.

Et af disse datacentre er Ohio Supercomputer Centre i USA, der har stillet 30 TB lagerplads og en million processor-timer til rådighed. Data gemt i en Tier 2 lokation kan tilgås af forskere via Tier 3-lokationer, hvor de enten behandler dem lokalt på deres egen computer (Tier 4) eller bruger computertid hos Tier 2 datacenteret.

Mængden af data, som skal distribueres, er enorm, alene ALICE-detektoren genererer 1,25 GB data i sekundet, når den er i gang.





Gå til bund
Gravatar #1 - MOA
12. maj 2010 12:18
1.25 GB data i sekundet!

Så havde jeg sgu hentet .mkv pr0n istedet!
Gravatar #2 - elemianus
12. maj 2010 12:22
giff den harddisk der kan følge med der xD
Gravatar #3 - MathiasLM
12. maj 2010 12:44
30 TB lagerplads er da ikke ligefrem alverden?
Gravatar #4 - Silver Mane
12. maj 2010 12:54
#3 Men i et enkelt Tier 2, så er det jo nok nok, under antagelsen at tier 1 har cirka 10 tier 2, så er det stadigvæk 1x11x10x30tb. Så det er jo 3.3 Petabyte samlet. Kunne være mere eller mindre
Gravatar #5 - GrillBiller
12. maj 2010 12:56
jajaja.. men vil det lagge i MW2?
Gravatar #6 - maasha
12. maj 2010 13:02
Jeg mindes at det er en dansker, som staar for overfoerslen af data fra detector til disk - og at den kunne sample helt op til 4Gb/sec.
Gravatar #7 - HenrikH
12. maj 2010 13:07
De 1,25 er en detektor. Under normale forsøg skulle dette tal være 6 GB/s (ifølge en artikkel i Ingeniøren for et stykke tid siden).

Men man kan jo kigge lidt på http://en.wikipedia.org/wiki/LHC_Computing_Grid for de høje tal ;-)
Gravatar #8 - luuuuu
12. maj 2010 13:08
#5

Kun hvis MW2 kræver at dit netværk har et 400Gbit backbone (mener jeg det var).

http://www.geant2.net/server/show/nav.941

Hvis man vil se netværkstopologien.
Gravatar #9 - General C
12. maj 2010 13:59
Troede lige de ville lave det med frivillig CPU kraft som i Folding @ home :)
Gravatar #10 - lorric
12. maj 2010 14:00
Gad vide om man kommer til kunne hjælpe dem via Boinc netværket?

edit: argh, overhalet med 6 sekunder
Gravatar #11 - Anders Fedеr
12. maj 2010 14:08
lorric (10) skrev:
Gad vide om man kommer til kunne hjælpe dem via Boinc netværket?

Det gør man ikke. De kørte nogle simulationer på BOINC før den blev startet, men det er alt.
Gravatar #12 - Slettet Bruger [2917261807]
12. maj 2010 14:13
Så må vi holde os til einstein@home og seti.. aight guys? ^^
Gravatar #13 - MBORANGER
12. maj 2010 15:08
De skulle tage smide det på en Folding@Home client også. Så ville jeg med glæde sætte min stationære til behandle data.
Gravatar #14 - Jace
12. maj 2010 15:31
Nogen der ved hvorfor de ikke vil benytte BOINC eller andre lignende? Ved folding@home har de da kunnet skaffe den samme kraft som de ville kunne købe sig til i et datacenter, hvis ikke mere. Men der er måske forskel på computerkraft?
Gravatar #15 - T_A
12. maj 2010 15:40
#14

Der kan godt være forskel.

Ved folding@home får du en klump data og den arbejder du dig så igennem og sender retur.
Den type udregning kan de lave parallel og folding behøver ikke at vente på dine data inden de kan komme videre. Så du kan få din helt egen frekvens at arbejde med og de er ikke afhængig af dig for at komme videre dine data bliver bare lagt ved når de engang kommer ind.

CERN data'en kan være afhængig af at få nogle dele hjem inde de kan gå videre til næste trin og så er det ikke smart at uddele på samme måde.
Gravatar #16 - ZAIM
12. maj 2010 21:25
Her er en forklaring på hvorfor et BOINC netværk ikke bruges til dataen fra cern
http://blogs.uslhc.us/its-just-like-work

LHC@home var så vidt jeg husker et netværk til at beregne hvordan forskellige parametre indvirker på selve beamet i LHCen, altså ingeniørmæssige beregninger på magneterne mm. Det var vist endda et par danske datalogi studerende, der var med til at lave programmet. (Jeg kan godt tage fejl her, hjemmesiden er nede, så jeg kan ikke tjekke)

Forstår forresten ikke denne nyhed. The grid har jo kørt i flere år efterhånden. Det har længe være i fuld gang med at behandle data fra kosmiske muoner.
Gravatar #17 - Jace
13. maj 2010 09:40
#15 - Ja, det kan jeg godt se et problem i. Man kunne dog løse det ved at sende den samme pakke ud til f.eks. 100 brugere og så bare bruge den første der kommer tilbage og skrotte de andre. Alt efter hvor mange man sender ud til vil man så kunne eliminere det problem med at man står og venter på at få noget data tilbage, så man kan komme videre.

Derefter kan man så begynde at optimere på hvor mange man præcis skal sende den samme pakke ud til for både at bruge ressourcerne optimalt og samtidigt minimere "ventetiden". Så begynder det jo pludselig at blive sjovt :)

#16 - Tak, den vil jeg lige læse igennem.
Gravatar #18 - Lomholt
14. maj 2010 08:44
But can it run Crysis. ;)?
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login