mboost-dp1

unknown
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Tjaa ved ikke hvad de vil bruge lige denne til men det kunne være forskning i nye grundstoffer eller forskning i elementar partikler osv.
Det det hele går ud på er at deres partikelaccelerator genererer de omtalte 12 petabyte om året. Dvs. at den i sig selv ikke beregner noget, men bare spytter data ud.
Det omfattende netværk (som er det interessante ved det hele) er så hvad der skal bruges til at lagre og behandle de data som partikelaccelleratoren genererer.
CERN er verdens største partikel-forskningscenter, og denne partikelaccelerator skal bruges til netop det (forskning i partikler).
Jeg håber det udrydder den værste tvivl om hvad det hele handler om :-)
Det omfattende netværk (som er det interessante ved det hele) er så hvad der skal bruges til at lagre og behandle de data som partikelaccelleratoren genererer.
CERN er verdens største partikel-forskningscenter, og denne partikelaccelerator skal bruges til netop det (forskning i partikler).
Jeg håber det udrydder den værste tvivl om hvad det hele handler om :-)
Der kan læses meget mere om projekter her på deres egen hjemmeside.
Citat andetsteds fra: "The motivation for this project, is the desire to better understand the structure and interactions of the elementary particles, which are the building blocks of our universe. For a non-technical description of what might be learned, please visit the following sites - The ATLAS Experiment and The CMS Outreach Websites".
Citat andetsteds fra: "The motivation for this project, is the desire to better understand the structure and interactions of the elementary particles, which are the building blocks of our universe. For a non-technical description of what might be learned, please visit the following sites - The ATLAS Experiment and The CMS Outreach Websites".
de spændende spørgsmål er så bare om årsagen til den enorme mængde data bare er manglende effektivitet sådan i bedste std. satelit v.s ørsted satelitten :-)
#10
Ikke helt korrekt, der var en størrer artikel i det nummer om LHC'en, men der blev kun flygtigt nævnt noget om datakapaciteten der skulle benyttes.
Ikke helt korrekt, der var en størrer artikel i det nummer om LHC'en, men der blev kun flygtigt nævnt noget om datakapaciteten der skulle benyttes.
gad vide om de komprimere dataen? så vidt jeg ved spytter den nok en hel del ren tekst ud som jo er rimelig .rar-bar :)
Det var godt nok ikke så lidt... Det bliver til 32 Terabytes om dagen, 22GB i minuttet, eller 300 MB i sekundet... Jeg håber sgu de får noget ordentligt RAID op, der kan klare den slags belastning i længere tid.
8 Million GB. om året eller 24.000 computere i et kæmpe cluster, firmaet der står bag, Grid Computing Centre Karlsruhe, ville ikke kunne levere fuld funktionalitet, til at starte med, (200.000 computere) men de vil bruge MEGA WAN clusteret til at beregne bl.a. Atom fysik, mange af de beregninger vi mennesker ikke forstår i dag, vil så kunne gennemskues og muligvis føre til større sikker m.m. Der skal også forsker i fysik generalt, måske finder de ud af noget ny :)
...noget nyt vedrørende Fusions energi, kunne vi bare udnytte denne i stedet for atom fysik, ville verden være et bedre sted at være. Det er sku´ikke særligt fedt at side i Kbh. og tænke på at de dumme svenskere
Jeg forstår ikke hvad problemet i barsebäck er. Risikoen for at det lækker er jo så utroligt lille at den er næsten væk. Den eneste grund til at tjernobyl nedsmeltede var jo at sikkerheden i de sovjetiske atomkraftværker var helt i bund.
Så længe man tænker sig om sker der ikke noget.
Så længe man tænker sig om sker der ikke noget.
Det store problem ved de mange data er faktisk at vølge ud hvilke man vil smide væk - der er ikke plads eller regnekraft til alle.
Jeg var på rundvisning på COMPASS-eksperimentet på CERN, hvor de lader en computer tage en hurtig beslutning om hvorvidt data skal gemmes. Mens computeren regner sendes data gennem et langt netkabel, og når de kommer ud bliver de så lagret eller smidt væk. Længere nede i kæden er der så flere sorterings- og analysemekanismer. Problemet er at man i fysik (og i det hele taget) kan opnå lige de resultater man vil når man smider data væk efter behag. Derfor er man nødt til at simulere hele detektoropstillingen i alle detaljer, og afprøve om sorteringsalgoritmen virker, og man kan kompensere for de manglende data. Tricky.
Jeg spurgte ikke om de brugte RAR-komprimering, men jeg kan garantere at de har nogle af verdens bedste hjerner på dataopsamlingsproblemet. Det er nok mere sandsynligt at de opdagelser der bliver gjort i den forbindelse finder vej ind i kommerciel komprimering end omvendt...
Jeg var på rundvisning på COMPASS-eksperimentet på CERN, hvor de lader en computer tage en hurtig beslutning om hvorvidt data skal gemmes. Mens computeren regner sendes data gennem et langt netkabel, og når de kommer ud bliver de så lagret eller smidt væk. Længere nede i kæden er der så flere sorterings- og analysemekanismer. Problemet er at man i fysik (og i det hele taget) kan opnå lige de resultater man vil når man smider data væk efter behag. Derfor er man nødt til at simulere hele detektoropstillingen i alle detaljer, og afprøve om sorteringsalgoritmen virker, og man kan kompensere for de manglende data. Tricky.
Jeg spurgte ikke om de brugte RAR-komprimering, men jeg kan garantere at de har nogle af verdens bedste hjerner på dataopsamlingsproblemet. Det er nok mere sandsynligt at de opdagelser der bliver gjort i den forbindelse finder vej ind i kommerciel komprimering end omvendt...
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.