mboost-dp1

IBM
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
offtopic: Er der nogle danske [email protected]øsninger som universiteterne bruger? Det er da lidt oplagt at laves sådan en også.
Nyhed (0) skrev:Efterfølgende vil driften af computeren alene i el-regning kunne løbe op i et tocifret millionbeløb.
Er det ialt eller pr år.??
#1
Lige mine ord. Hvorfor ikke installere et "folding" software på alle DTU's pc'er og lave det til et offentligt system hvor alle mennesker kunne installere det på sin egen PC derhjemme.
Hvis private danskere ville hjælpe danske virksomheder eller videnskaben generalt kunne man lave et sådanne program og hjælpe til.
Jeg kører selv folding på mine PC'er og plejer at fortælle folk om programmet når jeg er ude og hjælpe folk med deres pc-relaterede problemer.
Jeg kunne sagtens omskifte til et andet program, der er massive glops derude der bare mangler at blive udnyttet.
Jeg tror at et sådan program vil være forholdsvis "billig" at lave, og udgiften til at holde det kørende vil også være minimal.
Lige mine ord. Hvorfor ikke installere et "folding" software på alle DTU's pc'er og lave det til et offentligt system hvor alle mennesker kunne installere det på sin egen PC derhjemme.
Hvis private danskere ville hjælpe danske virksomheder eller videnskaben generalt kunne man lave et sådanne program og hjælpe til.
Jeg kører selv folding på mine PC'er og plejer at fortælle folk om programmet når jeg er ude og hjælpe folk med deres pc-relaterede problemer.
Jeg kunne sagtens omskifte til et andet program, der er massive glops derude der bare mangler at blive udnyttet.
Jeg tror at et sådan program vil være forholdsvis "billig" at lave, og udgiften til at holde det kørende vil også være minimal.
mgX (6) skrev:hvorfor smider de ik bare en stak grafikkort i serie og bruger dem i stedet...de ska vel bare bruge en masse flydende punkt beregninger...
Fordi de vil bygge en dansk supercomputer.. Daah!
#1 og #4
Det er ikke alle problemer der løses ved at bruge den metode i snakker om, hvor et delproblem kan hakkes op i små bidder og beregnes uafhængigt af hinanden. Som regel kræves enormt meget kommunikation mellem individuelle cpu'er og/eller memory på de enkelte maskiner og der er interettet altså ikke oplagt at bruge som mellemled. Her er det bedre med en centralliseret computer hvor netværket er specielt sat op til at kunne håndtere det.
#6
grafikkort er på vej frem, men det kræver igen at man omskriver (eller starter forfra) på noget kode der godt kan ha mere end 30 år på bagen. Der er vi nok en del der er lidt: DO NOT WANT :)
Grunden til at man ikke bare lige skifter er, at den kode der har kørt i 30 år fungerer.
EDIT: dårligt sammenskruet sætning.
#0
Jeg syns personligt at den struktur der er i dag, hvor vi har et center (dcsc) der stiller penge til rådighed til hardware på de forskellige universiteter er en fin struktur. Men en enkelt maskine med 10000 kerner ville da ikke være dårligt at ha stående :)
Det er ikke alle problemer der løses ved at bruge den metode i snakker om, hvor et delproblem kan hakkes op i små bidder og beregnes uafhængigt af hinanden. Som regel kræves enormt meget kommunikation mellem individuelle cpu'er og/eller memory på de enkelte maskiner og der er interettet altså ikke oplagt at bruge som mellemled. Her er det bedre med en centralliseret computer hvor netværket er specielt sat op til at kunne håndtere det.
#6
grafikkort er på vej frem, men det kræver igen at man omskriver (eller starter forfra) på noget kode der godt kan ha mere end 30 år på bagen. Der er vi nok en del der er lidt: DO NOT WANT :)
Grunden til at man ikke bare lige skifter er, at den kode der har kørt i 30 år fungerer.
EDIT: dårligt sammenskruet sætning.
#0
Jeg syns personligt at den struktur der er i dag, hvor vi har et center (dcsc) der stiller penge til rådighed til hardware på de forskellige universiteter er en fin struktur. Men en enkelt maskine med 10000 kerner ville da ikke være dårligt at ha stående :)
Den slags kan ikke bruges til alle beregninger. Det afhænger af, hvordan forholdet mellem CPU forbrug og netværksforbrug er.kimmerrild (4) skrev:Hvis private danskere ville hjælpe danske virksomheder eller videnskaben generalt kunne man lave et sådanne program og hjælpe til.
Nogle opgaver kræver at man skal udveksle nogle få bytes, og så kan hver computer stå og regne i et par dage før de skal kommunikere igen. (Det gælder f.eks. hvis man prøver at bryde en krypteringsnøgle).
I den modsatte ende af spektret har man opgaver, hvor hver computer kan regne i et par millisekunder hvorefter den har brug for at udveksle et par MB data med de andre. Sidstnævnte type opgaver stiller så store krav til netværket at man er nødt til at placere computerne samme sted. (Eller i det mindste have masser af fibre imellem lokaliteterne).
Der er simpelthen ikke nok danskere der har gigabit internetopkoblinger til at det kan erstatte en supercomputer.
Jeg kunne sagtens omskifte til et andet program, der er massive glops derude der bare mangler at blive udnyttet.For 10 år siden var strømforbruget for en CPU mindre end det er i dag, og den strømforbrug varierede ikke nær så meget med belastningen som det er tilfældet i dag.
Jeg tror at et sådan program vil være forholdsvis "billig" at lave, og udgiften til at holde det kørende vil også være minimal.
Det vil sige, at dengang kostede det ikke ret meget i strømforbrug at lade sin CPU stå og foretage den slags beregninger, når den alligevel var tændt. I dag koster det meget mere.
Priserne på CPUer har ikke ændret sig voldsomt meget (men den ydelse man får ud af dem har naturligvis). Det vil sige at udgiften til strøm vokser for hver generation, mens udgiften til hardware ikke vokser på samme måde. Vi er ved at nærme os en situation, hvor strømmen i sig selv er den væsentligste udgift.
Inden man installerer den slags software skal man gøre op med sig selv om man vil sponsorere den slags projekters strømforbrug.
Noget andet er det miljømæssige aspekt. En fornuftigt designet supercomputer kan bruge mindre energi til samme beregning end en sværm af hjemmecomputere ville. Så hvis man har besluttet sig for, at beregningen skal gennemføres, så kan det være bedre for miljøet at bruge en central supercomputer til formålet.
Nu ved jeg ikke ret meget om folding, men er det ikke noget med at man får folk til installere et program, som laver udregninger på ens computer?
Jeg syntes NASA eller lign. lavede det engang, hvor man fandt ud af det ikke var ret "grøn IT" agtigt, idet hvis en computer gik i hibernate eller ikke blev, så bankede den bare CPU loaded op på 99%, hvilket ville give nogle vilde el regninger.
Ret mig hvis jeg tager fejl?
#Ontopic
Jeg syntes det lyder som et godt tiltag, men også rigtig mange penge.
Jeg syntes NASA eller lign. lavede det engang, hvor man fandt ud af det ikke var ret "grøn IT" agtigt, idet hvis en computer gik i hibernate eller ikke blev, så bankede den bare CPU loaded op på 99%, hvilket ville give nogle vilde el regninger.
Ret mig hvis jeg tager fejl?
#Ontopic
Jeg syntes det lyder som et godt tiltag, men også rigtig mange penge.
kasperd (9) skrev:Nogle opgaver kræver at man skal udveksle nogle få bytes, og så kan hver computer stå og regne i et par dage før de skal kommunikere igen. (Det gælder f.eks. hvis man prøver at bryde en krypteringsnøgle).
Det er meget afhængigt af hvilken algoritme man vil anvende.
Når man taler om krypteringsnøgler, tænker de fleste nok på enten en RSA-nøgle, som 'bare' er et stort tal, eller en samling bytes som f.eks. en AES-nøgle.
Hvis man ville forsøge at dekryptere data krypteret med f.eks. AES, så er der ikke noget der er meget bedre end brute-force. Her er der altså ingen afhængigheder CPU'erne imellem.
Hvis man derimod vil låse noget RSA-krypteret data op, prøver man i praksis at faktorisere det store tal som er den offentlige nøgle. De bedste algoritmer til dette kan i nogen grad paralleliseres, men en central del af disse algoritmer kræver en kæmpe masse RAM med en ordentlig stak inter-CPU kommunikation.
Som privatperson kan man med (temmelig meget!) tålmodighed og en moderne maskine godt knække en 512-bit RSA nøgle. Data krypteret med 1024-bit RSA er stadigvæk sikkert nogle få årtier.
256-bit AES nøgler er, med vores nuværende algoritmer, uden for rækkevidde for alle i ganske lang tid.
"Det er meget afhængigt af hvilken algoritme man vil anvende."
Nu er det nok ikke krypteringsnøgler de skal arbejde med alligevel...
Nu er det nok ikke krypteringsnøgler de skal arbejde med alligevel...
Kan det ikke være ligegyldigt hvor den fysisk er placeret da folk der skal bruge den nok vil lave en eller anden form for remote session til den.
Men jeg synes det er sjovt at DTU forslår den skal stå hos dem selv. Lidt ala 'Det er vores alle sammens legetøj men det skal være hos mig' :D
BTW - Jeg forslår Samsø - Det er nok det tætteste på midt i landet man kan komme... og så er det lige besværligt for alle at komme derover
Men jeg synes det er sjovt at DTU forslår den skal stå hos dem selv. Lidt ala 'Det er vores alle sammens legetøj men det skal være hos mig' :D
BTW - Jeg forslår Samsø - Det er nok det tætteste på midt i landet man kan komme... og så er det lige besværligt for alle at komme derover
Mig bekendt har de bedste algoritmer stadigvæk en indledende face der kan paralleliseres uden ret meget kommunikation. Der er stadigvæk en beregningstung slutface, der ikke er nær så nem at parallelisere, men så vidt jeg ved kræver denne del ikke nær så meget beregningskraft som den indledende face.JesHansen (12) skrev:Hvis man derimod vil låse noget RSA-krypteret data op, prøver man i praksis at faktorisere det store tal som er den offentlige nøgle. De bedste algoritmer til dette kan i nogen grad paralleliseres, men en central del af disse algoritmer kræver en kæmpe masse RAM med en ordentlig stak inter-CPU kommunikation.
Det er ikke helt ligegyldigt. For det første skal der et fornuftigt netværk mellem supercomputeren og forskernes arbejdsstationer. Med den størelse Danmark har burde roundtrip tiderne ikke blive noget problem, men til gengæld tror jeg de forventer at skulle have 1Gbit/s imellem deres arbejdsstation og supercomputeren.BeLLeDK (16) skrev:Kan det ikke være ligegyldigt hvor den fysisk er placeret da folk der skal bruge den nok vil lave en eller anden form for remote session til den.
Derudover skal man jo have en bygning med plads og køling. Og man skal jo også have nogle folk til at arbejde med at vedligeholde den.
#17 Du kan nok godt regne med at den er i brug 24/7 og at der er en måneds ventetid på at komme til. sådanne simulationer tager ofte en hel del tid og hvis det pludseligt er alle universitet der skal deles om den, så bliver der nok lidt trængsel.
# folk der absolut vil diskutere placering
Når i nu alle har så gode ideer om hvor et HPC center skal stå. Så husk i det mindste at tage højde for:
* Fibertilgang til forskningsnettet. Og nej, Fullrate er ikke en mulighed
* Forsyningssikkerhed. Der skal bruges strøm, og en hel del.. Det er ikke skide intelligent at placere et HPC center ved nogle af danmarks mindst vedligeholdte kabler
* Personel. Sådan et datacenter har sku nok en medarbejder eller to. De fleste af dem har nok lidt mere uddannelse end den gennemsnitlige datafagtekniker. Hvis du skal have flere af dem involveret i projektet er det ikke smart at placere det i en bunker på en lille ø der er tilgængelig med færge. Du får ikke de kvalificerede mennesker til at flytte, så du må så bemande centeret med nevøen til den landmand på øen der har flest computere.
Uden ellers at tage stilling til hvor sådan et datacenter skal være, så må man som minimum overveje disse ting før man foreslår øer som Samsø.
Og ja det er mange penge, men uden sådanne faciliteter så afskærer man sig fra rigtig mange forskningsmuligheder.
Når i nu alle har så gode ideer om hvor et HPC center skal stå. Så husk i det mindste at tage højde for:
* Fibertilgang til forskningsnettet. Og nej, Fullrate er ikke en mulighed
* Forsyningssikkerhed. Der skal bruges strøm, og en hel del.. Det er ikke skide intelligent at placere et HPC center ved nogle af danmarks mindst vedligeholdte kabler
* Personel. Sådan et datacenter har sku nok en medarbejder eller to. De fleste af dem har nok lidt mere uddannelse end den gennemsnitlige datafagtekniker. Hvis du skal have flere af dem involveret i projektet er det ikke smart at placere det i en bunker på en lille ø der er tilgængelig med færge. Du får ikke de kvalificerede mennesker til at flytte, så du må så bemande centeret med nevøen til den landmand på øen der har flest computere.
Uden ellers at tage stilling til hvor sådan et datacenter skal være, så må man som minimum overveje disse ting før man foreslår øer som Samsø.
Og ja det er mange penge, men uden sådanne faciliteter så afskærer man sig fra rigtig mange forskningsmuligheder.
#4
Nu kører DTU godt nok med nogle windows maskiner, men de benytter i høj grad et centralt server system som består af:
1) 13 SUN maskiner med samlet cirka 208 kerner til almindelig daglig brug af de studerende hvor der benyttes tynde klienter eller remote via ThinLinc.
2) Et High Performance Computing cluster med 336 kerner á 1.8ghz og en uhyggeligt voldsom mængde ram, til forsker brug og særlige projekter hvor der køres et job queueing system.
Nu kører DTU godt nok med nogle windows maskiner, men de benytter i høj grad et centralt server system som består af:
1) 13 SUN maskiner med samlet cirka 208 kerner til almindelig daglig brug af de studerende hvor der benyttes tynde klienter eller remote via ThinLinc.
2) Et High Performance Computing cluster med 336 kerner á 1.8ghz og en uhyggeligt voldsom mængde ram, til forsker brug og særlige projekter hvor der køres et job queueing system.
#22
Jeg tror at joken Samsø fløj hen over hovedet på dig ;)
For naturligvis kan sådan et center ikke ligge på sådan en lille ø - Det har den slet ikke infrastruktur til og i stedet for at bygge infrastrukturen vil det mest naturlige selvfølgelig være at placere det der hvor en del af ressourcerne (netværk, personel, strøm) allerede forefindes.
Jeg tror at joken Samsø fløj hen over hovedet på dig ;)
For naturligvis kan sådan et center ikke ligge på sådan en lille ø - Det har den slet ikke infrastruktur til og i stedet for at bygge infrastrukturen vil det mest naturlige selvfølgelig være at placere det der hvor en del af ressourcerne (netværk, personel, strøm) allerede forefindes.
Når de nu skal bruge den til
f.eks. turbulensberegning omkring vindmøller.så kan de vel også lige opstille en mølle som kunne tage sig af strøm forbruget.
Når DTU foreslår at placere maskinriet i Lyngby, så siger de vel også implicit at de gerne vil tage sig af vedligeholdelsen? Så i stedet for at brokke sig over at skidtet ikke lige kommer til at stå i ens egen baghave, skulle man måske se på det som et tilbud fra DTU's side.
I øvrigt er det jo underordnet, da al kommunikation formentlig kommer til at foregå gennem ssh via nettet.
#1, 4
Der er adskillige projekter hvor folk kan give CPU-tid til (grid)computing, fx MiG, hvor man kan stille sin maskine til rådighed gennem en java klient, på PC/Mac, eller en boote en LiveCD på PS3.
I øvrigt er det jo underordnet, da al kommunikation formentlig kommer til at foregå gennem ssh via nettet.
#1, 4
Der er adskillige projekter hvor folk kan give CPU-tid til (grid)computing, fx MiG, hvor man kan stille sin maskine til rådighed gennem en java klient, på PC/Mac, eller en boote en LiveCD på PS3.
#29
Tja, data skal jo også fragtes til computeren, med dagens fiberforbindelser tager det stadig en rum tid at overføre 14-15TB data som nogle eksperimenter godt kan generere. Det er ganske enkelt hurtigere at sætte sig i sin bil og køre afsted med diskene end at connecte gennem dataforbindelser.
Jeg tror stadig at de behov der er i Danmark for supercomputing generelt løses bedre af flere mindre supercomputere end af en stor. Ikke at der ikke sagtens kunne findes forsøg og projekter der kunne udnytte en enkelt stor computer i stedet for, men jeg synes det overordnede hensyn er vigtigere.
Tja, data skal jo også fragtes til computeren, med dagens fiberforbindelser tager det stadig en rum tid at overføre 14-15TB data som nogle eksperimenter godt kan generere. Det er ganske enkelt hurtigere at sætte sig i sin bil og køre afsted med diskene end at connecte gennem dataforbindelser.
Jeg tror stadig at de behov der er i Danmark for supercomputing generelt løses bedre af flere mindre supercomputere end af en stor. Ikke at der ikke sagtens kunne findes forsøg og projekter der kunne udnytte en enkelt stor computer i stedet for, men jeg synes det overordnede hensyn er vigtigere.
#27 Det er så lidt sjovt at DTU kommer med idéen til en ny supercomputer, hos dem, med prisen 100M kr.. :p
Jeg synes generelt bedre om idéen med flere decentrale centre af flere årsager.
Det vil være nemmere at få tid på en supercomputer (selvom den måske ikke regner lige så hurtigt) og så har jeg også en idé om at det ville være nemmere at etablere angående forsyning af strøm og internet/forskningsnet.
Men at der skal være en/flere nationale supercomputere, synes jeg bestemt er en god idé.
Jeg synes generelt bedre om idéen med flere decentrale centre af flere årsager.
Det vil være nemmere at få tid på en supercomputer (selvom den måske ikke regner lige så hurtigt) og så har jeg også en idé om at det ville være nemmere at etablere angående forsyning af strøm og internet/forskningsnet.
Men at der skal være en/flere nationale supercomputere, synes jeg bestemt er en god idé.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.