mboost-dp1

AMD
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
[lidt offtopic]
Håber snart der bliver udviklet nogle eller flere programmerings sprog så programmer kan håndtere flere kerne. For udviklingen går da forrygende stærkt for tiden, med alle de multiprocesser der bliver pumpet ud. Ville være så rart hvis nye programmerings sprog blev udviklet så udviklerne mindre skulle tænke på at skrive til flere kerne, men "bare kode" og programmerings sproget så tog over og opdelte opgaver så optimalt som muligt via de kerne der er til rådighed.
[ontopic]
dejligt at se at produktionen går forrygende og kommende processer også kommer til at spare strøm samt får en højere ydelse. Man kan kun glæde sig til fremtiden =).
Håber snart der bliver udviklet nogle eller flere programmerings sprog så programmer kan håndtere flere kerne. For udviklingen går da forrygende stærkt for tiden, med alle de multiprocesser der bliver pumpet ud. Ville være så rart hvis nye programmerings sprog blev udviklet så udviklerne mindre skulle tænke på at skrive til flere kerne, men "bare kode" og programmerings sproget så tog over og opdelte opgaver så optimalt som muligt via de kerne der er til rådighed.
[ontopic]
dejligt at se at produktionen går forrygende og kommende processer også kommer til at spare strøm samt får en højere ydelse. Man kan kun glæde sig til fremtiden =).
Og Nvidia har bøvl med at komme ned på 45nm? Måske de skulle snakke lidt med Intel som har kørt 45nm længe og nu snart er ved at være klar med 32nm?:)
#2 Jeg sad faktisk og læste noget omkring det forleden, altså håndtering af flere kerner bedre, det var noget slideshow fra Apple og Intel konference (WWDC måke ?)
Hvor man talte om at lave kernen om, således at programmørene og sprog udviklerne ikke skulle tænke på kernerne, da man forudser om "få" år at have et utal af kerner (nogen og 60 i løbet af 3-4 år) derfor bliver man nød til at lave kernen om til at håndtere ændringerne uden at skulle opfinde nye sprog eller uddanne programmører.
så mon ikke det er den approach for de tre store kerne udviklere... Windows, Apple(& BSD) samt Linux.
det er da også hamrende irriterende at f.eks. skulle købe dyre upgrades kun for at få multikerne funktioner.
Hvor man talte om at lave kernen om, således at programmørene og sprog udviklerne ikke skulle tænke på kernerne, da man forudser om "få" år at have et utal af kerner (nogen og 60 i løbet af 3-4 år) derfor bliver man nød til at lave kernen om til at håndtere ændringerne uden at skulle opfinde nye sprog eller uddanne programmører.
så mon ikke det er den approach for de tre store kerne udviklere... Windows, Apple(& BSD) samt Linux.
det er da også hamrende irriterende at f.eks. skulle købe dyre upgrades kun for at få multikerne funktioner.
Men er de strømbesparende? De fleste cpu'er der bliver lavet i dag, dækker forbrugermarkedet fint... Men der er stadig strøm/co2/batterilevetid at tage hensyn til.
Remmerboy (1) skrev:je synes hele tiden at de opgraderer fabrikker. de må hurtig tjene pengene hjem igen, eller også har den en masse penge, fra dengang de havde pentium, hvor de ikke opgraderede fabrikker så ofte, samt cpu'erne var pæn dyre
Intel byggede (og opgradede) nu også FABS under deres Netburst teknologi.
Willamette og Northwood var 130 nm.
Prescott var 90 nm og Cedar Mill var 65nm.
Næste gang så mere fakta og mindre FUD tak.
#3 Læs venligst nedenstående indlæg fra Izaaq fra anden nyhed:
http://newz.dk/ati-og-nvidias-overgang-til-40-nm-kan-blive-forsinket skrev:#2 GPUer og CPUer er vidt forskellige i, hvordan de arbejder, og dermed hvor meget cache og on-die SRAMs de behøver. Den begrænsende faktor er klart effektforbruget. Hvor den ene process kan være meget effekttung mht hukommelse, men mindre effekttung mht anden logik, kan den anden process være helt modsat. Det er ikke kun "mindstebredden af metalstrukturer" (antal nm), der er til forskel i de to processer, men også hvilke metaller, doteringer, etc (mange hundrede procesparametre) der afgør, hvilken proces der egner sig bedst til en specific kreds med en specifik fordeling af logiktyper mv.
#2
Langt de fleste programmer er skrevet med brug af tråde. OS'et står for at dele tråde ud mellem kerner, så hvis et program er trådet, bruges alle kerner gerne. Der er så en del med optimisering af dét at bruge flere kerner, for dét er ikke trivielt, og kommer helt an på hvad det er programmet ska afvikle.
Det kan man ikke lave noget generelt til at holde styr på. Selvfølgelig kan man gøre det bedre end idag, men det vil man altid kunne, og der er seævfølgelig smartere måder at gøre det på, på chippen... Man må bare indse at den gamle desvise med at "hardware er billigere end timer" ikke holder mere, og så begynde at kigge på optimale sprog og metoder, fremfor bloated .net/java-knald, så CPU og program kan passe sammen...
Langt de fleste programmer er skrevet med brug af tråde. OS'et står for at dele tråde ud mellem kerner, så hvis et program er trådet, bruges alle kerner gerne. Der er så en del med optimisering af dét at bruge flere kerner, for dét er ikke trivielt, og kommer helt an på hvad det er programmet ska afvikle.
Det kan man ikke lave noget generelt til at holde styr på. Selvfølgelig kan man gøre det bedre end idag, men det vil man altid kunne, og der er seævfølgelig smartere måder at gøre det på, på chippen... Man må bare indse at den gamle desvise med at "hardware er billigere end timer" ikke holder mere, og så begynde at kigge på optimale sprog og metoder, fremfor bloated .net/java-knald, så CPU og program kan passe sammen...
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.