mboost-dp1

Intel
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
#1 jeg er faktisk enig.. det må give en kolosal varme.. og den normale cpu giver i forvejen ganske godt med varme.. og desuden kan jeg godt lide ideen om at have et grafikkort jeg kan tage ud og skifte.. hvis jeg syntes jeg vil det..
#1-2
Jeg ville have kommet med samme filosofiske/sarkastiske bemærkninger om valget at bygge Larrabee over de gamle Pentium-kerner, men jeg tvivler stærkt på, at grafikkortets strømforbrug vil overgå AMD's og Nvidias topkort. Det vil ikke give nogen mening overhovedet, for så vil ingen købe det.
Derfor må man ræsonnere sig frem til, at enten skal Pentium-kernerne blot være en prøveballon (og der er endda kun 4), før man introducerer kraftigere og mere effektive kerner i Larrabee - og på den måde kommer man op på de 48 kerner i det maksimale setup. Ellers må Intel have skåret strømforbruget voldsomt ned pr. kerne til, at det kan betale sig at bygge Larrabee på Pentium 4-arkitekturen.
Jeg kan dog ikke se det revolutionerende at benytte raytracing, siden det ifølge nyheden kræver så voldsomt mange flere processorkræfter. Er der nogle, som kan forklare dette?
Jeg ville have kommet med samme filosofiske/sarkastiske bemærkninger om valget at bygge Larrabee over de gamle Pentium-kerner, men jeg tvivler stærkt på, at grafikkortets strømforbrug vil overgå AMD's og Nvidias topkort. Det vil ikke give nogen mening overhovedet, for så vil ingen købe det.
Derfor må man ræsonnere sig frem til, at enten skal Pentium-kernerne blot være en prøveballon (og der er endda kun 4), før man introducerer kraftigere og mere effektive kerner i Larrabee - og på den måde kommer man op på de 48 kerner i det maksimale setup. Ellers må Intel have skåret strømforbruget voldsomt ned pr. kerne til, at det kan betale sig at bygge Larrabee på Pentium 4-arkitekturen.
Jeg kan dog ikke se det revolutionerende at benytte raytracing, siden det ifølge nyheden kræver så voldsomt mange flere processorkræfter. Er der nogle, som kan forklare dette?
simplistisk set er det samme tilgangsvinkel som cell i ps3'en, og paa sigt er general purpose units helt sikkert vejen at gaa- ikke mindst fordi man kan bruge dem til alt fra encoding, de-coding, grafik processering til andre beregningstunge opgaver, lyd-kort fysik beregninger med mere.
baade ati og nvidia gaar ioevrigt ogsaa i samme retning. men hvor intel starter med en cpu, bevaeger deres gpu'er sig ogsaa stille og roligt over i multi-purpose segmentet efterhaanden som de bliver mere generelle. skal ogsaa huske paa at larrabee er sat til at komme sommeren 2009, saa ati/nvidia naar at lancere ca. to generationer af grafikkort mere, som vil bevaege sig stadigt mere mod general-purpose. skal blive spaendende at se, om de to forskellige teknologier mon ikke ender med at ligne hinanden.
cell har efterhaanden nogle aar paa bagen, men sony haabede jo oprindeligt ogsaa at cell kunne haandtere gpu opergaverne- saa filosofien bag arkitekturene er meget den samme, selvom intel tilsyneladende forsoeger at brute-force sig til resultater, hvor cell var mere inovativ.
vi maa haabe at intel faar lavet nogle fornuftige drivere. det er mildest talt ikke just gode grafik drivere som de er kendt for pt.
/stone
baade ati og nvidia gaar ioevrigt ogsaa i samme retning. men hvor intel starter med en cpu, bevaeger deres gpu'er sig ogsaa stille og roligt over i multi-purpose segmentet efterhaanden som de bliver mere generelle. skal ogsaa huske paa at larrabee er sat til at komme sommeren 2009, saa ati/nvidia naar at lancere ca. to generationer af grafikkort mere, som vil bevaege sig stadigt mere mod general-purpose. skal blive spaendende at se, om de to forskellige teknologier mon ikke ender med at ligne hinanden.
cell har efterhaanden nogle aar paa bagen, men sony haabede jo oprindeligt ogsaa at cell kunne haandtere gpu opergaverne- saa filosofien bag arkitekturene er meget den samme, selvom intel tilsyneladende forsoeger at brute-force sig til resultater, hvor cell var mere inovativ.
vi maa haabe at intel faar lavet nogle fornuftige drivere. det er mildest talt ikke just gode grafik drivere som de er kendt for pt.
/stone
5 skrev:Jeg kan dog ikke se det revolutionerende at benytte raytracing, siden det ifølge nyheden kræver så voldsomt mange flere processorkræfter. Er der nogle, som kan forklare dette?
er ikke helt sikker paa jeg har forstaaet spoergsmaalet, men- grunden til at raytracing er 'revolutionerende' er fordi det i modsaetning til rasterization, som hvad dagens grafikkort laver, er baseret paa fysisk korrekt simulering af lyset. simpliceret beregninger, men basalt set korrekte. det giver korrekte reflektioner, skygger og brydning at lyset i overflader, saa som vand. hvor en rasterizer er fuldstaendig snyd, og hver lyskilde lever i sin egen lille verden, simulerer raytracing lysets straaler og kaster dem rundt i verden- det er pga. antallet af lysstraaler/rays som er noedvendige derfor meget kraevende beregninger, og noget som egner sig helt fantastisk til at blive distribueret og beregnet paa en enhed med mange kerner.
revolutionerende skal tages med et gran salt. rasterization har gennem aarende udviklet sig voldsomt, og den viden der er opbygget og implementeret i forskellige engines er ikke saadan lige at slaa af pinden med en ny teknologi. det vil tage tid foer raytrcing engines viser deres fulde potentiale, og foerste skridt bliver garanteret hybrid engines, hvor man raytracer de dele af billedet hvor man vinder mest.
/stone
..det kræver at spillet (spillets engine) understøtter raytracing, hvilket der er ca. 0 af indtil videre.
Jeg er ikke så meget i tvivl om Intels evne til at lave hardware, som jeg er til deres evne at rykke den etablerede måde at lave spilgrafik på (rasterization), Intel har endnu ikke selv vist nogle overbevisende eksempler på hvorfor vi skal skifte fra rasterization til raytracing IMO (deres modificerede Quake IV demo så ikke synderligt spændende ud). Man kan stille spørgsmålstegn ved hvilken tidshorisont Intel regner med, eftersom alle nuværende projekter angiveligt kører med rasterization.
Vi får se. I teorien er der mange fascinerende muligheder i raytracing, men jeg tror ikke rasterization mister relevans i den kommende fremtid (næste fem år mindst), men man kan jo altid blive overrasket. Intel skal proaktivt overbevise både udviklere og gamere mere end tilfældet er lige nu.
Jeg er ikke så meget i tvivl om Intels evne til at lave hardware, som jeg er til deres evne at rykke den etablerede måde at lave spilgrafik på (rasterization), Intel har endnu ikke selv vist nogle overbevisende eksempler på hvorfor vi skal skifte fra rasterization til raytracing IMO (deres modificerede Quake IV demo så ikke synderligt spændende ud). Man kan stille spørgsmålstegn ved hvilken tidshorisont Intel regner med, eftersom alle nuværende projekter angiveligt kører med rasterization.
Vi får se. I teorien er der mange fascinerende muligheder i raytracing, men jeg tror ikke rasterization mister relevans i den kommende fremtid (næste fem år mindst), men man kan jo altid blive overrasket. Intel skal proaktivt overbevise både udviklere og gamere mere end tilfældet er lige nu.
Nyhedskilden er godt nok lidt sparsom med informationer, så hvis folk vil have en mere detaljeret gennemgang af Larrabee, så har AnandTech en mere dybegående artikel klar.
http://anandtech.com/cpuchipsets/intel/showdoc.asp...
http://anandtech.com/cpuchipsets/intel/showdoc.asp...
#1,2
Den gamle pentium 4 mobile 2Ghz havde en Thermal Power på ~25W - dagens mindre produktions-størrelse (45nm) vil sikkert kunne få strømforbruge ned på ~15W pr. kerne (som f.eks. AMD's 2Ghz 9350 cpu).
Hvorfor følgende for mig lyder realistisk:
Så 16 kerner af 15W = 240W ~= nVidias 280'er (238W)
...eller 32 kerne meget lig 280'eren i SLI mode.
Den gamle pentium 4 mobile 2Ghz havde en Thermal Power på ~25W - dagens mindre produktions-størrelse (45nm) vil sikkert kunne få strømforbruge ned på ~15W pr. kerne (som f.eks. AMD's 2Ghz 9350 cpu).
Hvorfor følgende for mig lyder realistisk:
Så 16 kerner af 15W = 240W ~= nVidias 280'er (238W)
...eller 32 kerne meget lig 280'eren i SLI mode.
#9
Hvad med at læse hele resuméet før du kommenterer? Der står netop til sidst at Intel udvikler direkte support for de nuværende Direct3D og OpenGL API sådan så eksisterende software kan bruge deres GPU uden nogen form for særlig understøttelse.
At det så måske ikke vil fungere optimalt er en anden sag.
Hvad med at læse hele resuméet før du kommenterer? Der står netop til sidst at Intel udvikler direkte support for de nuværende Direct3D og OpenGL API sådan så eksisterende software kan bruge deres GPU uden nogen form for særlig understøttelse.
At det så måske ikke vil fungere optimalt er en anden sag.
#12
Du husker forkert
Raytraycing er fremtiden, det er jeg ret overbevist om. At Intel vælger at lave et monster cluster af CPU'er ser jeg som et håb om at det vil kunne afvikle raytraycing hurtigt nok til at spiludviklere vil få øje på teknologien.
Det smarte ved raytraycing er at programøren blot skal sætte sin objekter ind så klarerer raytracing alt bøvlet med bøjningen af lys gennem diverse materialer. Altsammen uden at programmøren skal til at finde opfindsomme løsninger for at få det til at se godt ud.
Om Larrabee vil magte opgaven bliver spændende at se.
Til jer der gerne vil læse mere om raytraycing kan jeg anbefale.
Wiki
og hvis i følger external links i bunden bliver det endnu mere spændende.
Du husker forkert
Raytraycing er fremtiden, det er jeg ret overbevist om. At Intel vælger at lave et monster cluster af CPU'er ser jeg som et håb om at det vil kunne afvikle raytraycing hurtigt nok til at spiludviklere vil få øje på teknologien.
Det smarte ved raytraycing er at programøren blot skal sætte sin objekter ind så klarerer raytracing alt bøvlet med bøjningen af lys gennem diverse materialer. Altsammen uden at programmøren skal til at finde opfindsomme løsninger for at få det til at se godt ud.
Om Larrabee vil magte opgaven bliver spændende at se.
Til jer der gerne vil læse mere om raytraycing kan jeg anbefale.
Wiki
og hvis i følger external links i bunden bliver det endnu mere spændende.
#14
Jeg kommenterede raytracing delen, som #8 var inde på (deraf de tre prikker i starten, jeg burde nok have skrevet #8 istedet :) )
Selvfølgelig har Intel understøttelse af DirectX og OpenGL, alt andet ville være selvmord. Og eftersom Larrabee er fuldt ud programmérbar burde det ikke være et problem at få det til at køre, men som du selv er inde på, noget sværere at få til at køre optimalt.
Fordelen ved Larrabee er, at GPU'en burde skalere bedre ved flere kerner (som der spekuleres at den vil have op til 32 el. 48 af), men igen - jeg venter på benchmarks før jeg vil spekulere i ydelsen under OpenGL og Direct3D. Umiddelbart virker GPU'en optimeret til raytracing beregninger (deraf de mange kerner), men vi får se.
Jeg kommenterede raytracing delen, som #8 var inde på (deraf de tre prikker i starten, jeg burde nok have skrevet #8 istedet :) )
Selvfølgelig har Intel understøttelse af DirectX og OpenGL, alt andet ville være selvmord. Og eftersom Larrabee er fuldt ud programmérbar burde det ikke være et problem at få det til at køre, men som du selv er inde på, noget sværere at få til at køre optimalt.
Fordelen ved Larrabee er, at GPU'en burde skalere bedre ved flere kerner (som der spekuleres at den vil have op til 32 el. 48 af), men igen - jeg venter på benchmarks før jeg vil spekulere i ydelsen under OpenGL og Direct3D. Umiddelbart virker GPU'en optimeret til raytracing beregninger (deraf de mange kerner), men vi får se.
11 skrev:#1,2
Den gamle pentium 4 mobile 2Ghz havde en Thermal Power på ~25W - dagens mindre produktions-størrelse (45nm) vil sikkert kunne få strømforbruge ned på ~15W pr. kerne (som f.eks. AMD's 2Ghz 9350 cpu).
Hvorfor følgende for mig lyder realistisk:
Så 16 kerner af 15W = 240W ~= nVidias 280'er (238W)
...eller 32 kerne meget lig 280'eren i SLI mode.
Det er ikke Pentium 4 kerner, men derimod de gamle pentium kerner, der vil blive anvendt, tror de forbruger væsentligt mindre energi.
- for mig lyder det smart med massere af små processorer der sidder i forbindelse..
så kan man slukke for de fleste af processorene når man ikke bruger graffikkortet til andet end solitare...
faktisk er der ikke snak om pentium 4 processorer..
men pentium 1. processorer..
den hurtigste af disse har et strømforbrug på 15W - og vi snakker en af de der RØVE gamle processorer her..
så vi kan nok sagtens presse strømforbruget langt lavere ned
med 45nm eller i fremtiden 32 nm teknologi
så kan man slukke for de fleste af processorene når man ikke bruger graffikkortet til andet end solitare...
11 skrev:#1,2
Den gamle pentium 4 mobile 2Ghz havde en Thermal Power på ~25W - dagens mindre produktions-størrelse (45nm) vil sikkert kunne få strømforbruge ned på ~15W pr. kerne (som f.eks. AMD's 2Ghz 9350 cpu).
Hvorfor følgende for mig lyder realistisk:
Så 16 kerner af 15W = 240W ~= nVidias 280'er (238W)
...eller 32 kerne meget lig 280'eren i SLI mode.
faktisk er der ikke snak om pentium 4 processorer..
men pentium 1. processorer..
den hurtigste af disse har et strømforbrug på 15W - og vi snakker en af de der RØVE gamle processorer her..
så vi kan nok sagtens presse strømforbruget langt lavere ned
med 45nm eller i fremtiden 32 nm teknologi
#18-19 Jeg tror, at det startede med, at jeg læste det som værende Pentium 4-kerner i referatet, og at andre så har taget den derfra.
Dog vil jeg mene, at #11's indlæg stadig er relevant, da han blot sætter strømforbruget i kontekst. De gamle Pentium 4 M-processorer bruger/brugte nemlig ikke særlig meget strøm, og selv i et kluster af 16 kerner vil systemet ikke forbruge mere end Nvidias GTX280-kort. At de så bruger nogle endnu ældre processorer må bare betyde, at strømforbruget falder yderligere.
Dog lyder det rimeligt skummelt, at de vælger at bygge videre på Pentium 1-arkitekturen, da det trods alt er et par dage siden, at den havde sin storhedstid. Det er nok en mellemting af strømforbruget og økonomien, der gør, at de ikke har smidt en Penryn-arkitektur i i stedet for.
Dog vil jeg mene, at #11's indlæg stadig er relevant, da han blot sætter strømforbruget i kontekst. De gamle Pentium 4 M-processorer bruger/brugte nemlig ikke særlig meget strøm, og selv i et kluster af 16 kerner vil systemet ikke forbruge mere end Nvidias GTX280-kort. At de så bruger nogle endnu ældre processorer må bare betyde, at strømforbruget falder yderligere.
Dog lyder det rimeligt skummelt, at de vælger at bygge videre på Pentium 1-arkitekturen, da det trods alt er et par dage siden, at den havde sin storhedstid. Det er nok en mellemting af strømforbruget og økonomien, der gør, at de ikke har smidt en Penryn-arkitektur i i stedet for.
Og mon ikke Intel har modificeret bare en LILLE smule på Pentium kernerne, for at få strømforbruget og varmeudviklingen en anelse ned :)
*edit*
Kan se at de vil udvikle det på 45nm basis, og senere en med flere kerner på 32nm.
*edit*
Kan se at de vil udvikle det på 45nm basis, og senere en med flere kerner på 32nm.
Pentium 1-arkitekturen, da det trods alt er et par dage siden, at den havde sin storhedstid.
Aarh rolig nu, det bliver nok hverken Pentium 4 eller Pentium 1, men derimod Pentium M som skidtet bliver baseret på (Og dermed indirekte Pentium 3, som faktisk var en glimrende arkitektur)
#19,20 "My bad" - jeg må lære at læse kilden igennem inden jeg kommenterer ;)
Jeg tror dog stadig ikke på de med 45nm er i stand til at komme meget længere ned en 15W pr. kerne - da der pt. ikke eksistere cpu kerne ved 2Ghz under det strøm-forbrug.
Og "what ever" Pentium-kerne den nedstammer fra, så er de i hvertfald blevet kraftig modificeret - 64bit instruktionssæt, 4 hyperthreads, pre-fetch, udvidet cpu-2-cpu-ring-kommunikation og så Vectorenheden.
Og skift til 45/32nm er ikke bare et spørgsmål om at lave det mindre, men skift af materialer
- så mon ikke Larrabee går hen og bliver en temmelig sprød sag som nok skal give både de grønne og røde konkurenter sved på panden.
Jeg tror dog stadig ikke på de med 45nm er i stand til at komme meget længere ned en 15W pr. kerne - da der pt. ikke eksistere cpu kerne ved 2Ghz under det strøm-forbrug.
Og "what ever" Pentium-kerne den nedstammer fra, så er de i hvertfald blevet kraftig modificeret - 64bit instruktionssæt, 4 hyperthreads, pre-fetch, udvidet cpu-2-cpu-ring-kommunikation og så Vectorenheden.
Og skift til 45/32nm er ikke bare et spørgsmål om at lave det mindre, men skift af materialer
- så mon ikke Larrabee går hen og bliver en temmelig sprød sag som nok skal give både de grønne og røde konkurenter sved på panden.
skal huske at kernerne kan simplificeres. de bliver blandt andet, saa vidt jeg ved, in-order hvilket spare en masse kompleksitet frem for en typisk out-of-order pentium cpu. der er ogsaa en masse fetching, cache og execution enheder som man kan spare vaek eller goere simplere.
stadigvaek, saa siger rygterne at den vil blive lanceret uden storoembesparende egenskaber og med et meget hoejt 300w stroemforbrug.
der er desuden en helt frisk og meget interessant, forholdsvis teknisk, beskrivelse paa andtech.
/stone
stadigvaek, saa siger rygterne at den vil blive lanceret uden storoembesparende egenskaber og med et meget hoejt 300w stroemforbrug.
der er desuden en helt frisk og meget interessant, forholdsvis teknisk, beskrivelse paa andtech.
/stone
Da flere har sat spørgsmål omkr. Intel brug af ældere Pentium struktur, kom jeg i tanke om at der også kan være en anden økonomisk bagtanke med dette:
Hvis Larrabee er tiltænkt gamere kan prisen for topmodellen med 48 kerne ikke ligge meget over 5000 Dkr. - dvs. omkr. 100 kr pr. kerne, mod en normal cpu som koster måske over 250 kr. pr. kerne for en tilsvarende ydelse.
Dvs. at Intel må sikre sig at Larrabee ikke udhuler for meget af markedet for deres almindelig cpu'er - følger man den tankegang, giver det fornuft at Larrabee-kernerne ikke indeholder for mange "moderne" cpu instruktioner.
???
Hvis Larrabee er tiltænkt gamere kan prisen for topmodellen med 48 kerne ikke ligge meget over 5000 Dkr. - dvs. omkr. 100 kr pr. kerne, mod en normal cpu som koster måske over 250 kr. pr. kerne for en tilsvarende ydelse.
Dvs. at Intel må sikre sig at Larrabee ikke udhuler for meget af markedet for deres almindelig cpu'er - følger man den tankegang, giver det fornuft at Larrabee-kernerne ikke indeholder for mange "moderne" cpu instruktioner.
???
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.