Annonce

Indsend nyhed

Del dine opdagelser!

Afstemning

Hvad er din ynglingsbrowser

  • 64%Chrome
  • 21%Firefox
  • 7%Internet Explorer
  • 4%Safari
  • 2%Opera
  • 1%en helt tredje...
  • 0%Avant Browser
  • 0%SRWare Iron
  • 0%Maxthon Cloud
  • 0%Comodo Dragon
  • 0%Sleipner
  • 0%K-Meleon
  • 0%Lunascape
  • 0%RockMelt
Flere detaljer om Intel Larrabee
Billede: Intel

Flere detaljer om Intel Larrabee

4. aug. 2008 12:10Intel vil gerne ind på markedet for dedikerede grafikkort, og til formålet er de ved at udvikle Larrabee, der har en helt anden tilgang til at lave grafik end nuværende GPU'er.

Modsat den nuværende måde at lave 3D-grafik i spil, så ser Intel raytracing som fremtiden for 3D-grafik, hvilket dog kræver enorme mængder processorkraft. Larrabee skal klare denne opgave ved at indeholde mange kerner.

Nye informationer fra Intel afslører, at hver kerne i Larrabee vil være opbygget over den gamle Pentium-processor, dog udvidet på visse områder. Hver kerne vil kunne afvikle fire tråde (Hyperthreading) og kunne håndtere 64 bit instruktioner. Derudover har hver kerne en 512 bit vektorenhed.

Det forventes, at den første top-udgave af Larrabee vil have 32 kerner, og ved en arbejdsfrekvens på 2 GHz, så vil chippen have en maksimal teoretisk ydelse på 2 teraflops. Ifølge Intels planer så vil Larrabee kunne starte med 4 kerner og udvides med op til 48 kerner.

Til trods for sin markant anderledes arkitektur end konkurrenternes, AMD og Nvidia, GPU'er, så vil Larrabee ikke kræve et specielt API for at kunne fungere, men vil kunne arbejde direkte med DirectX og OpenGL. Det betyder, at nuværende spil vil virke med Larrabee, hvor godt det vil ske, er dog endnu uvist.

#1: Mr AC

4. aug. 2008 12:18

Hvis den skal have 32 pentium-kerner så begynder jeg at blive meget nervøs for strømforbruget/varmeudviklingen.

Jeg vil gerne have et stærkt grafikkort, men jeg har ingen ønsker om at have en PC der kan varme et parcelhus op alene.

To succeed is not enough... others must fail!

#2: lost-viking

4. aug. 2008 12:21

#1 jeg er faktisk enig.. det må give en kolosal varme.. og den normale cpu giver i forvejen ganske godt med varme.. og desuden kan jeg godt lide ideen om at have et grafikkort jeg kan tage ud og skifte.. hvis jeg syntes jeg vil det..

Man skal ikke spise æbler hvis man selv har orm i kærnehuset

#3: Guruman

4. aug. 2008 12:33

#2 det er vel også det der er hele målet for Intel - at lave et dedikeret grafikkort (ligesom ATI/Nvidia) så du kan skifte det ud.

#4: TriGGy

4. aug. 2008 12:35

varmeudviklingen afhænger vel kun af hvormeget de "presser" processorerne. I teorien er det vel ligegyldigt hvormange kerner den har.

#3 kom i forkøbet :)

#5: vandfarve

4. aug. 2008 12:36

#1-2

Jeg ville have kommet med samme filosofiske/sarkastiske bemærkninger om valget at bygge Larrabee over de gamle Pentium-kerner, men jeg tvivler stærkt på, at grafikkortets strømforbrug vil overgå AMD's og Nvidias topkort. Det vil ikke give nogen mening overhovedet, for så vil ingen købe det.

Derfor må man ræsonnere sig frem til, at enten skal Pentium-kernerne blot være en prøveballon (og der er endda kun 4), før man introducerer kraftigere og mere effektive kerner i Larrabee - og på den måde kommer man op på de 48 kerner i det maksimale setup. Ellers må Intel have skåret strømforbruget voldsomt ned pr. kerne til, at det kan betale sig at bygge Larrabee på Pentium 4-arkitekturen.

Jeg kan dog ikke se det revolutionerende at benytte raytracing, siden det ifølge nyheden kræver så voldsomt mange flere processorkræfter. Er der nogle, som kan forklare dette?

Bliver der nogensinde folketingsvalg i Danmark? Næppe. derbliveraldrigvalgever.tumblr.com

#6: stone

4. aug. 2008 12:37

simplistisk set er det samme tilgangsvinkel som cell i ps3'en, og paa sigt er general purpose units helt sikkert vejen at gaa- ikke mindst fordi man kan bruge dem til alt fra encoding, de-coding, grafik processering til andre beregningstunge opgaver, lyd-kort fysik beregninger med mere.

baade ati og nvidia gaar ioevrigt ogsaa i samme retning. men hvor intel starter med en cpu, bevaeger deres gpu'er sig ogsaa stille og roligt over i multi-purpose segmentet efterhaanden som de bliver mere generelle. skal ogsaa huske paa at larrabee er sat til at komme sommeren 2009, saa ati/nvidia naar at lancere ca. to generationer af grafikkort mere, som vil bevaege sig stadigt mere mod general-purpose. skal blive spaendende at se, om de to forskellige teknologier mon ikke ender med at ligne hinanden.

cell har efterhaanden nogle aar paa bagen, men sony haabede jo oprindeligt ogsaa at cell kunne haandtere gpu opergaverne- saa filosofien bag arkitekturene er meget den samme, selvom intel tilsyneladende forsoeger at brute-force sig til resultater, hvor cell var mere inovativ.

vi maa haabe at intel faar lavet nogle fornuftige drivere. det er mildest talt ikke just gode grafik drivere som de er kendt for pt.

/stone

#7: lerbech

4. aug. 2008 12:39

#5 nu er vi så heldige at den ikke bygger på pentium 4 kerner men på de lidt ældre pentium kerner, dog lettere ombyggede og tilpasset til de nye produktions teknologier

#8: stone

4. aug. 2008 12:51

Jeg kan dog ikke se det revolutionerende at benytte raytracing, siden det ifølge nyheden kræver så voldsomt mange flere processorkræfter. Er der nogle, som kan forklare dette?#5

er ikke helt sikker paa jeg har forstaaet spoergsmaalet, men- grunden til at raytracing er 'revolutionerende' er fordi det i modsaetning til rasterization, som hvad dagens grafikkort laver, er baseret paa fysisk korrekt simulering af lyset. simpliceret beregninger, men basalt set korrekte. det giver korrekte reflektioner, skygger og brydning at lyset i overflader, saa som vand. hvor en rasterizer er fuldstaendig snyd, og hver lyskilde lever i sin egen lille verden, simulerer raytracing lysets straaler og kaster dem rundt i verden- det er pga. antallet af lysstraaler/rays som er noedvendige derfor meget kraevende beregninger, og noget som egner sig helt fantastisk til at blive distribueret og beregnet paa en enhed med mange kerner.

revolutionerende skal tages med et gran salt. rasterization har gennem aarende udviklet sig voldsomt, og den viden der er opbygget og implementeret i forskellige engines er ikke saadan lige at slaa af pinden med en ny teknologi. det vil tage tid foer raytrcing engines viser deres fulde potentiale, og foerste skridt bliver garanteret hybrid engines, hvor man raytracer de dele af billedet hvor man vinder mest.

/stone

#9: AenimA

4. aug. 2008 13:06

..det kræver at spillet (spillets engine) understøtter raytracing, hvilket der er ca. 0 af indtil videre.

Jeg er ikke så meget i tvivl om Intels evne til at lave hardware, som jeg er til deres evne at rykke den etablerede måde at lave spilgrafik på (rasterization), Intel har endnu ikke selv vist nogle overbevisende eksempler på hvorfor vi skal skifte fra rasterization til raytracing IMO (deres modificerede Quake IV demo så ikke synderligt spændende ud). Man kan stille spørgsmålstegn ved hvilken tidshorisont Intel regner med, eftersom alle nuværende projekter angiveligt kører med rasterization.

Vi får se. I teorien er der mange fascinerende muligheder i raytracing, men jeg tror ikke rasterization mister relevans i den kommende fremtid (næste fem år mindst), men man kan jo altid blive overrasket. Intel skal proaktivt overbevise både udviklere og gamere mere end tilfældet er lige nu.

#10: XERXES

4. aug. 2008 13:13

Nyhedskilden er godt nok lidt sparsom med informationer, så hvis folk vil have en mere detaljeret gennemgang af Larrabee, så har AnandTech en mere dybegående artikel klar.

http://anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3367

På Internettet er der ingen der ved, at du er en hund.

#11: radmer

4. aug. 2008 13:21

#1,2
Den gamle pentium 4 mobile 2Ghz havde en Thermal Power på ~25W - dagens mindre produktions-størrelse (45nm) vil sikkert kunne få strømforbruge ned på ~15W pr. kerne (som f.eks. AMD's 2Ghz 9350 cpu).

Hvorfor følgende for mig lyder realistisk:

Så 16 kerner af 15W = 240W ~= nVidias 280'er (238W)

...eller 32 kerne meget lig 280'eren i SLI mode.

#12: JesperZ

4. aug. 2008 13:27

Ejer Intel ikke nVidia eller er det bare mig der husker forkert? For hvad er ideen så i at Intel begynder at lave et dedikerede grafikkort når de allerede har en afdeling til den slags?

Tak fordi du læste min signatur :)

#13: izym

4. aug. 2008 13:34

#12 Du husker lidt forkert, det er AMD der har købt ATI (eller fusioneret, ret mig hvis jeg husker forkert ;).

One does not simply walk into newz.dk

#14: jfs

4. aug. 2008 13:37

#9
Hvad med at læse hele resuméet før du kommenterer? Der står netop til sidst at Intel udvikler direkte support for de nuværende Direct3D og OpenGL API sådan så eksisterende software kan bruge deres GPU uden nogen form for særlig understøttelse.
At det så måske ikke vil fungere optimalt er en anden sag.

#15: Törleif Val Viking

4. aug. 2008 13:43

#12
Du husker forkert

Raytraycing er fremtiden, det er jeg ret overbevist om. At Intel vælger at lave et monster cluster af CPU'er ser jeg som et håb om at det vil kunne afvikle raytraycing hurtigt nok til at spiludviklere vil få øje på teknologien.

Det smarte ved raytraycing er at programøren blot skal sætte sin objekter ind så klarerer raytracing alt bøvlet med bøjningen af lys gennem diverse materialer. Altsammen uden at programmøren skal til at finde opfindsomme løsninger for at få det til at se godt ud.

Om Larrabee vil magte opgaven bliver spændende at se.

Til jer der gerne vil læse mere om raytraycing kan jeg anbefale.

Wiki
og hvis i følger external links i bunden bliver det endnu mere spændende.

-- ( ) Man skal ikke smadre trapper ö Hvis man selv bor i et fyrtårn

#16: Remmerboy

4. aug. 2008 13:43

men kan den køre crysis flydende :)

det er fedt nok med endnu en aktør på banen på gfx markedet. og så lige med en helt ny måde at lave gpu på. det bliver da et par spændende år

#17: AenimA

4. aug. 2008 14:01

#14

Jeg kommenterede raytracing delen, som #8 var inde på (deraf de tre prikker i starten, jeg burde nok have skrevet #8 istedet :) )

Selvfølgelig har Intel understøttelse af DirectX og OpenGL, alt andet ville være selvmord. Og eftersom Larrabee er fuldt ud programmérbar burde det ikke være et problem at få det til at køre, men som du selv er inde på, noget sværere at få til at køre optimalt.
Fordelen ved Larrabee er, at GPU'en burde skalere bedre ved flere kerner (som der spekuleres at den vil have op til 32 el. 48 af), men igen - jeg venter på benchmarks før jeg vil spekulere i ydelsen under OpenGL og Direct3D. Umiddelbart virker GPU'en optimeret til raytracing beregninger (deraf de mange kerner), men vi får se.

#18: Pernicious

4. aug. 2008 14:19

#1,2
Den gamle pentium 4 mobile 2Ghz havde en Thermal Power på ~25W - dagens mindre produktions-størrelse (45nm) vil sikkert kunne få strømforbruge ned på ~15W pr. kerne (som f.eks. AMD's 2Ghz 9350 cpu).

Hvorfor følgende for mig lyder realistisk:

Så 16 kerner af 15W = 240W ~= nVidias 280'er (238W)

...eller 32 kerne meget lig 280'eren i SLI mode.#11

Det er ikke Pentium 4 kerner, men derimod de gamle pentium kerner, der vil blive anvendt, tror de forbruger væsentligt mindre energi.

#19: chris

4. aug. 2008 14:19

- for mig lyder det smart med massere af små processorer der sidder i forbindelse..
så kan man slukke for de fleste af processorene når man ikke bruger graffikkortet til andet end solitare...

#1,2
Den gamle pentium 4 mobile 2Ghz havde en Thermal Power på ~25W - dagens mindre produktions-størrelse (45nm) vil sikkert kunne få strømforbruge ned på ~15W pr. kerne (som f.eks. AMD's 2Ghz 9350 cpu).

Hvorfor følgende for mig lyder realistisk:

Så 16 kerner af 15W = 240W ~= nVidias 280'er (238W)

...eller 32 kerne meget lig 280'eren i SLI mode.#11

faktisk er der ikke snak om pentium 4 processorer..
men pentium 1. processorer..

den hurtigste af disse har et strømforbrug på 15W - og vi snakker en af de der RØVE gamle processorer her..
så vi kan nok sagtens presse strømforbruget langt lavere ned
med 45nm eller i fremtiden 32 nm teknologi

www.noobish.dk min clog

#20: vandfarve

4. aug. 2008 14:27

#18-19 Jeg tror, at det startede med, at jeg læste det som værende Pentium 4-kerner i referatet, og at andre så har taget den derfra.

Dog vil jeg mene, at #11's indlæg stadig er relevant, da han blot sætter strømforbruget i kontekst. De gamle Pentium 4 M-processorer bruger/brugte nemlig ikke særlig meget strøm, og selv i et kluster af 16 kerner vil systemet ikke forbruge mere end Nvidias GTX280-kort. At de så bruger nogle endnu ældre processorer må bare betyde, at strømforbruget falder yderligere.

Dog lyder det rimeligt skummelt, at de vælger at bygge videre på Pentium 1-arkitekturen, da det trods alt er et par dage siden, at den havde sin storhedstid. Det er nok en mellemting af strømforbruget og økonomien, der gør, at de ikke har smidt en Penryn-arkitektur i i stedet for.

Bliver der nogensinde folketingsvalg i Danmark? Næppe. derbliveraldrigvalgever.tumblr.com

#21: eliassorensen

4. aug. 2008 14:51

Og mon ikke Intel har modificeret bare en LILLE smule på Pentium kernerne, for at få strømforbruget og varmeudviklingen en anelse ned :)

*edit*
Kan se at de vil udvikle det på 45nm basis, og senere en med flere kerner på 32nm.

#22: newz-Neo1

4. aug. 2008 15:15

Pentium 1-arkitekturen, da det trods alt er et par dage siden, at den havde sin storhedstid.

Aarh rolig nu, det bliver nok hverken Pentium 4 eller Pentium 1, men derimod Pentium M som skidtet bliver baseret på (Og dermed indirekte Pentium 3, som faktisk var en glimrende arkitektur)

This is a quantum car. I don't know where I am, but I'm going really really fast!

#23: radmer

4. aug. 2008 15:37

#19,20 "My bad" - jeg må lære at læse kilden igennem inden jeg kommenterer ;)

Jeg tror dog stadig ikke på de med 45nm er i stand til at komme meget længere ned en 15W pr. kerne - da der pt. ikke eksistere cpu kerne ved 2Ghz under det strøm-forbrug.

Og "what ever" Pentium-kerne den nedstammer fra, så er de i hvertfald blevet kraftig modificeret - 64bit instruktionssæt, 4 hyperthreads, pre-fetch, udvidet cpu-2-cpu-ring-kommunikation og så Vectorenheden.

Og skift til 45/32nm er ikke bare et spørgsmål om at lave det mindre, men skift af materialer

- så mon ikke Larrabee går hen og bliver en temmelig sprød sag som nok skal give både de grønne og røde konkurenter sved på panden.

#24: stone

4. aug. 2008 15:57

skal huske at kernerne kan simplificeres. de bliver blandt andet, saa vidt jeg ved, in-order hvilket spare en masse kompleksitet frem for en typisk out-of-order pentium cpu. der er ogsaa en masse fetching, cache og execution enheder som man kan spare vaek eller goere simplere.

stadigvaek, saa siger rygterne at den vil blive lanceret uden storoembesparende egenskaber og med et meget hoejt 300w stroemforbrug.

der er desuden en helt frisk og meget interessant, forholdsvis teknisk, beskrivelse paa andtech.

/stone

#25: radmer

4. aug. 2008 16:56

Da flere har sat spørgsmål omkr. Intel brug af ældere Pentium struktur, kom jeg i tanke om at der også kan være en anden økonomisk bagtanke med dette:

Hvis Larrabee er tiltænkt gamere kan prisen for topmodellen med 48 kerne ikke ligge meget over 5000 Dkr. - dvs. omkr. 100 kr pr. kerne, mod en normal cpu som koster måske over 250 kr. pr. kerne for en tilsvarende ydelse.

Dvs. at Intel må sikre sig at Larrabee ikke udhuler for meget af markedet for deres almindelig cpu'er - følger man den tankegang, giver det fornuft at Larrabee-kernerne ikke indeholder for mange "moderne" cpu instruktioner.

???

#26: XxX

4. aug. 2008 21:22

Intel siger at Raytracing er fremtiden...

Men var det ikke ogsaa dem som sagde at rambus ram var fremtiden ...

XxX

#27: XxX

4. aug. 2008 21:24

Naa ja og at det ville være deres IA64 processorer der ville vinde 64 bit striden mod AMDs 86x64 struktur..

XxX

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret bruger