mboost-dp1

Nvidia

Nvidia langer igen ud efter Larrabee

- Via Ars Technica - , redigeret af Emil

Nvidias konference NVISION 08 er netop startet, og en af de første ting, Nvidia har gjort i den forbindelse, er at kommentere Intels Larrabee-processor.

Intel ser Larrabee som afløseren for GPU’er fra Nvidia og AMD. Denne påstand har ikke overraskende mødt markant modstand fra specielt Nvidia. Andy Keane fra Nvidia mener, at Intel har et problem med at få udnyttet de mange kerner i Larrabee. Problemet med at programmere til mange kerner har eksisteret i lang tid, og Nvidia kan ikke forestille sig, at Intel på magisk vis pludseligt skulle have løst det problem.

Eftersom alt håndteres af software med Larrabee, så vil kvaliteten af “driverne” til processoren være af stor betydning for ydelsen. Dette er et område, Intel ikke ligefrem har gjort sig godt i før, hvor bl.a. driversupport for Intels G965 og G45 har været alt andet end overbevisende.





Gå til bund
Gravatar #1 - m910q
26. aug. 2008 09:48
Kan de ikke bare holde mund? Vi forbrugere skal da nok købe det der yder bedst i forhold til prisen...
Gravatar #2 - MathiasLM
26. aug. 2008 09:52
NVidia har vel selv det problem, med CUDA.
Gravatar #3 - NeoNmaN
26. aug. 2008 09:54
GAT DAMIT nu trækker det op til bitch fight mellem Nvidia og Intel :P
Gravatar #4 - Hald
26. aug. 2008 09:56
Og mens de skændes om guldet, overhaler AMD/ATI indenom :-P
Gravatar #5 - vardeesbjerg
26. aug. 2008 10:13
cuda virker da fint...

Intel har hele tiden haft det meste i munden...og så senere hen når de viser en kraftpræstation så overgår nvidia den med vognlængder...

men regner da med at intel vil bruge monopol lignende slyngel metoder til at få deres til at vinde...selvom det ikke er det bedste.

ATI render dog pt fra begge to. og fusion chippen bliver spændende!
Gravatar #6 - Onde Pik
26. aug. 2008 10:45
Hmm... de siger at Larrabee ikke er nogen kunkurrent, men deres heftig angreb hele tiden kunne tyde på det modsatte.

Desuden så skal der ingen "magi" til at parllelisere ray tracing...
Gravatar #7 - Flameanden
26. aug. 2008 10:45
nVidia der kritiserer Intel for at have dårlige drivere? Se det er humor på højt plan.

Personligt synes jeg at ideen om at have en processor der er kraftig nok til at en software renderer er andet end et tankeeksperiment er super cool, og helt sikkert vejen frem.
Gravatar #8 - iluka
26. aug. 2008 10:47
nVidia må virkeligt føle sig præssede af Larrabee når de konstant rakker den ned. Hvis de virkeligt mente at den er så elendig som de påstår så var der jo ingen grund til at kommentere på den før vi ser benchmarks. nVidias kritik ser jeg som et bevis på at de betragter den som en seriøs konkurrent.

Det er forresten lamt at påstå at parallelprogrammering bliver et stort problem. nVidia parraleliserer i forvejen sevl som gale på deres GPU'er med 100'vis af shading units, så de kan tydeligvis godt finde ud af det. Og raytracing er i sin natur super paralleliserbart.
Gravatar #9 - esbenr
26. aug. 2008 10:58
Det er helt fantastisk den krig de har gang i.
Det kommer der nogle sjove udtalelser ud af ind imellem.

Kig bare tilbage i historikken.

De to firmaer har været i totterne på hinanden og det sjoveste er ofte når direktøren for det ene firma sviner produktet eller det andet firma.
Gravatar #10 - CallOfDuty
26. aug. 2008 11:01
Ja, de er lidt til grin, men Intel startede mudder kastningen, de påstod deres raytracing vil slå AMD og NVIDIAs produkter, det er klart man står op og kæmper i mod nogen der sår tvivl om ens eksistens.

Nvidia mener nok at Intels skræmme kampagne lægger en dæmper på mulige investorer, det tror jeg kan være en af grundende til at Nvidias aktiekurs er meget lav, og altså ikke udelukkende på grund af deres notebook chip problematik.

#7 At sige de kritiserer er nok en tilsnigelse, der påpeges at Intel har et stort driver arbejde foran sig, og som ny på scenen har man ikke megen erfaring.
Gravatar #11 - -N-
26. aug. 2008 11:04
#8 Præcis, Ati holder sig temmelig roligt, måske de ikke kan se det samme potentiale som nVida kan.

Hvad er det egentligt nVidia prøver at bevise, hvis intel virkelig er så langt ude som de påstår, så er der jo ikke et problem.

nVidia mangler:
Selvtillid (og lækkert hår?)
Drivere (ligesom intel)
Løsningne på multikerne problemet (ligesom intel)

For mig at se, så står nVidia ikke stærkere end intel og er højst sandsynligt derfor de tuder sådan.
Gravatar #12 - AenimA
26. aug. 2008 12:01
Nogle kommentarer, jeg synes er spændende, fra artiklen:

"Every GPU we make, we always consider this type of design, we do a reasoned analysis, and we always conclude no. That's why we haven't built that type of machine."


Det behøver ikke at afholde andre fra at prøve (eller betyde at Nvidia altid har taget de rigtige beslutninger) Men...

As for gaming performance, it's lousy, even by integrated video standards. Intel has a long history of producing terrible gaming GPUs, and while it is an integrated product, the bottom line is that both NVIDIA and ATI have found ways to substantially improve the integrated gaming experience. The G45 was Intel's chance to prove it could compete in this area, and the company has failed rather miserably


Her er jeg mere enig. Intel har meget at bevise på driverfronten. Det er ikke umuligt at spille spil med de integrerede grafikkort fra Intel, men udover lav ydelse er der også ret tit fejl i grafikken. Det kan skyldes Intels særlige tilgang til 3D grafik, der er mere softwarebaseret, men i så fald kan det problem potentielt blive videreført til Larrabee, medmindre selve Larrabee arkitekturen er bedre til at 'fortolke'.

Montrym, interestingly enough, doesn't see much point to AMD's Fusion, claiming that the GPU+CPU on a single package would deliver only a marginal performance increase in exchange for dramatically increased costs.


Nvidia kan ikke selv lave et lignende produkt med deres manglende CPU licens, derfor synes de naturligvis at AMDs Fusion produkt er 'uinteressant'. BS.

Jeg er enig med andre i, at kritikken fra Nvidia virker en anelse på den desperate side.

Montrym went on to imply that NVIDIA's investment into PhysX and CUDA would prove to be the company's long-term champion, which fits with NVIDIA's recent strategy, best described as: "Mention CUDA as often as possible."


Jeg er ikke enig i PhysX nødvendigvis er det bedste opkøb, Nvidia har foretaget sig.
1) Det er ikke en standard for hardwareaccelleration, der er understøttet af alle parter på markedet (og grundet Nvidias opkøb, bliver det sikkert eksklusivt understøttet på Nvidia produkter) Det betyder udviklere
2) Selve accellerationen fungerer fint på Nvidia kort, men for at det ikke skal betyde en væsentlig nedgang i fps (indrømmet, for en noget højere kvalitet), skal man helst have to kort installeret på ens system - noget som kun er begrænset til et fåtal af brugerne.

Jeg ville hellere se en mere 'bred' standard for fysikaccelleration, f.eks. gennem DirectX eller OpenGL (OpenPL?) - MS åbnede ballet med deres geometry shader, der dog har nogle begræsninger i sin nuværende form, til gengæld er den tilgængelig for alle grafikkortproducenterne der laver DX10 kompatible produkter (og kunder med Vista).

Det korte af det lange er, at det ikke afgjort endnu om PhysX på langt sigt er en levedygtig standard, Intel kommer nok ikke til understøtte PhysX (med alle deres integrerede grafikkort og senere Larrabee) og ATI satser mere på Havok (som er ejet af Intel).

Spørgsmålet er, om Nvidia er ved at skabe sig flere fjender, end de kan klare, eller om de bare er mere fremsynede? Jeg hælder mest til det første pt.

#6
Desuden så skal der ingen "magi" til at parllelisere ray tracing...


Nej, men mon ikke der diskuteres rasterbaseret 3D, der trods alt nok bliver fremherskende i et stykke tid endnu.
Gravatar #13 - Whoopdeefuckingdoo
26. aug. 2008 12:52
Opfører de sig ikke bare som et par teenageknægte i omklædningsrummet, som lige skal se hvem der har den største godawert?
Gravatar #14 - CallOfDuty
26. aug. 2008 14:45
AenimA (12) skrev:
1) Det er ikke en standard for hardwareaccelleration, der er understøttet af alle parter på markedet (og grundet Nvidias opkøb, bliver det sikkert eksklusivt understøttet på Nvidia produkter)

Nvidia siger de vil være glade hvis ATI understøtter Physx, men ATI vælger altså at gå sammen med Intel og deres Havok.

Surt valg for AMD og Nvidia fans vil jeg mene, her havde de ellers muligheden for at få skovlen under Intel.

AenimA (12) skrev:
2) Selve accellerationen fungerer fint på Nvidia kort, men for at det ikke skal betyde en væsentlig nedgang i fps (indrømmet, for en noget højere kvalitet), skal man helst have to kort installeret på ens system

Uenig. Man får så mange gange mere fysik kraft igennem en GPU end CPU, at det skulle være en væsentlig nedgang i fps ved jeg ikke hvor du har fra, det er selvfølgelig op til hvordan spillet er lavet.. men du har måske eksempler?? Jeg har ikke set Physx i aktion, men de Physx benchmarks jeg har set ser ikke ud til at backe din påstand op, men det kommer selvfølgelig an på hvor meget fysik der rent faktisk bruges i de benchmarks.

Nvidia propaganda coming up:
CUDA og Physx er grunden til jeg vælger Nvidia nu. Jeg laver lidt musik, og der er allerede begyndt at komme software instrumenter optimeret igennem CUDA. Jeg bruger også Adobe programmer, noget som der går rygter om bliver optimeret til CUDA i CS4, og så er jeg ellers sikker på at folk bliver glade for deres Physx når spillene kommer.

Folk skal da have lov til at være pissed på Nvidia, men jeg har kun respekt for alt det arbejde de ligger for dagen, og jeg ville også prøve at få lukket munden på Pat Gelsinger hvis jeg var Jens Hangover

At Nvidia disser AMDs Fusion er bare fordi de ikke kan tilbyde et lignende produkt, surt for dem. Men ærgeligt for industrien og konkurrencen at Nvidia ikke har en x86 licens også.
Gravatar #15 - AenimA
26. aug. 2008 16:33
#14

Uenig. Man får så mange gange mere fysik kraft igennem en GPU end CPU, at det skulle være en væsentlig nedgang i fps ved jeg ikke hvor du har fra, det er selvfølgelig op til hvordan spillet er lavet.. men du har måske eksempler?? Jeg har ikke set Physx i aktion, men de Physx benchmarks jeg har set ser ikke ud til at backe din påstand op, men det kommer selvfølgelig an på hvor meget fysik der rent faktisk bruges i de benchmarks


guru3d

Se på GRAW2 - Hvis man bruger 1 GPU til grafik, 1 kort til fysik beregninger, er ydelse udemærket. Bruger man 1 kort til både fysik og grafik, falder ydelse drastisk.
I begge tilfælde er der tale om nedgang i ydelsen ifht. 1 grafikkort der kører spillet, men dog uden PhysX effekter. De andre spil der er nævnt i artiklen, er lidt irrelevante, fordi de er ment som udstilling af PhysX effekter (og ikke er hele spil)

Ergo, for at få en ordentlig ydelse ud af PhysX, og ikke opleve en drastisk ydelsesnedgang, så skal man have to grafikkort.

Nvidia siger de vil være glade hvis ATI understøtter Physx, men ATI vælger altså at gå sammen med Intel og deres Havok.
Surt valg for AMD og Nvidia fans vil jeg mene, her havde de ellers muligheden for at få skovlen under Intel.


Jo, men AMD og Nvidia er også konkurrenter, og Nvidia har et forspring med PhysX teknologien, som de opkøbte sidste år - mens ATI har arbejdet på en GPU/PPU løsning med Havok siden 2006 (givetvis før). Derfor springer ATI ikke bare over på PhysX vognen. ATI har også meldt ud, at de ikke vil understøtte fysikberegninger, før det ydelsesmæssigt "giver mening" (ja, det er en lidt vag udtalelse), men mange anmeldere regner med at se en driver, der giver (Havok) fysik accelleration i løbet af efteråret. Vi får se.

CUDA og Physx er grunden til jeg vælger Nvidia nu. Jeg laver lidt musik, og der er allerede begyndt at komme software instrumenter optimeret igennem CUDA. Jeg bruger også Adobe programmer, noget som der går rygter om bliver optimeret til CUDA i CS4, og så er jeg ellers sikker på at folk bliver glade for deres Physx når spillene kommer.


ATI har også vist accelleration af photoshop CS4 gennem deres Stream (SDK) program (i samarbejde med Adobe, naturligvis). Jeg er selv grafiker, og ser frem til at Photoshop (endeligt) udnytter grafikkortenes muligheder, men CUDA er ikke den eneste vej frem. Det har iøvrigt ikke noget med PhysX direkte at gøre, det er CUDA og Stream (begge GPGPU programmer), der slås med hinanden her.

..Men ærgeligt for industrien og konkurrencen at Nvidia ikke har en x86 licens også.


Enig. Man faktum er, det har de ikke - så kommentaren om Fusion virker en anelse ligegyldig.

Folk skal da have lov til at være pissed på Nvidia, men jeg har kun respekt for alt det arbejde de ligger for dagen, og jeg ville også prøve at få lukket munden på Pat Gelsinger hvis jeg var Jens Hangover


Jeg er absolut ikke "pissed på Nvidia", jeg har stor respekt for Nvidias arbejde med grafikkort - men jeg har været med lang tid nok til at se standarder uden bred opbakning fejle over tid, og det giver/kan give problemer for forbrugerne og destabiliserer PC markedet (manglende kompabilitet, tabte funktioner m.m.), på et tidspunkt hvor det har brug for stabilitet IMO. Fysikberegninger er vejen fremad for spil, fordi det kan give ekstra liv til spilverdener, men Nvidia er en lille spiller, set overfor AMD og Intel, så uden deres opbakning kan Nvidia godt få problemer. CUDA derimod, er ligesom Stream et godt program. Men her kunne det også være rart med en fælles standard.

Det her er selvfølgelig altsammen spekulation. Om et års tid ved vi nok mere om, PhysX kommer til at klare sig.
Gravatar #16 - CallOfDuty
28. aug. 2008 10:32
AenimA (15) skrev:
#15
Se på GRAW2

GRAW 2 anmeldelsen lyder meget positiv overfor physx ydelsen, ærgeligt de ikke har taget videoer af det. Jeg tror der er en ting du ikke bider helt mærke i, jeg har highlighted det i bold herunder, men kort sagt, du får jo altså meget for de FPS det koster, og 60 FPS i 2560x1600 er altså i orden:

"The first thing I noticed, much more tree movement based on wind, loads of crap (debris) flying through the air again based on wind direction. Also dust clouds, which might even be soft particle based, were moving over the ground. Immediately the game got a little more immersive, though our framerate dropped a little overall, the experience is much richer than what we are used to. There's just much more happening on that screen.

AenimA (15) skrev:
Jo, men AMD og Nvidia er også konkurrenter, og Nvidia har et forspring med PhysX teknologien, som de opkøbte sidste år - mens ATI har arbejdet på en GPU/PPU løsning med Havok siden 2006 (givetvis før). Derfor springer ATI ikke bare over på PhysX vognen.

De har ikke arbejdet med en fysik før for nylig, nuvel snakkede de om det dengang sammen med Nvidia, men det er først for nylig de aktivt er gået i gang med Havok, efter Nvida købte Physx og konverterede det om til CUDA på kort tid.

ATI har også vist accelleration af photoshop CS4 gennem deres Stream (SDK) program (i samarbejde med Adobe, naturligvis). Jeg er selv grafiker, og ser frem til at Photoshop (endeligt) udnytter grafikkortenes muligheder, men CUDA er ikke den eneste vej frem. Det har iøvrigt ikke noget med PhysX direkte at gøre, det er CUDA og Stream (begge GPGPU programmer), der slås med hinanden her.


Nej, jeg tror det ikke i første omgang. Folk er meget i tvivl om ATI gpgpu optimering af Adobes software, giv gerne et link hvis nogen har info. Jeg tror kun Adobe inkluderer Nvidia optimeringen fordi Nvidia går ind og hjælper meget med software udviklingen.

Med frigivelsen for nylig af CUDA 2 får udviklere sourcekoden til et Adobe filter eksempel, det og så alle de ting du kan se på http://www.nvidia.com/cuda hjemmesiden får spredt CUDA godt rundt i krogene.

Men ja, vi kan kun se tiden an.
Gravatar #17 - AenimA
28. aug. 2008 13:42
#16

Ang. GRAW2

Jo, jeg har bidt mærke i forskellen af kvaliteten, som jeg også selv har påpeget (læs evt. #12 igen), men det ændrer ikke på at frameraten falder gevaldigt med ét kort. Det betyder måske ikke så meget i GRAW2, der ikke længere stresser grafikkortene, men det kan betyde en del for nyere spil. Pointen er, så lang tid ét kort skal behandle både grafik og fysik, så vil det gå ud over ydelsen.
Så må man afgøre for sig selv om kvalitetsforbedringen er det værd. Jeg er selv splittet i spørgsmålet, men under alle tilfælde ville jeg gerne have én fælles standard for fysikaccellerationen.

De har ikke arbejdet med en fysik før for nylig, nuvel snakkede de om det dengang sammen med Nvidia, men det er først for nylig de aktivt er gået i gang med Havok, efter Nvida købte Physx og konverterede det om til CUDA på kort tid.


ATI og Havok ATI viste flere fysik accelleration demoer tilbage i Computex 2006 (med X1000 serie kort). Så samarbejdet med Havok (FX) er absolut ikke noget nyt.

Nej, jeg tror det ikke i første omgang. Folk er meget i tvivl om ATI gpgpu optimering af Adobes software, giv gerne et link hvis nogen har info. Jeg tror kun Adobe inkluderer Nvidia optimeringen fordi Nvidia går ind og hjælper meget med software udviklingen.


Indtil videre har jeg ikke set nogle nyheder der har sagt andet end at ATIs GPGPU (eller Stream) er understøttet.

MacNN om Adobe CS4

Darkvision om CS4

Jeg vil tværtimod gerne se links til sider, der siger det modsatte.

Med frigivelsen for nylig af CUDA 2 får udviklere sourcekoden til et Adobe filter eksempel, det og så alle de ting du kan se på www.nvidia.com hjemmesiden får spredt CUDA godt rundt i krogene.


Jeg er enig i Nvidia er gode til at promovere CUDA; men folk er gode til at glemme at ATI har haft et lign. program kørende i et godt stykke tid. Man skal huske at se tingene lidt fra begge sider.
Gravatar #18 - CallOfDuty
28. aug. 2008 18:19
ATI og Havok ATI viste flere fysik accelleration demoer tilbage i Computex 2006 (med X1000 serie kort). Så samarbejdet med Havok (FX) er absolut ikke noget nyt.
Det samme gjorde Nvidia, men så hørte vi aldrig mere fra nogen af dem. Jeg tror det var lidt af et hack begge havde gang i.

Indtil videre har jeg ikke set nogle nyheder der har sagt andet end at ATIs GPGPU (eller Stream) er understøttet.
MacNN om Adobe CS4
Darkvision om CS4
Jeg vil tværtimod gerne se links til sider, der siger det modsatte.
Begge de links du linker til bruger Nvidia grafikort til eksemplet, og det står intet om ATIs GPGPU er understøttet. Men altså ja, efter at have tænkt lidt nærmere kan jeg ikke se hvorfor de ikke skal kunne understøtte begge standarder. Eneste grund jeg kan se er om Adobe har brug for udviklingshjælp, i så fald har Nvidia stået der dagen efter, det er jeg ret sikker på.

Jeg er enig i Nvidia er gode til at promovere CUDA; men folk er gode til at glemme at ATI har haft et lign. program kørende i et godt stykke tid. Man skal huske at se tingene lidt fra begge sider.
Helt sikkert, men prøv at sammenlign Stream og CUDA hjemmesiderne, og tænk på de få Stream nyheder der har været. Det tager jeg lige igen, har lige set Stream hjemmesiden igen, og den ser også ret god ud.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login