mboost-dp1

Lucid

Lucid lover lineær GPU-skalering

- Via Anandtech - , redigeret af Emil , indsendt af Norrah

I forbindelse med det nyligt afholdte Intel Developer Forum, præsenterede det Intel-sponsorerede firma Lucid en ny teknologi frem kaldet Hydra Engine, der vil kunne skalere ydelsen lineært fra flere GPU’er.

Løsninger, der bruger flere GPU’er, kender vi allerede fra Nvidias SLI og ATI’s Crossfire, hvor ydelsen skalerer alt andet end lineært. Modsat SLI og Crossfire, hvor billedet bliver beregnet skiftesvis af GPU’erne, arbejder Hydra Engine markant anderledes.

Hydra Engine er et stykke software og en chip (Hydra 100), der er beregnet til at sidde på bundkortet i en computer. Softwaren opfanger alle OpenGL- og DirectX-kald, inden de sendes til grafikkortdriverne; herefter håndterer Hydra-chippen al data fra driverne, hvorefter disse sendes til grafikkortene. Chippen og den medfølgende software fordeler arbejdet mellem GPU’erne helt ned på objektniveau i en 3D-scene. Hydra Engine sørger selv for at finde ud af, hvilken GPU der er bedst til en given opgave.

Dette betyder, at selv med vidt forskellige grafikkort vil man stadig opnå en lineær skalering af ydelsen; Lucid påstår, at man i nogle tilfælde rent faktisk kan opnå en ydelse, der overgår den lineære, fordi Hydra-chippen er bedre til at håndtere visse datatyper end de enkelte GPU’er og derfor overtager denne tjans.

Anandtech har set teknologien ved en lukket demonstration, men er noget skeptisk over for, om alt, hvad Lucid lover, også kan holde. En af bekymringerne er, om det ekstra lag Hydra Engine udgør, vil medføre forsinkelser i dannelsen af billedet på skærmen.





Gå til bund
Gravatar #1 - SpYkE112
25. aug. 2008 17:24
Lyder vel nok fancy, gad vide om det rent faktisk holder vand.. Men spændende er det sgu :)
Gravatar #2 - Friwwies
25. aug. 2008 17:36
helt enig, har mine forbehold over for hvad intel har at sige på grafik området, specielt med deres CPU kan ALT! raytracing WOOHOOO snak. men kan godt se det super smarte i den måde hydra skal fungere. men hvis de viser at den er hurtig til at smide opgaverne vidre til et grafikkort der kan dit og dat. så er det nice. hvis hydra softwaren til gengæld tager extra cpu for at håndtere denne opsplitning så er der jo ikke meget at hente.
Gravatar #3 - LaMaH
25. aug. 2008 17:39
#2 - ikke just fordi en QuadCore bliver brugt vildt meget når du spiller anyway.

Det er de færreste spil der bruger alle 4 kerner på en quad den dag idag. Så hvis jeg skulle dedikere en kerne til og hjælpe Lucid chippen skaffe mig ~100% boost i grafikken. Så ville jeg da gladeligt tage den "straf" :)
Gravatar #4 - Dijkstra
25. aug. 2008 18:08
Hvis den rent faktisk kan splitte op i mellem 2 forskellige grafikkort og derudover give det til CPU'en som den er bedst til og har overskud til, - så tror jeg nok vi står med et vindersystem!

Jeg tvivler dog som de øvrige her, Anand og sikkert de fleste andre på om den rent faktisk kan det.
Gravatar #5 - Friwwies
25. aug. 2008 18:11
#3 kræver stadig man har X antal grafik kort :)
og hvis du har det burde du stadig have mere end rigelig fps i CS ;P
Gravatar #6 - assassin2007
25. aug. 2008 18:11
"En af bekymringerne er, om det ekstra lag Hydra Engine udgør, vil medføre forsinkelser i dannelsen af billedet på skærmen."

Næppe... Med den data mængde som er til et grafik kort, skal den chip godt nok have en massiv mængde cache hvis der skal opstå nogen som helst mærkbar forsinkelse.
Gravatar #7 - Logifire
25. aug. 2008 18:12
#3 vidste ikke at man kunne dedikere en specifik applikation til at køre på en bestemt kerne...

Troede det var operativsystemet der bestemte dette?
Gravatar #8 - Net_Srak
25. aug. 2008 18:21
#7

I Windows kan du styre det ved at højreklikke en process i task manageren og derefter vælge Set Affinity.
Gravatar #9 - mwn
25. aug. 2008 18:31
Jeg tror nogengange at jeg er den eneste der bare gerne vil have hurtigere diskadgang, hurtigere net I/O og hvorfor kommer der ikke snart en RS42 der kan køre gigabit?
Gravatar #10 - Friwwies
25. aug. 2008 18:31
når nu hydra skal forstille at være intel sponsoreret firma tror jeg nok de har lavet programmet trådet/multi proc. så det køre på flere kerner.
Gravatar #11 - iamjesse
25. aug. 2008 18:55
Det er måske også den bedste måde at udnytte multi cpu/gpu, ved at det for programmøren ser ud som én processor.
Gravatar #12 - Norrah
25. aug. 2008 19:42
Glem ikke at denne løsning eftersigende ikke er begrænset til max antal kort som ati og nvidia. Og kortene behøver ikke være ens.

Det vil sige at du med god samvitighed kan købe et nyt, og så bare lade dit gamle sidde i. Op til flere gange.
Gravatar #13 - Friwwies
25. aug. 2008 21:52
#12 når du nu snakker om god samvitighed..
har du tænkt på el-regningen ? =)
Gravatar #14 - Xill
25. aug. 2008 21:56
#12 jeg har ellers læst at det også er max 4 cores ..
Gravatar #15 - ostelarsen
25. aug. 2008 22:21
#10

Det med at administrere flere kerner er den stor hurdle i dag. Der er ingen endnu som har fundet ud af at gøre det særligt effektivt. Det er også derfor f.eks. Apple har trådt et skridt tilbage med 'Snowleopard' og prøver at knække nøden, i stedet for at udvikle nye smarte features til deres eksisterende systemer.
Gravatar #16 - Norrah
26. aug. 2008 05:38
#14 det er kun fordi det er det højeste antal PCIe lanes der findes på et bundkort so far.

Men i de fire kan du så også smide 4x x2 kort i...
Gravatar #17 - Scapegoat
26. aug. 2008 05:53
#3 Jeg tror at #2 snakkede om Intels Larrabee, som er en måde at bruge CPU kraft til at lave GPU opgaver.

Umiddelbart kunne det smarte ved dette være at man decideret gik efter 2 forskellige kort, altså at du går efter et kort som er godt til 3D og et som er godt til 2D.
Så har du en maskine som er god til både spil, men også er utroligt god til Photoshop og lign.

Samtidig kan du benytte et kort som er godt til at rendere 3D modeller, og så et som er godt til at smide teksturer på modellerne.

(Og selvfølgelig det åbentlyse hvor du får flere kort uden at ofre ~50% i maskinkraft.)
Gravatar #18 - mgX
26. aug. 2008 08:06
lyder som en ekstra spand overhead der...kan godt være det skalerer linært, men det er jo ikke morsomt med 1 gfx kort hvis der er 10% overhead oveni... dog er jeg lidt i tvivl hvorvidt den overtager cpu'ens arbejde med kommunikation og sync med gpu(erne), da der også er et møg stort overhead involveret der.
Gravatar #19 - rasmoo
26. aug. 2008 08:17
#0

Modsat SLI og Crossfire, hvor billedet bliver beregnet skiftesvis af GPU'erne


Granulariteten er muligvis finere end supertiling, men ovenstående udsagn er forsimplet eller vildledende. AFR, er det ikke ved at være 10 år siden?

Rendering Modes
Gravatar #20 - springby
26. aug. 2008 14:48
lyder som endnu en varme-udvikler
Gravatar #21 - engfeh
26. aug. 2008 19:35
#20

Mener at have læst at den kun bruger 5W, men dertil kommer selvfølgelig grafikkortene.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login