mboost-dp1

Lucid
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
helt enig, har mine forbehold over for hvad intel har at sige på grafik området, specielt med deres CPU kan ALT! raytracing WOOHOOO snak. men kan godt se det super smarte i den måde hydra skal fungere. men hvis de viser at den er hurtig til at smide opgaverne vidre til et grafikkort der kan dit og dat. så er det nice. hvis hydra softwaren til gengæld tager extra cpu for at håndtere denne opsplitning så er der jo ikke meget at hente.
#2 - ikke just fordi en QuadCore bliver brugt vildt meget når du spiller anyway.
Det er de færreste spil der bruger alle 4 kerner på en quad den dag idag. Så hvis jeg skulle dedikere en kerne til og hjælpe Lucid chippen skaffe mig ~100% boost i grafikken. Så ville jeg da gladeligt tage den "straf" :)
Det er de færreste spil der bruger alle 4 kerner på en quad den dag idag. Så hvis jeg skulle dedikere en kerne til og hjælpe Lucid chippen skaffe mig ~100% boost i grafikken. Så ville jeg da gladeligt tage den "straf" :)
Hvis den rent faktisk kan splitte op i mellem 2 forskellige grafikkort og derudover give det til CPU'en som den er bedst til og har overskud til, - så tror jeg nok vi står med et vindersystem!
Jeg tvivler dog som de øvrige her, Anand og sikkert de fleste andre på om den rent faktisk kan det.
Jeg tvivler dog som de øvrige her, Anand og sikkert de fleste andre på om den rent faktisk kan det.
"En af bekymringerne er, om det ekstra lag Hydra Engine udgør, vil medføre forsinkelser i dannelsen af billedet på skærmen."
Næppe... Med den data mængde som er til et grafik kort, skal den chip godt nok have en massiv mængde cache hvis der skal opstå nogen som helst mærkbar forsinkelse.
Næppe... Med den data mængde som er til et grafik kort, skal den chip godt nok have en massiv mængde cache hvis der skal opstå nogen som helst mærkbar forsinkelse.
Jeg tror nogengange at jeg er den eneste der bare gerne vil have hurtigere diskadgang, hurtigere net I/O og hvorfor kommer der ikke snart en RS42 der kan køre gigabit?
#10
Det med at administrere flere kerner er den stor hurdle i dag. Der er ingen endnu som har fundet ud af at gøre det særligt effektivt. Det er også derfor f.eks. Apple har trådt et skridt tilbage med 'Snowleopard' og prøver at knække nøden, i stedet for at udvikle nye smarte features til deres eksisterende systemer.
Det med at administrere flere kerner er den stor hurdle i dag. Der er ingen endnu som har fundet ud af at gøre det særligt effektivt. Det er også derfor f.eks. Apple har trådt et skridt tilbage med 'Snowleopard' og prøver at knække nøden, i stedet for at udvikle nye smarte features til deres eksisterende systemer.
#3 Jeg tror at #2 snakkede om Intels Larrabee, som er en måde at bruge CPU kraft til at lave GPU opgaver.
Umiddelbart kunne det smarte ved dette være at man decideret gik efter 2 forskellige kort, altså at du går efter et kort som er godt til 3D og et som er godt til 2D.
Så har du en maskine som er god til både spil, men også er utroligt god til Photoshop og lign.
Samtidig kan du benytte et kort som er godt til at rendere 3D modeller, og så et som er godt til at smide teksturer på modellerne.
(Og selvfølgelig det åbentlyse hvor du får flere kort uden at ofre ~50% i maskinkraft.)
Umiddelbart kunne det smarte ved dette være at man decideret gik efter 2 forskellige kort, altså at du går efter et kort som er godt til 3D og et som er godt til 2D.
Så har du en maskine som er god til både spil, men også er utroligt god til Photoshop og lign.
Samtidig kan du benytte et kort som er godt til at rendere 3D modeller, og så et som er godt til at smide teksturer på modellerne.
(Og selvfølgelig det åbentlyse hvor du får flere kort uden at ofre ~50% i maskinkraft.)
lyder som en ekstra spand overhead der...kan godt være det skalerer linært, men det er jo ikke morsomt med 1 gfx kort hvis der er 10% overhead oveni... dog er jeg lidt i tvivl hvorvidt den overtager cpu'ens arbejde med kommunikation og sync med gpu(erne), da der også er et møg stort overhead involveret der.
#0
Granulariteten er muligvis finere end supertiling, men ovenstående udsagn er forsimplet eller vildledende. AFR, er det ikke ved at være 10 år siden?
Rendering Modes
Modsat SLI og Crossfire, hvor billedet bliver beregnet skiftesvis af GPU'erne
Granulariteten er muligvis finere end supertiling, men ovenstående udsagn er forsimplet eller vildledende. AFR, er det ikke ved at være 10 år siden?
Rendering Modes
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.