mboost-dp1

AMD
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
tænk sig, kigger man i #1 profil, står han til at være 31 år.
Det passede måske hvis man trak 17 år fra.
Nå men det er altid rart at se ATI godt kan følge med i de tests, blot en skam jeg har en fornemmelse på at det koster dem dyrt at være så pris aggressive, med mindre nvidia i forvejen skummer fløden på deres grafik kort.
Det passede måske hvis man trak 17 år fra.
Nå men det er altid rart at se ATI godt kan følge med i de tests, blot en skam jeg har en fornemmelse på at det koster dem dyrt at være så pris aggressive, med mindre nvidia i forvejen skummer fløden på deres grafik kort.
tja billigt for en el-radiator der kan lave billeder.....
DROP det ræs lav nogle kort der er passiv kølet utroligt at man lovligt kan pumpe så meget strøm ind i computere idag....
Fint nok at lille Søren kan spille i fuld opløsning på hans 30" gud ved hvad skærm men lær ham at se ud af vinduet først. (efter han har taget ørepropperne ud pga. blæsserenes larm for at holde computeren kølig)
fint nok der er konkurrence på det område men måske vil folk heller nøjes med mindre larm en super flotte spil oplevelser....
CCOS
DROP det ræs lav nogle kort der er passiv kølet utroligt at man lovligt kan pumpe så meget strøm ind i computere idag....
Fint nok at lille Søren kan spille i fuld opløsning på hans 30" gud ved hvad skærm men lær ham at se ud af vinduet først. (efter han har taget ørepropperne ud pga. blæsserenes larm for at holde computeren kølig)
fint nok der er konkurrence på det område men måske vil folk heller nøjes med mindre larm en super flotte spil oplevelser....
CCOS
#4 Jeg er ganske enig, langt hen ad vejen... Det er vist på tide at der bliver kigget mere på passiv køling (og strømforbrug, som jo er tæt forbundne), og en anden ting de kunne give sig til, er at indbygge muligheden for tv in/out på de fleste kort... Det vil højest gøre dem 100 eller 200 kroner dyrere, men i disse mediecentertider, så vil det ikke være helt af vejen... Hvis de så også fik noget software på banen som gjorde man kunne bruge gpu'en til nogle flere ting, så ville det igen have sin relevans med lidt kraft... Men pt. er der kraft nok på de grafikkort, til stort set alles behov...
Dog vil jeg sige at jeg har prøvet både ati/nvidia, og har computere med begge dele... Det eneste som har virket problemfrit er ATI, så jeg har en forkærlighed for dem. Jeg har aldrig haft bøvl med deres driver eller opsætning eller bugs... Det er altså rart, for jeg har brugt mange timer gennem årene på at finde ud af mærkelige geforce-fejl.
Dog vil jeg sige at jeg har prøvet både ati/nvidia, og har computere med begge dele... Det eneste som har virket problemfrit er ATI, så jeg har en forkærlighed for dem. Jeg har aldrig haft bøvl med deres driver eller opsætning eller bugs... Det er altså rart, for jeg har brugt mange timer gennem årene på at finde ud af mærkelige geforce-fejl.
@ #4 og #6 : der bliver set på strømforbrug! Nvidia har en funktion i de nye kort, som sænker hastigheden enormt når man ikke skal bruge det til 3d, hvorfor strømforbruget holdes nede når bestefar spiller syvkabale, eller bestemor sidder i haven og har glemt at slukke den. Strømforsyninger forskes der også i, hvorved de er nået op over 90% effektivitet efterhånden - noget din nokia oplader, eller dit stue anlæg ikke kan prale med. Og langt de fleste kort udover dem helt i toppen kan fås med passiv køling.
ps. et højtydende system behøver ikke larme.
Edit: Iøvrigt har både amd/ati og nvidia gpu sdk offentlig tilgængelig, så gpu'erne kan bruges til andet end spil og 3d produktivitet.
ps. et højtydende system behøver ikke larme.
Edit: Iøvrigt har både amd/ati og nvidia gpu sdk offentlig tilgængelig, så gpu'erne kan bruges til andet end spil og 3d produktivitet.
Bare lige fordi man er lidt morgenfrisk for en gangs skyld skal man straks pilles ned!
Jeg blev da bare positivt overrasket over de tests, og det første jeg kom i tanke om er den evige kamp om hvis producents kort der levere de bedste benchmarks.
Jeg er enig i at min første kommentar nok mere hører hjemme på dailyrush, men undskyld jeg har bare lidt humor.
Kris
Jeg blev da bare positivt overrasket over de tests, og det første jeg kom i tanke om er den evige kamp om hvis producents kort der levere de bedste benchmarks.
Jeg er enig i at min første kommentar nok mere hører hjemme på dailyrush, men undskyld jeg har bare lidt humor.
Kris
#9:
total cheap shot at Dailyrush... :P
#0:
ser nu meget fornuftigt ud... det ser ud til at ATI mere og mere går over imod at lave midrange kort og lade nVidia om at overgå sigselv hele tiden... ok fornuftigt at satse mere på et lidt billigere mid/high kort i stedet for de meget dyre top of the line kort imo.
total cheap shot at Dailyrush... :P
#0:
ser nu meget fornuftigt ud... det ser ud til at ATI mere og mere går over imod at lave midrange kort og lade nVidia om at overgå sigselv hele tiden... ok fornuftigt at satse mere på et lidt billigere mid/high kort i stedet for de meget dyre top of the line kort imo.
#7 At der er et sdk til gpu'erne, betyder ikke softwaren er der. Det betyder bare at firmaerne har fået muligheden for at lave det. Men indtil videre er der - mig bekendt - ikke noget software til gpu'erne, som privatpersoner kan bruge til noget... Kun uni eller firma'er som kan bruge gpu'en i clusters eller til andre beregninger...
#12
Der er da lavet BadaBoom, en video-transcoder, som er programmeret i CUDA! Dvs. kører på din nVidia GPUs processorer og gennemtæver video som var det slik i munden på en 10-årig. Og sikkert andre ting! Søg lidt på google?
Det største problem er vel at der ikke er fastlagt nogen generel standard for, hvordan man koder til GPU'er, det er fuldt og aldeles overladt til den enkelte GPU-producents forgodtbefindende!
Men svedige kort fra ATI! Jeg er ikke i tvivl om at det er 'best bang for the buck' for tiden! Men det skæmmes jo lidt af at nVIdia sørme liiiige satte prisen ned for deres konkurerende kort, nærmest 10 sekunder INDEN ATI launch!
På en måde er det vel OK at ATI sætter sig i bagsædet mht. HighEnd kort, så kan de få procent af markedet som har brug for det absolut vildeste bruge mange penge på det, mens resten af os kan få mellem-til-høj ydelse for særdeles få penge.
Der er da lavet BadaBoom, en video-transcoder, som er programmeret i CUDA! Dvs. kører på din nVidia GPUs processorer og gennemtæver video som var det slik i munden på en 10-årig. Og sikkert andre ting! Søg lidt på google?
Det største problem er vel at der ikke er fastlagt nogen generel standard for, hvordan man koder til GPU'er, det er fuldt og aldeles overladt til den enkelte GPU-producents forgodtbefindende!
Men svedige kort fra ATI! Jeg er ikke i tvivl om at det er 'best bang for the buck' for tiden! Men det skæmmes jo lidt af at nVIdia sørme liiiige satte prisen ned for deres konkurerende kort, nærmest 10 sekunder INDEN ATI launch!
På en måde er det vel OK at ATI sætter sig i bagsædet mht. HighEnd kort, så kan de få procent af markedet som har brug for det absolut vildeste bruge mange penge på det, mens resten af os kan få mellem-til-høj ydelse for særdeles få penge.
Tjek nu anandtech.com
4870 med de nyeste driver, giver et meget godt billedet.
Deres setup er.
QX9770 @ 3.20GHz
4 x 1GB Corsair DDR3-1333 7-7-7-20
EVGA nForce 790i SLI
Intel DX48BT2
Se på de opløsninger de bruger, 1680*1050 som de fleste kommer til at spille i (dem med 22"). 4870 ligger meget godt med.
Tænk nu på de opløsninger. hvor tit spiller du et spil i 2650*1600. Hvor mange penge vil du bruge på et grafikkort. ? 5000kr eller 2000 ?
4870 med de nyeste driver, giver et meget godt billedet.
Deres setup er.
QX9770 @ 3.20GHz
4 x 1GB Corsair DDR3-1333 7-7-7-20
EVGA nForce 790i SLI
Intel DX48BT2
Se på de opløsninger de bruger, 1680*1050 som de fleste kommer til at spille i (dem med 22"). 4870 ligger meget godt med.
Tænk nu på de opløsninger. hvor tit spiller du et spil i 2650*1600. Hvor mange penge vil du bruge på et grafikkort. ? 5000kr eller 2000 ?
#14 Du har helt ret, men måske jeg så skulle uddybe det jeg mente, ved at sige at, der mig bekendt ikke er lavet noget software, så den almene bruger kan drage nytte af gpu'ens kraft. Af dem jeg kender der bruger computer vil jeg tro jeg kender mindre end en håndfuld (og jeg kender jo nogle nørder ;) ) som transcoder video, og jeg kender mere end 100 som bruger computer dagligt. Men hvis der kommer software, så gpu'en kan bruges i f.eks. billedbehandling via en plug-in som er kompatibel med Photoshop, PaintShop, Gimp osv. så begynder det at ligne noget. :)
Hvis så f.eks. google-earth, Celestia, (astronomiprogrammer generelt) og andre lidt mere grafiktunge apps kunne bruge gpu'en, og f.eks. java, så ville det helt klart ligne noget. ;)
Hvis så f.eks. google-earth, Celestia, (astronomiprogrammer generelt) og andre lidt mere grafiktunge apps kunne bruge gpu'en, og f.eks. java, så ville det helt klart ligne noget. ;)
#15
Samme her.. Der er dog intet nævnt om 3dMark, så måske vi må vente lidt med en rant, men den kommer sikkert..
Vi kan jo starte..
3dShitty mark, skod program, skod hjemmesider aner intet om at teste kort, timedemos sutter, mangler CPU tunge ting i tests af gfx kort, tester ikke spilleoplevelse bla bla bla....... Glemte jeg noget?
Samme her.. Der er dog intet nævnt om 3dMark, så måske vi må vente lidt med en rant, men den kommer sikkert..
Vi kan jo starte..
3dShitty mark, skod program, skod hjemmesider aner intet om at teste kort, timedemos sutter, mangler CPU tunge ting i tests af gfx kort, tester ikke spilleoplevelse bla bla bla....... Glemte jeg noget?
#17 Det er vel det, Apple forsøger at køre i stilling med OpenCI? Altså at lave en åben API til 'Co-processorer', selvfølgelig specifikt GPU'er!!
Nu er det nok ikke så pissemange som i virkeligheden har brug for superdingdong GaussianBlur på 2 sekunder i et 200 MB tiff til en plakat på Rådhuspladsen, men OK! :) Selvfølgelig vil der være applikationsområder vi endnu ikke har set, som kan bruge bedre acceleration, men der eksisterer allerede plugins som udnytter GPUerne til mange specialiserede opgaver, eksempelvis matematik programmer og simulations-applikationer.
Det er markedet, som styrer det her! Det ville være fedt, ja, men ikke særligt relevant for masserne...endnu! :) Indtil er jeg superglad for at de trods alt kan beregne...mine 3D spil? :D
Nu er det nok ikke så pissemange som i virkeligheden har brug for superdingdong GaussianBlur på 2 sekunder i et 200 MB tiff til en plakat på Rådhuspladsen, men OK! :) Selvfølgelig vil der være applikationsområder vi endnu ikke har set, som kan bruge bedre acceleration, men der eksisterer allerede plugins som udnytter GPUerne til mange specialiserede opgaver, eksempelvis matematik programmer og simulations-applikationer.
Det er markedet, som styrer det her! Det ville være fedt, ja, men ikke særligt relevant for masserne...endnu! :) Indtil er jeg superglad for at de trods alt kan beregne...mine 3D spil? :D
#7 Har ikke brug for noget der KAN skrue op og ned for forbruget men noget der ikke bruger mere strøm end det kan passivt køles uder ALLE belastninger... og muligheden er jo kun så god som den bliver indbygget i softwaren, om med dagens typiske tends så bliver det kun under ½ gjordt arbejde ( hvor mange år har SLI været på banen og virker det ordenligt endnu?= udnytter det ressourcerne godt nok?)
Jeg har ikke set nogle PSU der har en 90% effektivtit mig bekendt er 87-88% max. når vi taler over hele området de skal forsyne.
#8 jo ved jeg har installeret et for mindre en 1 måned siden og har selv et passivt kølet Nvidia 8600 kort i min egen, men ville nu være bedre hvis det var standart at de var passive og ikke neddroslet versioner. Når man har kunne skrue ned for CPU'erne kan man vel også for GPU'erne... måske skulle der nogle miljø afgifter på GFX kort... sikke muligheder for statskassen.....!!!!
CCOS
Jeg har ikke set nogle PSU der har en 90% effektivtit mig bekendt er 87-88% max. når vi taler over hele området de skal forsyne.
#8 jo ved jeg har installeret et for mindre en 1 måned siden og har selv et passivt kølet Nvidia 8600 kort i min egen, men ville nu være bedre hvis det var standart at de var passive og ikke neddroslet versioner. Når man har kunne skrue ned for CPU'erne kan man vel også for GPU'erne... måske skulle der nogle miljø afgifter på GFX kort... sikke muligheder for statskassen.....!!!!
CCOS
#19 Det er rigtigt... Men stadig må vi jo indrømme at det kunne gøre noget for markedet, da stort set alle computere kommer med en gpu. ;) Og tilmed en der har en hvis styrke til basal talknusning... Og det kunne med fordel bruges i mange programmer. Det er ikke det store behov lige nu, men jeg ville elske at se, mine computere lige få et hastighedsboost i størstedelen af mine programmer, uden at jeg skulle betale for ny processor... :) Det ville ikke genere mig, at jeg måske kunne vinde 10-50% på mange programmers ydelse.
http://www.hardwarecanucks.com/forum/hardware-canu... På den er der mange tests og kortet klare sig suværent, dog vinder GT280 men det er også et kort der koster over det dobbelte.
Kortet er set til 220euro så omkring 1500-1600 og så når de kan masseproducere de GDDR5 ram så falder det nok ligesom HD3870 gjorde.
Btw så kommer RV770 jo også snart som er 2 HD4870 og medmindre ATI virkelig laver nogle dårlige drivers så tror jeg de tager føretrøjen og til en billigere penge end Nvidia. (3k gætter jeg på når den kommer)
Kortet er set til 220euro så omkring 1500-1600 og så når de kan masseproducere de GDDR5 ram så falder det nok ligesom HD3870 gjorde.
Btw så kommer RV770 jo også snart som er 2 HD4870 og medmindre ATI virkelig laver nogle dårlige drivers så tror jeg de tager føretrøjen og til en billigere penge end Nvidia. (3k gætter jeg på når den kommer)
@ #12 Der findes software på samme måde som der findes c++ compilere til windows - at der så ikke er mange firmaer der benytter sig af compilerne til at skrive software til gpu'er er jo ikke producenternes skyld, men software udviklerne der ikke har erkendt mulighederne.
@ #21 Både google og hp bygger strømforsyninger til deres servere, som er over 90% effektivitet. Anyway kan generelt ikke se dit problem? Det virker lidt som om du er sure over, at der er produkter som ikke henvender sig til dig? Hvis ikke du vil have performance, kan du jo bare købe et intel bundkort med en omboard gma3100 - så er det passivt kølet, og det kræver stadig kun passiv køling under max belastning. Som jeg forstår det på dig, vil du have at, istedet for et 4870 med dual slot køling og 1,2Tflop power skal et 4870 være passivt kølet med 0,3Tflop power - og så skal man købe en modificeret version for at få mere performance? istedet for som nu, at et 4870 er fuld performance, og et passivt kølet så er droslet? Det giver ikke rigtig mening i min verden.
@ #21 Både google og hp bygger strømforsyninger til deres servere, som er over 90% effektivitet. Anyway kan generelt ikke se dit problem? Det virker lidt som om du er sure over, at der er produkter som ikke henvender sig til dig? Hvis ikke du vil have performance, kan du jo bare købe et intel bundkort med en omboard gma3100 - så er det passivt kølet, og det kræver stadig kun passiv køling under max belastning. Som jeg forstår det på dig, vil du have at, istedet for et 4870 med dual slot køling og 1,2Tflop power skal et 4870 være passivt kølet med 0,3Tflop power - og så skal man købe en modificeret version for at få mere performance? istedet for som nu, at et 4870 er fuld performance, og et passivt kølet så er droslet? Det giver ikke rigtig mening i min verden.
#11 - vaerd at huske paa at ati's gpu'er er designet til multigpu fra starten. det reelle highend kort er rv700 som sikkert kommer til at hedde 4870 gx2, men i modsaetning til nvidia som lave een stor mastodont af en chip, som de saa skaler ned, laver ati en mindre og saetter dem sammen.
anandtech's review er ogsaa ret godt.
jeg er stadig skuffet over stroemforbruget og den ringe koeler. den er godt nok dual slot, saa det varme luft ikke kommer ind i kabinettet, men jeg vi lstadigvaek ikke have noget saa varmt. forhaabenligt kommer der nogle loesninger med bedre koelerer, hvormed 4870 bliver det aabenlyse valg for mig.
staar allerede til 2.000-2.100 kr, og yder bedre end nv260 som koster 1.000 kr mere. hvis der kommer en udgave med 1gb ram vil performance i spil som crysis ogsaa stige vaesenligt, da en tydelig flaskehals er texturememory.
/stone
anandtech's review er ogsaa ret godt.
jeg er stadig skuffet over stroemforbruget og den ringe koeler. den er godt nok dual slot, saa det varme luft ikke kommer ind i kabinettet, men jeg vi lstadigvaek ikke have noget saa varmt. forhaabenligt kommer der nogle loesninger med bedre koelerer, hvormed 4870 bliver det aabenlyse valg for mig.
staar allerede til 2.000-2.100 kr, og yder bedre end nv260 som koster 1.000 kr mere. hvis der kommer en udgave med 1gb ram vil performance i spil som crysis ogsaa stige vaesenligt, da en tydelig flaskehals er texturememory.
/stone
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.