mboost-dp1

unknown
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Så vidt jeg er informeret, så var GeForce 8800GTX mest af alt et proof of concept bare for at bevise, at Nvidia allerede havde skabt et DX10-kompatibelt kort, ligesom RAM-hastigheden er en del lavere end de RAM, som ATI forventes at bruge. Så når alt kommer til alt, så kan det hverken overraske eller skræmme Nvidia, at R600-chippen er hurtigere end deres 8800-chip. Den rigtige konkurrence mellem producenterne kommer først, når Nvidia lancerer deres næste generation af GPU'er.
#1
Der tager du fejl, der er ikke tale om et proof of concept fra Nvidias side, det er tale om et reelt produkt - du kan rent faktisk købe det :)
G80 og R600 er de to generationer af GPU'er der er sammenlignelige.
Der tager du fejl, der er ikke tale om et proof of concept fra Nvidias side, det er tale om et reelt produkt - du kan rent faktisk købe det :)
G80 og R600 er de to generationer af GPU'er der er sammenlignelige.
Tvivler meget på at NVIDIA eller ATI for den sags skyld har råd til at sende en "proof of concept" GPU på markedet bare for at bevise noget, hvilket de i øvrigt aldrig har gjort før.
Med de penge der er i grafikkort markedet, specielt high-end markedet, kan man være helt sikker på at begge firmaer tager dette meget seriøst. http://newz.dk/forum/item/66974/
Med de penge der er i grafikkort markedet, specielt high-end markedet, kan man være helt sikker på at begge firmaer tager dette meget seriøst. http://newz.dk/forum/item/66974/
nåå ja igen en nyhed der kommer for sent til newz
læs her..
http://www.theinq.com/default.aspx?article=36671
læs her..
http://www.theinq.com/default.aspx?article=36671
#5
Indtil andet er bevist, vil jeg ikke mene at lidt spekulation fra The Inq er nok til at afvise oplysningerne.
Lagde mærke til at Dailytech har haft fat i folkene bag Level 505, og det ser ud til at et par af dem der står for den hjemmeside, er direkte forbundet til AMD. Performance tallene skal derfor nok tages med et gran salt.
Indtil andet er bevist, vil jeg ikke mene at lidt spekulation fra The Inq er nok til at afvise oplysningerne.
Lagde mærke til at Dailytech har haft fat i folkene bag Level 505, og det ser ud til at et par af dem der står for den hjemmeside, er direkte forbundet til AMD. Performance tallene skal derfor nok tages med et gran salt.
Da jeg læste om R600 for et par måneder siden så kom det frem at den tog ca. dobbelt så mange watt som 8800 kortet.
Dvs. ca. 400watt i fuld load.
ATI er ikke kommet ud med et vidunder her men et desperat forsøg på at overgå nvidia.
Med mindre at de har ændret på specsne siden det har jeg ikke set på.
Dvs. ca. 400watt i fuld load.
ATI er ikke kommet ud med et vidunder her men et desperat forsøg på at overgå nvidia.
Med mindre at de har ændret på specsne siden det har jeg ikke set på.
de der strømforbrug er altså fuldstændig på månen.
man skulle da ha troet efter ati og amd blev lagt sammen at ati kunne lære lidt af amd's processorer, men næ, det ser ikke sådan ud.
eller er det bare en fase som de skal over (ati og nvidia) ligesom intel og amd skulle, hvor deres gpu'er lige skal op på det punkt hvor de æder så meget strøm som muligt og brænder af når de ser muligheden for det, før det går hen og bliver bedre? for det her er jo fuldstændig uforståeligt.
man skulle da ha troet efter ati og amd blev lagt sammen at ati kunne lære lidt af amd's processorer, men næ, det ser ikke sådan ud.
eller er det bare en fase som de skal over (ati og nvidia) ligesom intel og amd skulle, hvor deres gpu'er lige skal op på det punkt hvor de æder så meget strøm som muligt og brænder af når de ser muligheden for det, før det går hen og bliver bedre? for det her er jo fuldstændig uforståeligt.
det med strømmen skulle være korrekt ATI skulle være en strømsluger, en kammerat har 8800 top modellen, og den siger intet, og kører klippe stabilt, men R600 skal altså ikke konkurrere mod den, er en ny DX10 chip fra nvidia der bliver lanceret sammen med Ati´s R600, eller den bliver måske endag lanceret før, så tror desværre ikke ATI når at få en konkurrence dygtig r600 på banen, hvis den skal bruge så meget strøm, for til den tid har nvidia en bedre eller ligeværdig chip på gaden.
men 8800´eren bruger mere end hans gamle 7950GX2 som er 2 mobile 7950 kerner i SLI på et kort, så den bruger altså også en pæn klat strøm, med sine 2 strømstik.
men 8800´eren bruger mere end hans gamle 7950GX2 som er 2 mobile 7950 kerner i SLI på et kort, så den bruger altså også en pæn klat strøm, med sine 2 strømstik.
Allerede for et lille år siden kom det frem at de her generationer af GFX kortene ville bruge rigtig rigtig meget strøm... Men at det ville være et midlertidigt problem, som gerne skulle blive løst med 2. generation af DX10 kortene. Derfor købte jeg mig også et godt DX9 kort (men ikke for dyrt) og venter så på der kommer nogle DX10 kort med et acceptabelt strømforbrug - forhåbentligt om 3-5 mdr.
#11: AMD's indflydelse på ATI kommer jo ikke "på markedet" med det samme, de kort som kommer ud nu har jo været på tegnebrættet en del tid før AMD kom ind i billedet.
#11: AMD's indflydelse på ATI kommer jo ikke "på markedet" med det samme, de kort som kommer ud nu har jo været på tegnebrættet en del tid før AMD kom ind i billedet.
Fuld DirectX 10 understøttelse.
SIGH... Det vides jo for guds skyld ikke før det er testet ordentligt på Vista. (DX10!!!!) Ingen! hverken AMD eller NVIDIA kan hævde at deres kort er bedst til DX10 spil på Vista.
Jeg kan kun anbefale Alt Om Data's test af GeForce 8800GTX fra 25. årgang nr. 1
EDIT: Der er en ny artikel ude
mener dog stadig ikke at man kan stole fuldt og fast på producentens egne ord.. her er f.eks. en test fra Toms Hardware mere interessant.
til dem der mener det er forrygt med strømforbrug, så kan man kun tro i er lidt mærkelige (no offense).
de nye grafikkort er MEGET bedre, i performance/watt, i whinede sikkert ikke omkring geforce2's strømforbrug, hvor hvis du ganger det performance du får, med strømforbruget op, ikke engang tilnærmelsesvis kan nå en 8800.
det er virkeligt underligt, at bare fordi noget bruger meget strøm, skal det bitches som at bruge for meget. det er lidt ligesom at bitche over at et skib bruger sygt meget heavy fuel, for ikke engang at komme ret hurtigt afsted, når en ny bil kan transportere dig langt hurtigere, for en fraktion af prisen.
de nye grafikkort er MEGET bedre, i performance/watt, i whinede sikkert ikke omkring geforce2's strømforbrug, hvor hvis du ganger det performance du får, med strømforbruget op, ikke engang tilnærmelsesvis kan nå en 8800.
det er virkeligt underligt, at bare fordi noget bruger meget strøm, skal det bitches som at bruge for meget. det er lidt ligesom at bitche over at et skib bruger sygt meget heavy fuel, for ikke engang at komme ret hurtigt afsted, når en ny bil kan transportere dig langt hurtigere, for en fraktion af prisen.
#17
Huh?
De nye kort bruger ikke %-vis nok kraft pr watt til at det kan vaere rentabelt..
Slet ikke naar vi snakker consumer markede..
Saa, no offence, men det er dig der er underlig at hoere paa :)
Du kan sammenligne det lidt med at vi producerer et skib som kan transportere 2x saa meget som det tidligere, men ogsaa bruge 1.8x saa meget fuel..
Det er da bedre ja, men en consumer vil nok vaere paent ligeglad..
Og da kortet ikke er minded til det "professionelle" miljoe, saa er det ikke en god fremgang i min oejne :P
Huh?
De nye kort bruger ikke %-vis nok kraft pr watt til at det kan vaere rentabelt..
Slet ikke naar vi snakker consumer markede..
Saa, no offence, men det er dig der er underlig at hoere paa :)
Du kan sammenligne det lidt med at vi producerer et skib som kan transportere 2x saa meget som det tidligere, men ogsaa bruge 1.8x saa meget fuel..
Det er da bedre ja, men en consumer vil nok vaere paent ligeglad..
Og da kortet ikke er minded til det "professionelle" miljoe, saa er det ikke en god fremgang i min oejne :P
#17: Som tilføjelse til #18... Man kan også gå lidt videre og så lave et grafikkort der yder 1000 gange så meget som de bedste i dag, men ift. den kæmpe ekstra ydelse kun bruger meget lidt ekstra strøm... Lad os sige 12000 watt. Ville du gerne have det grafikkort? Skulle du ud og have en ny PSU? Skulle du ud og have ekstra køling til computeren? Skulle du have helt nye el-installationer derhjemme for at kunne trække det? Og ville det være hensigtsmæssigt for din økonomi og miljøet at bruge så meget strøm? Og ville du overhovedet kunne bruge alle de ressourcer? Og kunne man forestille sig at man kunne lave noget hardware der brugte mindre strøm?
#17
Det er jo et fuldstændigt ubrugeligt argument.
En P3 800Mhz brugte 75W (10.6Hz pr. W) i forhold til en 80386 på 20Hz der brugte 1W. Altså et dårligere ydelse/strøm-forbrug på ~ 100%
En 3Ghz CPU idag bruger ca. 60W (50Hz pr. W) afhængig af model. Altså en forbedring i forhold til en P3 på ~500%
Teknologien udvikler sig hele tiden og dermed burde man også kunne forvente at ydelse forbedres uden et dertil hørende ekstremt stigende strømforbrug.
Det er jo et fuldstændigt ubrugeligt argument.
En P3 800Mhz brugte 75W (10.6Hz pr. W) i forhold til en 80386 på 20Hz der brugte 1W. Altså et dårligere ydelse/strøm-forbrug på ~ 100%
En 3Ghz CPU idag bruger ca. 60W (50Hz pr. W) afhængig af model. Altså en forbedring i forhold til en P3 på ~500%
Teknologien udvikler sig hele tiden og dermed burde man også kunne forvente at ydelse forbedres uden et dertil hørende ekstremt stigende strømforbrug.
Er jeg den eneste som er fuldstændigt ligeglad med strømforbruget? Så længe det er hurtigt og ikke larmer. Har selv købt mig et 8800gfx og det køre virkelig godt!
Det er kun hippier som går op i strømforbruget! Skal vores grafikkort nu også til at være økologisk???
Det er kun hippier som går op i strømforbruget! Skal vores grafikkort nu også til at være økologisk???
Det er nice som altid at se ATI komme med et godt kort. Men men passer kortets strømforbrug for ATI sku et problem. 8800GTX er varm nok i sig selv, og det har heldig en forholdvis stor og stille blæser. Så ATI får nok en endnu størrer køler eller en som larmer extremt.
#23 øget strømforbrug = mere varme. Vil du have et ATI kort som er 120c idle og 150c full load? eller en turbo deluxe extreme multi time warp 100DB blæser. for at holde lortet koldt?.
#23 øget strømforbrug = mere varme. Vil du have et ATI kort som er 120c idle og 150c full load? eller en turbo deluxe extreme multi time warp 100DB blæser. for at holde lortet koldt?.
#23 Udover at mange bruger rigtig mange timer på at spille computer, når de er villige til at kåbe et highend kort, så giver det altså udslag på strømregningen. Derudover så er der nogen som hedder global opvarmning, som bla. er fordi folk som dig er fløjtende ligeglad med deres co2 udslip. Ja ting skal til at være 'økologiske' og du kan ligeså godt forberede dig på, at der sikkert kommer begrænsninger på, hvor meget hver hustand må belaste miljøet. Sådan som det er nu, forbruger vi alt for meget strøm. For forbrugerne kan tilsyneladende ikke selv finde ud af at styrre det.
210Watt er jo ca. dobbelt så meget som et 28" crt fjernsyn bruger, en highend computer er jo på vej til at trække den samme mængde som strøm, som en hustand uden fjernsyn. 1KWatt strømforsygninger er jo helt hen i vejret.
210Watt er jo ca. dobbelt så meget som et 28" crt fjernsyn bruger, en highend computer er jo på vej til at trække den samme mængde som strøm, som en hustand uden fjernsyn. 1KWatt strømforsygninger er jo helt hen i vejret.
#15
bare for at kalde dig idiot, så vil jeg gerne kalde dig for en idiot - IDIOT!..
DX10 standarden ER lagt fast, den ER skrevet på papir/dokument..
så nej, hverken nVidia eller ATi har bare gættet sig til hvad DX10 kommer til at indeholde - men ved præcis hva den indeholder og hva de skal lave i deres kort for at de kan køre DX10 programmer/spil..
så bare lige for at påpege det, igen igen - IDIOT!!
bare for at kalde dig idiot, så vil jeg gerne kalde dig for en idiot - IDIOT!..
DX10 standarden ER lagt fast, den ER skrevet på papir/dokument..
så nej, hverken nVidia eller ATi har bare gættet sig til hvad DX10 kommer til at indeholde - men ved præcis hva den indeholder og hva de skal lave i deres kort for at de kan køre DX10 programmer/spil..
så bare lige for at påpege det, igen igen - IDIOT!!
#24
Det kan være fuldstændigt ligemeget om kortet er 150 eller 200c ved full load - så længe det er stabilt, stille og ikke varmer resten af computeren op. (blæser ud af kabinettet)
#26
jeg betaler nu selv mit strøm? Hvor får du sådan en underlig konklusion fra?? Desuden tror jeg ikke på global opvarmning. Du er vist lidt en tøsedreng. Er du så også imod biler med v6 og v8 motorer? ;)
Det kan være fuldstændigt ligemeget om kortet er 150 eller 200c ved full load - så længe det er stabilt, stille og ikke varmer resten af computeren op. (blæser ud af kabinettet)
#26
jeg betaler nu selv mit strøm? Hvor får du sådan en underlig konklusion fra?? Desuden tror jeg ikke på global opvarmning. Du er vist lidt en tøsedreng. Er du så også imod biler med v6 og v8 motorer? ;)
Lidt sygt at se hvad sådan en artikel kan udvikle sig til.
Troede det her handlede om ATI's R600 GPU og ikke om jordens økosystem?
Hvis i allesammen tænker over det, så kommer R600erns strømforbrug til at betyde så lidt, at der er tvivlsomt hvis det overhovet vil kunne ses på jeres elregning.
Jeres fladskærme bruger sku mere.
Strømforbruget bliver ikke højere end hvad jeres strømforsyning kan yde.
Troede det her handlede om ATI's R600 GPU og ikke om jordens økosystem?
Hvis i allesammen tænker over det, så kommer R600erns strømforbrug til at betyde så lidt, at der er tvivlsomt hvis det overhovet vil kunne ses på jeres elregning.
Jeres fladskærme bruger sku mere.
Strømforbruget bliver ikke højere end hvad jeres strømforsyning kan yde.
#28 - Tror du heller ikke på at 2+2=4? Kender du overhovedet til jorden historiske klimaforandringer. Vi har aldrig haft en så stabil periode som de sidste 10.000år og de ekstreme svingninger der har været, har i høj grad været påvirket af mængden af CO2 i atmosværen. Vores historik dokumentere altså tydligt, hvor følsomt vores klima er og hvor aggresivt det reagerer på større mænger CO2 udslip? Det er rigtigt, at vi ikke kan simulerer konsekvensen af vores CO2 udslip, men derfor har vi stadig 5 mia. års historiske erfaringer, som nogle amerikanske forskerer an uransagelig årsager ikke anerkende. Men det svare lidt til at sige, at 2+2 ikke giver 4, for dokumentationen for effekten på klimaet er altså kendt og har et solidt fundament. Mere CO2 i atmosværen giver et varmer klima. Tror faktisk bevist for det er langt mere simpelt end bevist for 2+2=4, som er en kompliceret lille sag.
Men bare fordi du selv betaler din strømregning er det jo ikke sikkert at andre synes det er sjovt at betale en høj strømregning og måske anerkender almindelig videnskab, som de tager med i betragtning inden de køber hardware. Jeg kunne seriøs aldrig finde på, at betale så meget i strøm, for lidt underholdning.
#29 - Jeg går ud fra at du tænker på lcd fjernsyn, da en 20" lcd skærm max sluger 80Watt (af hvad jeg ved). Men fjernsyn er lidt en strøm sluger (ca. 200 watt for 32"?), men det bringer underholding til en hel familie og er ikke kun en enkelt del af et underholdningssystem, som et gfxkort er.
Men bare fordi du selv betaler din strømregning er det jo ikke sikkert at andre synes det er sjovt at betale en høj strømregning og måske anerkender almindelig videnskab, som de tager med i betragtning inden de køber hardware. Jeg kunne seriøs aldrig finde på, at betale så meget i strøm, for lidt underholdning.
#29 - Jeg går ud fra at du tænker på lcd fjernsyn, da en 20" lcd skærm max sluger 80Watt (af hvad jeg ved). Men fjernsyn er lidt en strøm sluger (ca. 200 watt for 32"?), men det bringer underholding til en hel familie og er ikke kun en enkelt del af et underholdningssystem, som et gfxkort er.
#9
Vist på tide at få skiftet hele lortet, hvis du stadig bruger AGP! -Jeg har samme problem, men bare lidt omvendt... når mit gamle 7800GS ikke kan mere, er det nemlig en god undskyldning for at få skiftet det andet gamle også :-)
Uhh... sådan et kort vil jeg gerne smide et par tusinde eller tre efter, så måske bliver det ATI næste gang!
Jeg er græsk-katolsk over hvor meget effekt det brænder af ved fuld load, hvis bare det ikke bruger for meget i "tomgang". Ydelsen kommer før effektforbruget! Varmen skal Papst nok tage sig af!
Vist på tide at få skiftet hele lortet, hvis du stadig bruger AGP! -Jeg har samme problem, men bare lidt omvendt... når mit gamle 7800GS ikke kan mere, er det nemlig en god undskyldning for at få skiftet det andet gamle også :-)
Uhh... sådan et kort vil jeg gerne smide et par tusinde eller tre efter, så måske bliver det ATI næste gang!
Jeg er græsk-katolsk over hvor meget effekt det brænder af ved fuld load, hvis bare det ikke bruger for meget i "tomgang". Ydelsen kommer før effektforbruget! Varmen skal Papst nok tage sig af!
#18
Hvis et nyt skib kan fragte dobbelt så meget som et gammelt, men til 1.8 x HFO er det en god forretning og derfor et fremskridt. Energiforbruget for den enkelte container er jo mindre og det er dét der er det vigtige!
Folk der køber sådan et kort, kan sammenlignes med folk der køber en BMW 535i i stedet for en Fiat Punto... de køber det pga. ydelsen/følelsen og er rimelig ligeglad med energiforbruget.
Hvis et nyt skib kan fragte dobbelt så meget som et gammelt, men til 1.8 x HFO er det en god forretning og derfor et fremskridt. Energiforbruget for den enkelte container er jo mindre og det er dét der er det vigtige!
Folk der køber sådan et kort, kan sammenlignes med folk der køber en BMW 535i i stedet for en Fiat Punto... de køber det pga. ydelsen/følelsen og er rimelig ligeglad med energiforbruget.
#30 .. nu er det så ikke sikker vi snakker 2+2=4 ..
du glemmer at snakke om hvad solen kan gøre ved vores planet, og hvad den gør lige nu. vi kan sjovt nok ikke se hvad vores brug af CO2 gør, men vi kan se hvad solen har gjort. men naturligvis er CO2 et problem, men det som mange ikke tror på er 2+2+x = 4 .. da den del solen står for x måske betyder alt.
du glemmer at snakke om hvad solen kan gøre ved vores planet, og hvad den gør lige nu. vi kan sjovt nok ikke se hvad vores brug af CO2 gør, men vi kan se hvad solen har gjort. men naturligvis er CO2 et problem, men det som mange ikke tror på er 2+2+x = 4 .. da den del solen står for x måske betyder alt.
selvfølgelig har solen sin del af kagen... Men den kan jo takke vores CO2 udslip for at dens del bliver større i og med, at vores udslip tilsynelandende er skyld i at ozonlaget bliver tyndere og giver solen lettere adgang...
#off topic/ironi#
Konklusion:
Jo mere effekt vores gfx-kort bruger, jo varmere får vi det.
SE SÅ AT FÅ SKIFTET ALLE CRAP-KORT UD MED HIGH-END... Så slipper vi for at flytte til florida for at få mere sommer.. Tænk.. at fejre jul i 25 grader under en parasol i haven. Alt imens vores High-end kort's blæser inde i stuen suser om kap med strømmåleren.
#off topic/ironi#
Konklusion:
Jo mere effekt vores gfx-kort bruger, jo varmere får vi det.
SE SÅ AT FÅ SKIFTET ALLE CRAP-KORT UD MED HIGH-END... Så slipper vi for at flytte til florida for at få mere sommer.. Tænk.. at fejre jul i 25 grader under en parasol i haven. Alt imens vores High-end kort's blæser inde i stuen suser om kap med strømmåleren.
Hun73rdk... Der er da vist en der lige har været ude med riven, med alle dem du lige har ratet som flamebaits...
#33 Solen er helt klart også en faktor, som står ude af vores magt at påvirke. Men vi ved med sikkerhed, at der vil ske en opvarming med en øgede mængede CO2 i atmosværen. Vi ved ikke om det kan starte en ukontrolleret kædereaktion og præcist hvor mange m3 der skal til at ændre klimaet så meget, at det ikke længerer at sjovt at bo på planeten jorden. Så jo mere vi lukker ud, jo mindre attrativ bliver det at bo her. Men en mærkbar reaktion kan tage flere hunderede år eller komme i løbet af denne generation. Men der det er stadig lidt en sjov holdning at satse på alternativ energi før effekten træder i kræft.
#33 Solen er helt klart også en faktor, som står ude af vores magt at påvirke. Men vi ved med sikkerhed, at der vil ske en opvarming med en øgede mængede CO2 i atmosværen. Vi ved ikke om det kan starte en ukontrolleret kædereaktion og præcist hvor mange m3 der skal til at ændre klimaet så meget, at det ikke længerer at sjovt at bo på planeten jorden. Så jo mere vi lukker ud, jo mindre attrativ bliver det at bo her. Men en mærkbar reaktion kan tage flere hunderede år eller komme i løbet af denne generation. Men der det er stadig lidt en sjov holdning at satse på alternativ energi før effekten træder i kræft.
#30 - jeg kan kun anbefale at du ser denne udsendelse på dr.dk's nettv (medmindre du er licensnægter selvfølgelig ;).
Den giver et fint indblik i en anden mulig teori, der kan forklare hvorfor jordens miljø bliver varmere. Det er altså ikke 100% sikkert at det er CO2 udslippet der er skyld i den globale opvarmning, det er lige så meget et spørgsmål om religion som ati vs nvidia.
Den giver et fint indblik i en anden mulig teori, der kan forklare hvorfor jordens miljø bliver varmere. Det er altså ikke 100% sikkert at det er CO2 udslippet der er skyld i den globale opvarmning, det er lige så meget et spørgsmål om religion som ati vs nvidia.
#31
Well min maskine er en X2 4800+ med 2G ram og en 750GB s-ata harddisk og en AGP port..
Fortæl lige mig og resten af verden hvad det er jeg kan vinde ved at skifte min maskine ud med en anden med PCI-E port når vi nu ved at ikke engang et GFX 8800 kan ramme loftet i hvad AGP-X8 kan flytte af data..
Det virker som om visse personer mener at bare fordi der er kommet noget nyt så skal vi bare skrotte det gamle med det samme...
Det er godt vi ikke allesammen tænker sådan.....Ja for det ville være lidt dyrt at alle skulle skifte bil bare fordi der kom en ny brændselsteknologi...Der ville godtnok stå mange benzinbiler til skrot så..
PS. Da min maskine er en shuttle med bundkort som passer til det kabinet så kan jeg ikke bare lige fise ud og købe et nyt bundbrædt og smide i så det bliver hurtigt en dyr investering hvis jeg skal ud og købe ny spand..(Ja for hvis jeg skal købe en ny barebone XPC med pci-e så skal den jo være med ny AM-2 sokkel og så bliver det hurtigt dyrt for så skal både ram, processor og resten skiftes...Alt sammen fordi du syntes AGP bussen er forældet)..
XxX
Well min maskine er en X2 4800+ med 2G ram og en 750GB s-ata harddisk og en AGP port..
Fortæl lige mig og resten af verden hvad det er jeg kan vinde ved at skifte min maskine ud med en anden med PCI-E port når vi nu ved at ikke engang et GFX 8800 kan ramme loftet i hvad AGP-X8 kan flytte af data..
Det virker som om visse personer mener at bare fordi der er kommet noget nyt så skal vi bare skrotte det gamle med det samme...
Det er godt vi ikke allesammen tænker sådan.....Ja for det ville være lidt dyrt at alle skulle skifte bil bare fordi der kom en ny brændselsteknologi...Der ville godtnok stå mange benzinbiler til skrot så..
PS. Da min maskine er en shuttle med bundkort som passer til det kabinet så kan jeg ikke bare lige fise ud og købe et nyt bundbrædt og smide i så det bliver hurtigt en dyr investering hvis jeg skal ud og købe ny spand..(Ja for hvis jeg skal købe en ny barebone XPC med pci-e så skal den jo være med ny AM-2 sokkel og så bliver det hurtigt dyrt for så skal både ram, processor og resten skiftes...Alt sammen fordi du syntes AGP bussen er forældet)..
XxX
No offence - men om så kortet bruger 500watt, og der bliver solgt 100 millioner af dem på verdensplan, og samtlige kort bliver brugt 10 timer dagligt hver eneste dag, så tror jeg simpelthen ikke på, at man får en målbar forøgelse af CO2-udslip.
Den energi der bliver forbrugt, vil næppe kunne flytte et tankskib over Atlanten - og tænk på hvor mange tankere der ligger og blopper rundt.
Det eneste sted, man muligvis kan måle de nye kort, er på elregningen. Er det mor og far det betaler, så er den fjong, er det en selv - tjaehh så kan man jo passende kigge på nogen af de andre apparater man har stående rundt omkring:
Personligt kan mit komfur trække 3000 watt, min mikro trækker 1000 watt, og støvsugeren 1800 watt. Ovnen har sådan noget selvrens pyrolyse, og er af samme grund tilsluttet sin helt egen 16 amp sikring og vandvarmeren har trufinsnegl indbygget der kan trække 7000 watt.
Af de kontinurlige maskiner står der en pumpe og pumper vand rundt i gulvet, der kører altid genvex, køleskab/fryser står naturligvis også tændt. Min router, adsl-modem og 2 switche står altid tændt. Fjernsyn, PC-skærme, DVD-maskiner står som minimum på standby, alarmen kræver at have spænding, og resten af IHC-anlægget forventer også strøm.
Og så er spørgsmålet om jeg kan mærke sådan et kort - hvis jeg skal være helt ærlig så tror jeg det ikke, og kan jeg se noget.
Men igen, trækker kortet 500watt, i 10 timer dagligt - så svarer det cirka til 10 kroner dagligt (2 kroner pr kilowatt-time) - spørgsmålet er om jeg kan hente nogle af de penge hjem, ved at slukke standby-enheder helt, skrue ned for genvexen, og slukke for gulvvarme-pumpen...
Den energi der bliver forbrugt, vil næppe kunne flytte et tankskib over Atlanten - og tænk på hvor mange tankere der ligger og blopper rundt.
Det eneste sted, man muligvis kan måle de nye kort, er på elregningen. Er det mor og far det betaler, så er den fjong, er det en selv - tjaehh så kan man jo passende kigge på nogen af de andre apparater man har stående rundt omkring:
Personligt kan mit komfur trække 3000 watt, min mikro trækker 1000 watt, og støvsugeren 1800 watt. Ovnen har sådan noget selvrens pyrolyse, og er af samme grund tilsluttet sin helt egen 16 amp sikring og vandvarmeren har trufinsnegl indbygget der kan trække 7000 watt.
Af de kontinurlige maskiner står der en pumpe og pumper vand rundt i gulvet, der kører altid genvex, køleskab/fryser står naturligvis også tændt. Min router, adsl-modem og 2 switche står altid tændt. Fjernsyn, PC-skærme, DVD-maskiner står som minimum på standby, alarmen kræver at have spænding, og resten af IHC-anlægget forventer også strøm.
Og så er spørgsmålet om jeg kan mærke sådan et kort - hvis jeg skal være helt ærlig så tror jeg det ikke, og kan jeg se noget.
Men igen, trækker kortet 500watt, i 10 timer dagligt - så svarer det cirka til 10 kroner dagligt (2 kroner pr kilowatt-time) - spørgsmålet er om jeg kan hente nogle af de penge hjem, ved at slukke standby-enheder helt, skrue ned for genvexen, og slukke for gulvvarme-pumpen...
#37 der er en del, der sætter spørgsmålstegn ved denne artikels ægthed, men hvis vi forudsætter skribenterne har ret, så skriver de:
Så AGP kan muligvis ikke følge med til disse kort...
The R600 is one of the first graphics card to really utilize a PCIe x16 slot; therefore, the whole system around it has to be able to serve the card in time...
Så AGP kan muligvis ikke følge med til disse kort...
#39
Det jeg bad om var jo heller ikke "Det vildeste DX10 kompatible grafikkort penge kan købe" ..
Det jeg bad om var et AGP port kompatibelt DX10 kort..
For mig ville det være fint hvis jeg kunne få et DX10 kompatibelt kort til AGP som kan køre f.eks det nye Crysis, skidt med om der så er ekstra kræfter.
Jeg kunne godt tænke mig et DX10 kort som kunne det og som også var 1 slot så det kan være i min maskine.
Det er ved at være et par år siden jeg købte mit nuværende 6800 kort og det er først nu når crysis kommer at det virkeligt bliver for langsomt til at følge med i fuld opløsning. Derfor, et DX10 kort til AGP som kan holde et par år..
Til den tid skal jeg nok skifte til pci-e bundkort (Som til den tid jo mindst er pci-e 2.0) men indtil da har jeg egentligt ikke noget at bruge ny computer til. Den jeg har virker fint og vil sagtens kunne køre windows vista...også i 64 bit version.
XxX
Det jeg bad om var jo heller ikke "Det vildeste DX10 kompatible grafikkort penge kan købe" ..
Det jeg bad om var et AGP port kompatibelt DX10 kort..
For mig ville det være fint hvis jeg kunne få et DX10 kompatibelt kort til AGP som kan køre f.eks det nye Crysis, skidt med om der så er ekstra kræfter.
Jeg kunne godt tænke mig et DX10 kort som kunne det og som også var 1 slot så det kan være i min maskine.
Det er ved at være et par år siden jeg købte mit nuværende 6800 kort og det er først nu når crysis kommer at det virkeligt bliver for langsomt til at følge med i fuld opløsning. Derfor, et DX10 kort til AGP som kan holde et par år..
Til den tid skal jeg nok skifte til pci-e bundkort (Som til den tid jo mindst er pci-e 2.0) men indtil da har jeg egentligt ikke noget at bruge ny computer til. Den jeg har virker fint og vil sagtens kunne køre windows vista...også i 64 bit version.
XxX
#38
For hurtigt at følge op på dit eksempel: 100 mio. kort på 500 W i 10 timer / døgn giver en middeleffekt på 2.08E10 W.
Sammelignet yder EMMA MÆRSK total ca. 100 MW (ved 102 omdr/min).
http://www.maersk.com/NR/rdonlyres/BD009B56-227D-4...
For hurtigt at følge op på dit eksempel: 100 mio. kort på 500 W i 10 timer / døgn giver en middeleffekt på 2.08E10 W.
Sammelignet yder EMMA MÆRSK total ca. 100 MW (ved 102 omdr/min).
http://www.maersk.com/NR/rdonlyres/BD009B56-227D-4...
#34 FORKERT, CO2 påvirker ikke ozonlaget!, det er andre gasser som freon (eller hvad det nu hedder) og nogle flere, freon var meget brugt til køleskabe..
Angående CO2 og drivhuseffekten, tjoo der er FORKERT at sige det er bevist, det er det ikke, der er også andre teorier der kunne forklare dette..
Der er en teori med at det forusages af solens aktivitet, denne er også ret godt "påvist" (ikke bevist). CO2 argumentet, der bygger på at en forøgelse gør klimaet varmere, er også meget god, dog ser der ikke ud til at være et mønster i udlukkelsen af CO2 og forøgelsen af temperaturen. Jeg ved ikke hvad der er rigtigt, solens aktivitet kunne gøre det alene, det tvivler jeg på at CO2 kan, så efter efter "min mening" er det begge eller kun solens aktivitet.
Angående CO2 og drivhuseffekten, tjoo der er FORKERT at sige det er bevist, det er det ikke, der er også andre teorier der kunne forklare dette..
Der er en teori med at det forusages af solens aktivitet, denne er også ret godt "påvist" (ikke bevist). CO2 argumentet, der bygger på at en forøgelse gør klimaet varmere, er også meget god, dog ser der ikke ud til at være et mønster i udlukkelsen af CO2 og forøgelsen af temperaturen. Jeg ved ikke hvad der er rigtigt, solens aktivitet kunne gøre det alene, det tvivler jeg på at CO2 kan, så efter efter "min mening" er det begge eller kun solens aktivitet.
#37
Du kan sagtens få bundkort med PCI-E hvor du kan bruge din "gamle" 939-CPU og de "gamle" RAM. Dvs. for at opgradere behøver du kun bundkortet og det det hele drejer sig om - grafikkort!
Nu er det de færreste der har så nyt/godt hardware kombineret med AGP som dit. De fleste vil typisk have noget tilsvarende mit (Pentium 4 cpu osv.) og dér er altså en del at komme efter ved en opgradering/udskiftning.
Du kan sagtens få bundkort med PCI-E hvor du kan bruge din "gamle" 939-CPU og de "gamle" RAM. Dvs. for at opgradere behøver du kun bundkortet og det det hele drejer sig om - grafikkort!
Nu er det de færreste der har så nyt/godt hardware kombineret med AGP som dit. De fleste vil typisk have noget tilsvarende mit (Pentium 4 cpu osv.) og dér er altså en del at komme efter ved en opgradering/udskiftning.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.