mboost-dp1

unknown

Nyt ALL-IN-WONDER kort fra ATI

- Via ATI -

ATI har lanceret det nyeste medlem af AIW famillien, det hedder ‘ALL-IN-WONDER® RADEON™ 8500DV’, og er som navnet antyder baseret på ATI’s RADEON 8500 chip. Kortet er spækket med nye features, eksempelvis understøttelse for Digital Video gennem IEEE 1394.

ATI har også lavet en feature sammenligning mellem deres AIW R8500DV og Nvidia’s nye NVIDIA® Personal Cinema. Og medmindre ATI har ‘glemt’ nogle features som kun NVIDIA’s kort har, så ser der meget imponerende ud.





Gå til bund
Gravatar #1 - Miklos
30. aug. 2001 16:44
HmmHvis jeg ikke tager helt fejl er denne del 'lettere fusket' fra ATIs side: DirectX 8.1 Pixel Shaders ATI:Yes Nvidia:No Hvis min hjerne ikke er helt død så er Pixel Shaders i 8.0 = Nvidia versionen og 8.1 ATI versionen - altså eneste forskel er 8.0 er optimeret til Nvidia og 8.1 til ATI.
Gravatar #2 - Onde Pik
30. aug. 2001 17:11
WellMS opgraderede pixelshaders fraDX 8.0 til 8.1. DX8 bruger Pixelshader version 1.1, og DX8.1 bruger version 1.4. Forskellen er som følger.






Pixel
Shader v1.1 vs Pixel Shader v1.4








Pixel
Shader v1.1



Pixel
Shader v1.4




Maximum Texture Inputs
4
6


Maximum Program Length
12 instructions (up
to 4 texture sampling, 8 color blending)
22 instructions (up
to 6 texture sampling, 8 texture addressing, 8 color blending)


Instruction Set
13 address operations
8 color operations
12 address / color
operations


Texture Addressing
Modes
40
Virtually unlimited



Herudover har 1.4 følgende features.




Pixel
Shader 1.4 Effects




Effect
Description
Example


True Phong Shading
Performs a complex
mathematical calculation on pixels to accurately light and shade pixels
according to the properties of the material and the light shining on it
Realistic
rendering of materials



Anisotropic Lighting
Uses bidirectional
reflectance distribution functions (BRDFs) to determine how light bounces
off a surface as a function of the viewing angle
More
lifelike lighting of hair



Advanced Bump Mapping
Allows for the use
of horizon mapping to create bump maps that cast shadows; Also allows the
combination of multiple bump maps
Rippling
water created by both wind and an object falling in the water



Procedural Textures
Uses mathematical calculations
to create detailed textures without requiring any memory storage since the
objects are created on the graphics chip
Creation
of a marble column without the use of any textures




R8500 som understøtter v1.4, har altså en del fordele frem for GF3. Men jeg vil give Miklos ret i at det er en smule fusket måde at skrive det på.
Gravatar #3 - mazzoo
30. aug. 2001 20:32
Never mind the details !Se paa testene ! Radeon 2 er kongen ! ;=) Laenge leve ATI ! -maZZoo
Gravatar #4 - Trentors
30. aug. 2001 21:03
Det er godt nok imponerende!!!Især at den understøtter Firewire og en radiostyret fjernkontrol er simpelthen noget af det mest geniale jeg længe har hørt. Det er jo ikke sikkert at man vil sidde og se en film på sin computer inde i soveværelset (eller hvor den nu står)!!! Men det er ofte tilfældet fordi ellers har man ikke noget device til at styre maskinen. Fandme smart! Men nu snakker I jo om fart og hvor er det lige i har de tal fra ? - Radeon 8500 hurtigere end GeForce3??? Det var vist lige omvendt ifølge de sidste tests. Og husk lige at Radeon er clocket ved 250 mhz imens at G3 kun er 200 Mhz. Nvidias chips er bare hurtigere...men ikke nødvendigvis sejere :-)
Gravatar #5 - Onde Pik
30. aug. 2001 21:18
En lille note TrentorsMan kan ikke se bort fra at det er pre-release drivers og kort der testes. Og det kan meget vel være en af gundende til at 8500 ikke klare sig "bedre". Det er ikke meget benchmarksne er til fordel for gf3. Man kunne jo forestille sig at der var et driverproblem med chippen, se ikke bort fra at Radeon8500 næsten har dobbelt så god ren T&L ydelse som gf3. Og hvis prisen bliver den samme som de to, er jeg ikke et sekundt i tvivl om at mit Radeon bliver afløst af storebror.
Gravatar #6 - Onde Pik
30. aug. 2001 21:23
Og trentors.Er det ikke lidt tidligt at sige "Nvidia er bare hurtigere". Hvis man sammenlignede kort der passede sammen, altså GF2 GTS og Radeon. Så er Radeon hurtigere i næsten alt over 800*600*32, og Radeon har også flere featues. Ikke nok med det, Radeons clock er 183/183, GF2 GTS er 200/333. Så lad os nu se når 8500 udkommer.
Gravatar #7 - Trentors
30. aug. 2001 21:46
Hehe here we go. Yihaa!!!Tænk på hvor længe Nvidia HAR domineret med hastighed. Der er langt fra Radeon til GF2pro, Ultra og G3. Og et halvt år efter G3's release kommer ATI med en chip som kun ikke kan klare sig imod den 50 mhz langsommere G3. Sure det med driverne har selvfølgelig også noget at skulle sige og de drivere som Radeon 8500 er testet med er jo beta-drivere. Men ATI har ikke just et godt ry med drivere så måske bliver det ikke meget bedre. Besides så kommer der nok et G3Ultra som smækker det anyway :-) Men ATI har heller ikke rettet deres kort mod FPS. De har altid haft ry for at lave kort med features og dette følger traditionen fuldt ud. Og det er et sejt kort og havde jeg ikke mit G3 havde jeg seriøst overvejet at købe det. Men alt i alt ændrer det ikke på at ATI laver de features-spækkede kort og Nvidia laver de hurtige. Lav bare en sammenligning om hvem der i flest måneder har ligget øverst i FPS med deres topkort (inden for de sidste par år vel og mærket!)
Gravatar #8 - Trentors
30. aug. 2001 21:56
Of the topic:Det er jo også ATI der er producere (og har været med til at udvikle) GPU'en i Nintendos Gamecube. Denne chip, kaldet Flipper, er en meget interresant sag og langt mere spændende end den Geforce3 chip der sidder i X-boxen. Alene dens texture bandwith på over 10 Gb/s slår alt andet på markedet! Check disse links for at se den i aktion: Metroid: http://cube.ign.com/news/37765.html Luigis Mansion: http://cube.ign.com/previews/15453.html Især indeholder Luigis Mansion nogen fede effekter. Microsoft? Hvad var det lige der var så fantastisk ved Halo's grafik?
Gravatar #9 - Deternal
31. aug. 2001 08:33
hmmlad mig se. beta hardware + beta drivers som i 32 bit mode er mellem 1% hurtigere og 4% langsommere end gf3 og i 16bit er mellem 20 og 40% hurtigere end gf3. Og det er vel og mærke på trods af at gf3 også kører med beta drivere (detonator 4 er IKKE officielle vel? :P). Og vi skal nok regne med at et radeon 2 kommer til at koste omkring 3k når det kommer til danmark - dvs samme/bedre performance til 1k mindre + flere og bedre features (som virker - modsat hos nvidia hvor twinview er *useless* og tv-out kun virker nogenlunde med et 3rd party program). Uanset, er det kun fedt at se der kommer reel konkurrence på gfx markedet igen.
Gravatar #10 - BeanLuck
31. aug. 2001 09:23
I agreeDet var lige det jeg ville ha sagt, Deternal :-)
Gravatar #11 - Onde Pik
31. aug. 2001 09:44
EnigJeg synes at de benchmarks jeg har set, kraftigt antyder at driverene til R8500 laver lort. For det første viser de en temlig ringe 32bir performance, og ATI har altid veret overlegen i 32bit. Deusden er T&L enheden på R8500 vanvittig hurtig, og jeg tvivler på at man ville satse så hårdt på T&L frem for resten af chippen. Man kan selvfølgelig intet forudsige før R8500 har været ude i et stykke tid. Lad os ikke glemme at Radeon slog GF3 lige da det kom ud i en del nyere spil, som f.eks Giants. Men anyways her er billeder af AIW R8500DV og dens fjernbetjening. http://www.reactor.ru/news/august/AIWR8500DV_board... http://www.reactor.ru/news/august/RemoteControl.jp...
Gravatar #12 - Net-Meister
31. aug. 2001 09:45
Snøft.....Og jeg var ellers så stolt over mit Radeon1 kort
Gravatar #13 - Trentors
31. aug. 2001 09:58
Well lad os nu se hvad det kommer til at koste...Og om G3 ikke ryger kraftigt ned i pris også. Grunden til G3's høje pris er jo at DET IKKE HAR HAFT NOGEN KONKURRENCE I ET HALVT ÅR!!!! Har I fattet det mest banale i markedsøkonomi????? Besides så er et halvt år længe så Radeon burde jo være meget bedre end G3.....alt andet er jo næsten et flop. Men det har ikke just imponeret endnu og I glemmer stadig at tage højde for den lave clock som jo HAR en del at sige når de gælder performance! Og hvad er nu det med at Tv-out ikke virker på G3? Deternal har du overhovedet prøvet et G3 med tv-out eller er det bare noget du tror du ved noget om?? Det er for det første implementeret i Nvidia-driverne i modsætning til G2 som du nok tænker på. Og det virker upåklageligt!
Gravatar #14 - Trentors
31. aug. 2001 10:10
Har I lagt mærke til hvor dobbeltmoralske i (næsteHvis Nvidia, Intel eller MS havde snydt med tal på den måde som ATI har gjort i ovenstående havde halvdelen af læserne på Newz.dk flippet ud. Hvis det var Nvidia var det blevet kaldet for store onde kapitalister og så videre. HVORFOR bliver ATI ikke svinet for deres lidt for uobjektive tabel? Nå jo det glemte jeg. ATI er jo en af de flinke firmaer, ligesom Kyro og AMD.... (håber det starter en god diskussion) =¤)
Gravatar #15 - Onde Pik
31. aug. 2001 10:18
Jeg prøver ikkeat argumentere for at ATI er det ultimative GFXkort firma, selvom det er min personlige holdning. Og ja, det er en smule skuffende at ATI har været så lang tid om at udgive deres næste kort. Men nu lader det til at de allerede er godt igang med deres DX9 chip r300 som forventes udgivet Q1 2002. Efter min mening så burde Nvidia også skamme sig, hvis de ikke udviklede de bedste kort, da deres income er 33% højere end ATI. Og lad os lige huske en anden ting, højeste FPS er ikke ensbetydende med et bedre produkt.
Gravatar #16 - Onde Pik
31. aug. 2001 10:34
TrentorsNu synes jeg du skal tænke dig om. Personlig har mit forhold til soft/hardware firmaer INTET somhelst med hvem der er underdog at gøre. Som du ofte har set, forsvarre jeg tit MS's produkter, når der kommer den sædvanlige flod af grundløs kritik. Jeg holder med AMD fordi de uden tvil giver det bedste "bang for the buck" jeg var tidligere intelfan i Celeron dagene. Jeg holder med ATI fordi JEG mener at de har det bedet "bang for the buck", min mening er baseret på hastighed, features og kvalitet af f.eks billede, 2d og features som TV-out. Jeg er ikke i tvivl om at Radeon var det bedste(efter mine preferancer må jeg heller sige) da jeg købte nyt kort. Og hvis Nvidia begynder at laver super overlegne kort, vil jeg nok skifte "idol" som jeg gjorde fra intel til AMD. Desuden bør du nok begrunde din mening om mangel på objektivitet i ATIs tabel. Tænk dig nu om. Hvad tror du der ville ske, hvis ATI lavede en håbløs subjektiv sammenligning med Nvidia på deres eget site? Jeg tror nok du skal regne med at de ville få massere af kritik, ikke mindst fra Nvidia selv. Måske opdagede ATI bare da Nvidia løftede sløret for deres Cinema, at de rent faktisk var vildt overlegne? Hvorfor ikke sammenligne deres kort med konkuranten? Det er ikke det mindste mere kritisabelt end Nvidias bevidste offentligørelse af Detonator4 for at spolere ATI's R8500 launch. Jeg siger ikke at ATI ikke er objektive, men siger bare at jeg ikke kan se noget bevis på at de er. Og er man ikke udskyldig til det modstatte er bevist? Trentors du kan jo med rette liste en række features som er til fordel for Nvidia, og som ATI ikke har nævt............. hvis de altså findes :)
Gravatar #17 - Trentors
31. aug. 2001 10:53
Hehe well...nu var den ikke rettet så meget imod dig OndePik. Du holder jo med MS som jo er et politisk ukorrekt firma at holde med (på Newz.dk anyway). Uobjektiv var måske et forkert ord at bruge men jeg mente at når i lige var blevet enige at denne tabel var "lettere fusket" så var den vist ikke helt stueren. Så suma sumarum : Denne tabel har ikke helt rent mel i posen. Det er lige blevet slået fast. Og det jeg siger er at sådan et lille fusket indgreb slipper ATI meget pænere fra (her på Newz.dk) end hvis MS havde lavet noget tilsvarende....eller Intel....eller Nvidia....eller Rambus!!!
Gravatar #18 - YaiEf
31. aug. 2001 12:45
Hmm...Jeg har svært ved at forestille mig, at ATI i denne nørdernes verden tør fuske grundlæggende med sådan en tabel. Der var noget med de pixel-shaders - men det blev da vist slået fast at tabellen grundlæggende skulle holde vand - eller hvad? Jeg kan bare ikke forestille mig ATI tør fuske - det ville formentligt koste dem en mindre formue i goodwill så snart det kom frem - og det ville jo med sikkerhed komme frem ...
Gravatar #19 - Trentors
31. aug. 2001 12:58
here goesDe har ikke direkte snydt. Men de har bare været temmelig ufine. Læs de poster Ondepik og Miklos har skrevet længere oppe.
Gravatar #20 - Onde Pik
31. aug. 2001 13:29
WellSelvom jeg er ATIfan, kan jeg ikke se bort fra, at det rent faktisk er en løgn at Nvidias GF3 ikke er DX8.1 understøttende. I DX8.1 er der to nye versioner af Pixelshaders en der hedder 1.2/1.3 og en der hedder 1.4. Hvad forskellen er, har MS ikke villet ud med, men GF3 understøtter 1.2/1.3 versionen. Of MS har givet Nvidia lov til at kalde deres GF3 for DX8.1 "complient". Det som ATI burde have skrevet, var DX8.1 Pixelshaders v1.4 ATI:yes Nvidia:no. ATI kan selvfølgelig hævde, at et kort ikke er DX8.1 "complient" medmindre det understøtter ALT i DX8.1. Men MS har altså valgt at sige, at GF3 også er DX8.1 "complient", og det er vel dem der bestemmer?? Personligt mener jeg også at man bør understøtte en DX version fuldt ud, for at vare "complient". Og kan godt forstå, hvis ATI er en smule knotne over MS beslutning. Argh,,,,,, håber ikke der er for mange gentagelser i min post.... sorry,
Gravatar #21 - Elephant
31. aug. 2001 14:11
>> TrentorsTja jeg kan ikke lide din påstand om at hastigheden (Hz) som GPU'en har er altafgørende for FPS. Det har jo ikke ret meget med det at gøre. Fx. så er AMD's Athlon 1,4 GHz stadig hurtigere end Intel's Pentium IV 2 GHz. LIgeså så kommer en Alpha CPu på 800 Mhz eller hvad de nu er oppe på tæt på de 2 ovenståendes ydelse, selvom den efter din opfattelse er langt langsommere.
Gravatar #22 - Elephant
31. aug. 2001 14:14
>> OndePikJeg er helt enig i at ATI må have en forkert smag i munden når Nvidia får lov til at kalde deres GF3 for DX8.1 complient. ATI stod jo i nogenlunde samme situation med deres Radeon 1, som ikke understøtter alt inden for T&L og derfor ikke måtte kalde sit for DX8.0 complient /Jeg er selv Matrox ejer og holder derfor ikke med nogle af de impicerede parter.
Gravatar #23 - YaiEf
31. aug. 2001 14:46
En strid om ordDer står i tabellen jo faktisk ikke andet end "DirectX 8.1 Pixel Shaders" - og man kan vel hævde, at GF3 ikke har netop dette hvis kortet ikke understøtter den nyeste version pixel-shaders. Så - når det faktisk afhænger af en svagt speget brug af ord synes jeg det er lidt stærkt at mene tabellen fusker med facts. Altså - det er trods alt kun 1 ud af en ca. 20 sammenligninger - og endda en noget uklar en. Er der noget i tabellen der derimod er direkte usandt?
Gravatar #24 - Mumle
31. aug. 2001 16:18
Hader TVout på mit GF2mxEr der nogen der ved hvordan jeg får et ordentlig billede af TVout på mit ASUS V7100. Billedet er somregel et random sted på skærmen :(
Gravatar #25 - Onde Pik
31. aug. 2001 17:01
En anden ting.ATI's Mobility Radeon7500 ser ud til at kommet til at spake røv når det gælder bærbare. Hele 95% hurtigere end GF2GO i 3dmark2001. http://www.rage3d.com/reviews/hardware/mobility750...
Gravatar #26 - Onde Pik
31. aug. 2001 17:05
Og det er ikke fordireviewet er biased af ATI fans på Rage3d. Flere andre sites har samme resultater, bla. Gamespot som siger: "We had the chance to run 3DMark 2001 on the two systems at the benchmark's default settings. The Nvidia-based notebook scored 1973, while the ATI-equipped notebook scored 3887--a very good result for a system without DirectX 8-compliant hardware."
Gravatar #27 - baal
1. sep. 2001 11:43
GemeneFallos!
Hvis det er rigtigt, så vil jeg begynde at flæbe... Har lige fået en 1 GHz Notebook med GF2GO fra Dell... Jeg troede lige jeg var så sej....
Gravatar #28 - Polyvinylchlorid
1. okt. 2001 08:11

uhm jeg får ca 3900 i 3dmark 2001 med et oc gf2 gts og en atlon 900....
lad os nu lige se det kort inden folk begynder at hype det plejer jo at være lort de laver og ja hurra måske er det hurtigere end et gf3 men folkens gf3 er snart et halvt år gammelt så det er sgu ikke noget jeg vil klappe i mine hænder over....

men jeg kan sgu da stadig huske de første benchmarks man fik af kyro 2 chipsettet det var jo også åhhh så godt og hurtigere end gf2 men når det så kom til stykket var det til at lukke op og skide i ik...
og med de clocks det radeon kører skal det da vidst ikke overclockes ret meget før der står flammer ud af det.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login