mboost-dp1

AMD
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
"Vi ønsker det dårligste produkt på markedet så alle køber vores varer!"
... Magen til opmærksomheds artikel. Det skal de jo sige..
... Magen til opmærksomheds artikel. Det skal de jo sige..
Mon ikke AMDs fokus i virkeligheden er blevet "Vi vil sælge hardware til dem, som ikke kræver så meget - men som er trætte af den hidtidige integrerede grafiks forbandelser"?
For det vil da sikkert være billigere at levere en computer uden et dedikeret grafikkort. Men jeg tvivler på det gavner noget for dem, som virkelig går efter ydelse.
For det vil da sikkert være billigere at levere en computer uden et dedikeret grafikkort. Men jeg tvivler på det gavner noget for dem, som virkelig går efter ydelse.
Well, de laver jo lige pt den hurtigste GPU.
Så hvis de over tid sætter det mål at de vil være top-dawg, så er det jo bare godt for os forbrugere - for Nvidia har nok ikke tænkt sig at sidde på deres hænder imens AMD sprøjter det ene kort ud efter det andet.
Den store slagmark kommer til at slås på tablet siden, jeg syntes ikke at kunne huske nogle spiffy kodenavne på AMDs produkter i den sammenhæng.
Så hvis de over tid sætter det mål at de vil være top-dawg, så er det jo bare godt for os forbrugere - for Nvidia har nok ikke tænkt sig at sidde på deres hænder imens AMD sprøjter det ene kort ud efter det andet.
Den store slagmark kommer til at slås på tablet siden, jeg syntes ikke at kunne huske nogle spiffy kodenavne på AMDs produkter i den sammenhæng.
1) AMD har droppet at bruge ordet "fusion"...da en vis kølerproducent meddelte at de ville sagsøge AMD for dette. AMD backed down.
De bruger nu udtrykket APU...for at forsøge af aflede folk fra at det bare en en omdøbt IGP...
2) Spøjst de snakker om ydelse nu.
Før var AMD's kæpshest "perf/watt" kombineret med "sweetspot"...nu er det ydelse....hvad er det næste år?
Men det hænger nok sammen med en ny CEO, at de melder sig ud af kampen med Intel, en kæmpe restukturering (læs: fyringer) inden for AMD...specielt på PR siden...så nye PR folk der gerne vil behage en ny CPU...så snakker man ikke om at man er ved at blive hægtet af gør man? ;)
Terra - AMD's regnskaber viser også at det er ved at være sidste udkald...
De bruger nu udtrykket APU...for at forsøge af aflede folk fra at det bare en en omdøbt IGP...
2) Spøjst de snakker om ydelse nu.
Før var AMD's kæpshest "perf/watt" kombineret med "sweetspot"...nu er det ydelse....hvad er det næste år?
Men det hænger nok sammen med en ny CEO, at de melder sig ud af kampen med Intel, en kæmpe restukturering (læs: fyringer) inden for AMD...specielt på PR siden...så nye PR folk der gerne vil behage en ny CPU...så snakker man ikke om at man er ved at blive hægtet af gør man? ;)
Terra - AMD's regnskaber viser også at det er ved at være sidste udkald...
De kalder det nu stadig APU:
http://www.amd.com/us/products/desktop/apu/pages/a...
http://www.amd.com/us/products/desktop/apu/pages/a...
terracide (7) skrev:De kalder det nu stadig APU:
http://www.amd.com/us/products/desktop/apu/pages/a...
AMD har altid brugt udtrykket APU(Accelerated Processing Unit) og er bare deres betegnelse for kombineret CPU/GPU. Men de ændrer brandet fra Fusion til Heterogeneous Systems Architecture. Sådan som du skrev det lød det som om, at de ændrede brandet fra Fusion til APU.
Så de satser farmen på low perf CPU's:
Det gik jo så godt for Cyrix og Via...lol
But while AMD is quickly improving performance and efficiency of APUs and GPUs, its high-end central processing units seem to stagnate. The AMD FX-series "Zambezi" processor failed to impress and it will look even more pale once Intel releases its Core i-series "Ivy Bridge" chips this spring
Det gik jo så godt for Cyrix og Via...lol
Og det har de ikke ville være de sidste par år eller hvordan? :D Jeg ville satme være sur som investorer hvis det passer! :D
AMDs vision er nok ikke blot at sammenkæde en GPU og en CPU via en bus som de har gjort indtil videre. Når man indsætter den rigtige logik i CPU-designet, og kobler GCN-kernerne direkte sammen med ALUen, står man med en 'HSA/APU' med en ydeevne på omkring 3-500 GFLOPS. Og VÆSENTLIGT billigere end løsningen med seperat CPU/GPU.
Til sammenligning er de hurtigste processorer til desktops lige nu, oppe omkring 200 GFLOPS.
Iøvrigt mener jeg ikke at AMD har sagt noget om at Liano/Trinity ville blive verdens nye Number 1 i grafik-ydelse? Men at de vil levere en løsning der er ganske brugbar til casual gaming. Hvilket intels ikke er.
Til sammenligning er de hurtigste processorer til desktops lige nu, oppe omkring 200 GFLOPS.
Iøvrigt mener jeg ikke at AMD har sagt noget om at Liano/Trinity ville blive verdens nye Number 1 i grafik-ydelse? Men at de vil levere en løsning der er ganske brugbar til casual gaming. Hvilket intels ikke er.
Er jeg den eneste der syntes at overskriften er vildledende og artiklen der linkes til er et stort rod?
Ja, AMD siger at de vil være ledende i GPU ydelse, men ikke at det er et nyt mål for deres dedikerede GPU kort. AMD viser gerne 7970 frem og praler med førertrøjen, men al deres snak går på APU og hvordan HSA skal "redde verden".
Ja, AMD siger at de vil være ledende i GPU ydelse, men ikke at det er et nyt mål for deres dedikerede GPU kort. AMD viser gerne 7970 frem og praler med førertrøjen, men al deres snak går på APU og hvordan HSA skal "redde verden".
terracide (16) skrev:AMD må hellere få gjort noget ved CUDA så...
For en der overvejer at købe en APU tænker virkelig meget på max ydelse og spil markedet vælter i spil der kræver CUDA.
Jeg fornemmer at terra forsøger at trolle igen, men der er ikke den klassiske sviner eller total mangel på hjerneaktivitet der plejer at være i hans kommentarer. Måske er der travlt på hans arb.
#17:
Hvis du seriøst tror at APU vil give andet end low FPS gaming på rædderlgie settings er joken på dig.
folk der er tilfredse med den slgs bæ-grafik har allerede en konsol.
Og CUDA er det førende GPGPU sprog...det er hvad studernede lærer mang steder...ikke DirectCompute eller OpenCL...
AMD lider stadig af den fejlantagelse at hvis de bare laver hardwaren, så kommer udviklerne til...
CUDA vs Stream viste hvor fejlagtig den antagelse var.
Stream er nu død og borte.
CUDA lever og er mere i brug ned DirectCompute og OpenCL.
Jeg fornemmer du ikke ved hvad du snakker om...men alligevel prøver at spille smart via Ad Hominem...
Terra - Du får 2/10...
Hvis du seriøst tror at APU vil give andet end low FPS gaming på rædderlgie settings er joken på dig.
folk der er tilfredse med den slgs bæ-grafik har allerede en konsol.
Og CUDA er det førende GPGPU sprog...det er hvad studernede lærer mang steder...ikke DirectCompute eller OpenCL...
AMD lider stadig af den fejlantagelse at hvis de bare laver hardwaren, så kommer udviklerne til...
CUDA vs Stream viste hvor fejlagtig den antagelse var.
Stream er nu død og borte.
CUDA lever og er mere i brug ned DirectCompute og OpenCL.
Jeg fornemmer du ikke ved hvad du snakker om...men alligevel prøver at spille smart via Ad Hominem...
Terra - Du får 2/10...
#18
Så kender jeg terra igen :-) pålidelig og dum som altid.
Eller er glade for at de kan spille Wow på en billig bærbar.
Studerende kan skrive i det sprog de vil, det er virksomheder der bestemmer hvad der bliver brugt, indtil videre virker ingen virksomheder himmelråbende glade for noget GPU sprog.
AMD har kun lige lavet hardware der egner sig til andet end grafik. Stream var et halvhjertet og dårligt initiativ, ligesom mange andre ting fra AMD.
Yeah, slut sviner, ligesom han plejer. Bliver spændende at se hvad terras næste kommentar bliver, for han vil jo have det sidste ord.
Så kender jeg terra igen :-) pålidelig og dum som altid.
terracide (18) skrev:#17:
Hvis du seriøst tror at APU vil give andet end low FPS gaming på rædderlgie settings er joken på dig.
folk der er tilfredse med den slgs bæ-grafik har allerede en konsol.
Eller er glade for at de kan spille Wow på en billig bærbar.
terracide (18) skrev:
Og CUDA er det førende GPGPU sprog...det er hvad studernede lærer mang steder...ikke DirectCompute eller OpenCL...
Studerende kan skrive i det sprog de vil, det er virksomheder der bestemmer hvad der bliver brugt, indtil videre virker ingen virksomheder himmelråbende glade for noget GPU sprog.
terracide (18) skrev:
AMD lider stadig af den fejlantagelse at hvis de bare laver hardwaren, så kommer udviklerne til...
CUDA vs Stream viste hvor fejlagtig den antagelse var.
Stream er nu død og borte.
CUDA lever og er mere i brug ned DirectCompute og OpenCL.
AMD har kun lige lavet hardware der egner sig til andet end grafik. Stream var et halvhjertet og dårligt initiativ, ligesom mange andre ting fra AMD.
terracide (18) skrev:
Jeg fornemmer du ikke ved hvad du snakker om...men alligevel prøver at spille smart via Ad Hominem...
Terra - Du får 2/10...
Yeah, slut sviner, ligesom han plejer. Bliver spændende at se hvad terras næste kommentar bliver, for han vil jo have det sidste ord.
terracide (18) skrev:Og CUDA er det førende GPGPU sprog...det er hvad studernede lærer mang steder...ikke DirectCompute eller OpenCL...
Nu er det vigtige ved at programmere til GP-compute ikke hvad for et sprog (eller API) du bruger, men hvordan du strukturerer programmet.
Du skal alligevel selv holde styr på at få smidt de rigtige ting til den rigtige "beregnings enhed" (og sync'et resultaterne).
Så om du har lært CUDA, OpenCL er egentligt temmeligt underordnet. Begge ting er sådan set bare en gang C syntax med en forholdsvis veldefineret API.
DirectCompute er måske lidt nemmere at gå til. Der er jo .NET wrappere og alt muligt - men funktionelt har du stort set samme muligheder og får så en noget federe debugger med i købet.
mee (19) skrev:#18
Så kender jeg terra igen :-) pålidelig og dum som altid.
Mirror, mirror on the wall...det lyder helt klart som du ikke ved noget om emenet, men prøver at gemme det bag ved ad hominem.
Eller er glade for at de kan spille Wow på en billig bærbar.
Det var sgu' et "solidt" kundesegment...*host*
Studerende kan skrive i det sprog de vil, det er virksomheder der bestemmer hvad der bliver brugt, indtil videre virker ingen virksomheder himmelråbende glade for noget GPU sprog.
Så vent om 5 år, når hovedparne af nyuklækkede GPGPU programmøre har deres force i CUDA...lige den del af din post viser du ikke aner hvad der forgår indenfor GPGPU, bubba...
Det er ikke for sjovt at NVIDIA netop har satset stort på lige det felt.
AMD har kun lige lavet hardware der egner sig til andet end grafik. Stream var et halvhjertet og dårligt initiativ, ligesom mange andre ting fra AMD.
I samme katagori som f.eks. deres APU hejs.,..
Yeah, slut sviner, ligesom han plejer. Bliver spændende at se hvad terras næste kommentar bliver, for han vil jo have det sidste ord.
Hold nu kæft du started med ad hominem...mand op(og læs op) eller pis af.
spejlkugle (20) skrev:Nu er det vigtige ved at programmere til GP-compute ikke hvad for et sprog (eller API) du bruger, men hvordan du strukturerer programmet.
Du skal alligevel selv holde styr på at få smidt de rigtige ting til den rigtige "beregnings enhed" (og sync'et resultaterne).
Så om du har lært CUDA, OpenCL er egentligt temmeligt underordnet. Begge ting er sådan set bare en gang C syntax med en forholdsvis veldefineret API.
DirectCompute er måske lidt nemmere at gå til. Der er jo .NET wrappere og alt muligt - men funktionelt har du stort set samme muligheder og får så en noget federe debugger med i købet.
Så skulle du må lige kigge igen på den "økosfære" CUDA har i forhold til DC og OpenCL...eller ydelsen.
Det er ikke for sjovt at folk ikke rakker CUDA ned (ud over fanny-girls)
terracide (21) skrev:mee (19) skrev:#18
Så kender jeg terra igen :-) pålidelig og dum som altid.
Mirror, mirror on the wall...det lyder helt klart som du ikke ved noget om emenet, men prøver at gemme det bag ved ad hominem.
Det var sgu' et "solidt" kundesegment...*host*Studerende kan skrive i det sprog de vil, det er virksomheder der bestemmer hvad der bliver brugt, indtil videre virker ingen virksomheder himmelråbende glade for noget GPU sprog.
Så vent om 5 år, når hovedparne af nyuklækkede GPGPU programmøre har deres force i CUDA...lige den del af din post viser du ikke aner hvad der forgår indenfor GPGPU, bubba...
Det er ikke for sjovt at NVIDIA netop har satset stort på lige det felt.AMD har kun lige lavet hardware der egner sig til andet end grafik. Stream var et halvhjertet og dårligt initiativ, ligesom mange andre ting fra AMD.
I samme katagori som f.eks. deres APU hejs.,..Yeah, slut sviner, ligesom han plejer. Bliver spændende at se hvad terras næste kommentar bliver, for han vil jo have det sidste ord.
Hold nu kæft du started med ad hominem...mand op(og læs op) eller pis af.
Jeg sad og kedede mig og skulle finde noget jeg kunne fordrive et par minutter med. Der er garanti for et godt grin når du hives ind i kommentarerne.
terracide (22) skrev:Så skulle du må lige kigge igen på den "økosfære" CUDA har i forhold til DC og OpenCL...eller ydelsen.
Det er ikke for sjovt at folk ikke rakker CUDA ned (ud over fanny-girls)
Måske du skulle læse hvad jeg skrev?
For klarhedens skyld får DC lige lov til at hænge lidt.
En vilkårlig, nogenlunde kompetent udvikler, der har lært det ene sprog, kan IMO trivielt skifte imellem de andre.
Indtil de forskellige compilere bliver "inteligente" nok til at se hvad for funktioner i programmerne, der kan betale sig at oversætte til GPU beregning (og i øvrigt gøre det automatisk), så skal du alligevel lave dine valg bevidst og implementere skidtet i et subset af ANSI C.
Om du bruge den ene eller den anden API kan sgu være lige meget fra udviklerens synspunkt.
Hvad skuer mit øje:
http://www.bbc.co.uk/news/technology-16933023
*snickers*
http://www.bbc.co.uk/news/technology-16933023
Computer chip maker Nvidia's Quadro graphics cards are widely used across the special effects industry - the firm claims about 95% of the market - thanks in part to the take-up of its Cuda programming language among key software developers over the past two years.
*snickers*
terracide (26) skrev:Hvad skuer mit øje:
http://www.bbc.co.uk/news/technology-16933023
*snickers*
Hvad skuer mit øje, Terra sparker til en død hest og genopliver en for længst død tråd.
Får jeg noget at grine af igen i dag?
mee (27) skrev:terracide (26) skrev:Hvad skuer mit øje:
http://www.bbc.co.uk/news/technology-16933023
*snickers*
Hvad skuer mit øje, Terra sparker til en død hest og genopliver en for længst død tråd.
Får jeg noget at grine af igen i dag?
Hvad skuer mit øje...udenomssnak når virkeligheden ikke passer til dit lille hoved ;)
Du kan finde et spejl så er der masser af grine af...eller læse din egen post....mulighederne er mange.
Vi tager den lige igen..for det lader til den rammer et ømt punkt:
Computer chip maker Nvidia's Quadro graphics cards are widely used across the special effects industry - the firm claims about 95% of the market - thanks in part to the take-up of its Cuda programming language among key software developers over the past two years.
terracide (30) skrev:Vi tager den lige igen..for det lader til den rammer et ømt punkt:Computer chip maker Nvidia's Quadro graphics cards are widely used across the special effects industry - the firm claims about 95% of the market - thanks in part to the take-up of its Cuda programming language among key software developers over the past two years.
RDF detected.
dub (33) skrev:Indeed.
Det eneste du har postet er et citat fra Nvidias PR echochamber.
Er det så vanskeligt at tror på?
AMD(ATi) brændte mange broer med deres Brook.
Industiren fik den opfattelse at ny generation = tab af bagud kompabilitet.
CUDA er en defacto GPGPU standard...get over it :)
Undskyld jeg ikke svarede mere i går, men jeg kunne simpelthen ikke styre min latter, når jeg kiggede på denne tråd.
Fem dage efter folk er holdt op med at kommentere dukker terracide op og linker til en ligegyldig reklame der er vævet ind i noget PR for en Muppet film.
Er jeg den eneste der finder dette exceptionelt sjovt og meget trist?
Terracide har gået rundt i fem dage med en "SOMEONE IS WRONG ON THE INTERNET!!!111!1!!" attitude og har været søvnløs over folk ikke vil se det geniale i CUDA, og alt andet han har ranted om i denne tråd.
Efter fem dages utrættelig søgen finder han det han søger, hans trumfkort, hans bevis, hans messias vil nogen måske kalde det.
En fucking reklame for at animatorerne bag Muppets filmen har brugt CUDA og var glade for det.
terracide, du plejer at være sjov, men efter at have haft latterkramper hele dagen i går, kan jeg godt se at dette er meget trist.
Af ren og skær sympati giver jeg dig ret terracide, et grafikkort uden CUDA er værdiløst og AMD er nogle fucktards, eller hvad du nu vil kalde det for. Jeg vil følge dine visdomsord og gå ud og købe mig det nyeste NVIDIA grafikkort.
P.S.
Er der nogen der kan fortælle mig hvad jeg skal bruge sådan et grafikkort til?
Fem dage efter folk er holdt op med at kommentere dukker terracide op og linker til en ligegyldig reklame der er vævet ind i noget PR for en Muppet film.
Er jeg den eneste der finder dette exceptionelt sjovt og meget trist?
Terracide har gået rundt i fem dage med en "SOMEONE IS WRONG ON THE INTERNET!!!111!1!!" attitude og har været søvnløs over folk ikke vil se det geniale i CUDA, og alt andet han har ranted om i denne tråd.
Efter fem dages utrættelig søgen finder han det han søger, hans trumfkort, hans bevis, hans messias vil nogen måske kalde det.
En fucking reklame for at animatorerne bag Muppets filmen har brugt CUDA og var glade for det.
terracide, du plejer at være sjov, men efter at have haft latterkramper hele dagen i går, kan jeg godt se at dette er meget trist.
Af ren og skær sympati giver jeg dig ret terracide, et grafikkort uden CUDA er værdiløst og AMD er nogle fucktards, eller hvad du nu vil kalde det for. Jeg vil følge dine visdomsord og gå ud og købe mig det nyeste NVIDIA grafikkort.
P.S.
Er der nogen der kan fortælle mig hvad jeg skal bruge sådan et grafikkort til?
#40:
Du har lagt mere indsats i din post ned jeg har gjort med min, faldt over linket her:
http://hardforum.com/showthread.php?t=1672754
At jeg så kan huske at folk snakkede ud af røven for et par dage siden er da så VILDT!!111! BREAKING!!!11! NEWZ!!11!!!!ONEONE
lol
Du har lagt mere indsats i din post ned jeg har gjort med min, faldt over linket her:
http://hardforum.com/showthread.php?t=1672754
At jeg så kan huske at folk snakkede ud af røven for et par dage siden er da så VILDT!!111! BREAKING!!!11! NEWZ!!11!!!!ONEONE
lol
#43
Men det er meget soedt for dig og de 0.000001% af spilmarkedets kunder der spiller ARMA og har interesse i at koebe de dyreste grafikkort.
(Hell, jeg er selv en af dem ...)
Faktum er dog, at langt stoerstedelen af spilmarkedet domineres af folk med mid-end hardware.
Derudover saa er ARMA et ufatteligt daarligt spil.
Kan du ikke liste nogen flere spil der bruger CUDA?
Saa kan vi lige hurtigt vurdere om markedsandelen overstiger 1%. :)
Men det er meget soedt for dig og de 0.000001% af spilmarkedets kunder der spiller ARMA og har interesse i at koebe de dyreste grafikkort.
(Hell, jeg er selv en af dem ...)
Faktum er dog, at langt stoerstedelen af spilmarkedet domineres af folk med mid-end hardware.
Derudover saa er ARMA et ufatteligt daarligt spil.
Kan du ikke liste nogen flere spil der bruger CUDA?
Saa kan vi lige hurtigt vurdere om markedsandelen overstiger 1%. :)
fidomuh (41) skrev:#40
Du skal spille Heroes of Newerth med 700 fps fremfor de soelle 100 som en APU ville give dig!1!11!1!!!!!
SPEND MONEYS!
Edit:
Heroes of Newerth er maaske et daarligt eksempel, da CUDA naeppe er relevant der.
Indsaet selv titlen paa et spil der benytter CUDA.
Jeg kunne kaste mig ud i CellFactor: Combat Training, det spiller alle jo stadig, og det må kræve et GTX580 SLI setup før det leverer nok frames til mit 3x 14" CRT NVIDIA surround setup.
terracide (42) skrev:#40:
Du har lagt mere indsats i din post ned jeg har gjort med min, faldt over linket her:
http://hardforum.com/showthread.php?t=1672754
At jeg så kan huske at folk snakkede ud af røven for et par dage siden er da så VILDT!!111! BREAKING!!!11! NEWZ!!11!!!!ONEONE
lol
ja ja ja, store drenge græder ikke og kan finde en fin dækhistorie for deres tvangsadfærd.
fidomuh (44) skrev:Derudover saa er ARMA et ufatteligt daarligt spil.
http://www.culch.ie/wp-content/uploads/2010/02/oh-...
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.