mboost-dp1

Advanced Micro Devices, Inc.
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Hvornår blev Larabee nævnt første gang? 2½ år siden?? Dengang var det også "lige om hjørnet" så lad os nu se hvornår AMD smider de første chips på markedet
Og.. hvis analogien holder, så ser vi først chips om 2 år hvor Intel har været på banen og rettet baby-fejl i deres chips for længst. AMD - jeg savner de gode gamle dage, hvor de virkelig var en konkurrent, som ikke var på fallittens rend.
Og.. hvis analogien holder, så ser vi først chips om 2 år hvor Intel har været på banen og rettet baby-fejl i deres chips for længst. AMD - jeg savner de gode gamle dage, hvor de virkelig var en konkurrent, som ikke var på fallittens rend.
Ignorer bare terracide, han kan som altid ikke bidrage på nogen positiv måde.
Det giver gode muligheder at få tingene på samme die, hvilket giver nogle stabilitetsfordele for samarbejdet mellem cpu og gpu. Ud over det, spares broen mellem de to væk, og det sparer igen strøm men giver ydelse.
Jeg glæder mig til at se det, men kunne så ønske at de tog lydchippen med i det, med det samme. En slags "amiga" on a chip. ;)
Uanset hvad, så bliver det lettere at sikre at drivers arbejder sammen, og det kan kun glæde folk...
Ulempen er som alle sammenbyggede løsninger (kontormaskiner med scanner, printer osv. i en). at hvis man ønsker et andet mærke eller model af bare den ene ting, så får man redundans og går én af tingene i stykker, så er det det hele der skal repareres/udskiftes.
Det giver gode muligheder at få tingene på samme die, hvilket giver nogle stabilitetsfordele for samarbejdet mellem cpu og gpu. Ud over det, spares broen mellem de to væk, og det sparer igen strøm men giver ydelse.
Jeg glæder mig til at se det, men kunne så ønske at de tog lydchippen med i det, med det samme. En slags "amiga" on a chip. ;)
Uanset hvad, så bliver det lettere at sikre at drivers arbejder sammen, og det kan kun glæde folk...
Ulempen er som alle sammenbyggede løsninger (kontormaskiner med scanner, printer osv. i en). at hvis man ønsker et andet mærke eller model af bare den ene ting, så får man redundans og går én af tingene i stykker, så er det det hele der skal repareres/udskiftes.
#6
måske ikke lige nu, men jeg tror bestemt at i fremtiden så bliver dette løsningen på en eller anden måde. Jeg kan heller ikke se hvorfor at man ikke skulle kunne få alle sine ram ned on-die på sin cpu chip, 4,6,12gb.
Jeg ville bare ønske at amd ville komme væk fra Intels platform samt deres licenser og lave deres egen.
måske ikke lige nu, men jeg tror bestemt at i fremtiden så bliver dette løsningen på en eller anden måde. Jeg kan heller ikke se hvorfor at man ikke skulle kunne få alle sine ram ned on-die på sin cpu chip, 4,6,12gb.
Jeg ville bare ønske at amd ville komme væk fra Intels platform samt deres licenser og lave deres egen.
lindysign (7) skrev:Ignorer bare terracide, han kan som altid ikke bidrage på nogen positiv måde.
Det giver gode muligheder at få tingene på samme die, hvilket giver nogle stabilitetsfordele for samarbejdet mellem cpu og gpu. Ud over det, spares broen mellem de to væk, og det sparer igen strøm men giver ydelse.
Jeg glæder mig til at se det, men kunne så ønske at de tog lydchippen med i det, med det samme. En slags "amiga" on a chip. ;)
Uanset hvad, så bliver det lettere at sikre at drivers arbejder sammen, og det kan kun glæde folk...
Ulempen er som alle sammenbyggede løsninger (kontormaskiner med scanner, printer osv. i en). at hvis man ønsker et andet mærke eller model af bare den ene ting, så får man redundans og går én af tingene i stykker, så er det det hele der skal repareres/udskiftes.
Så læs og lær hvad folk i industrien mener, så vil du vide hvorfor jeg ikke ser en 4kernet Althon med IGP klampet på som noget at råbe hurra for:
http://forum.beyond3d.com/showthread.php?t=55601
For lidt ydelse til reelt set at køre DX11...så sidder de tilbage med GPGPU...og de folk som skal bruge dette, vil vælge en mere...ydende enhed..så som en GPU.
Beklager, men grafik/GPGPU der skal dele RAM-bussen med CPU'en er ikke noget jeg betragter som "biggest thing since slice bread"...tværtimod.
Gætter på at Terra kun tænker på grafisk tunge applikationer her, og der kan det være han har ret, men vi kan ikke rigtigt vide det før vi får et færdigt produkt at se.
Mig bekendt har Intel også et rimeligt skod grafik kort på market som ikke yder fantastisk, men alligevel sælger de meget godt. Så jeg gætter på at AMD går efter dette markede hvor hvis de bare giver lidt bedre ydelse, lavere strømforbrug, og mest vigtigt at de koster mindre end Intel, nok skal blive en succes.
Mig bekendt har Intel også et rimeligt skod grafik kort på market som ikke yder fantastisk, men alligevel sælger de meget godt. Så jeg gætter på at AMD går efter dette markede hvor hvis de bare giver lidt bedre ydelse, lavere strømforbrug, og mest vigtigt at de koster mindre end Intel, nok skal blive en succes.
Der var engang hvor FPU-funktioner var noget man købte sig (dyrt!) til. Min første 8087 (FPU-delen til en 8086/88) kostede mig ihf. 1295,- i sin tid. CPU Cache var også noget man købte 'ved siden af', i dyre domme. I dag indeholder en CPU så begge disse dele. I chips til 300,-....
Det er kun logisk at GPU kommer med ind på samme die. Ikke noget hokus pokus eller noget, ren udvikling. Og det siger næsten sig selv at man ikke tager den største GPU (HD5870) og sætter sammen med en fire-kernet CPU. (Faktisk havde jeg regnet med at CPUen ville være to kerner, så fire lyder rigtigt godt!)
Med en GPU a.la. 54xx/55xx har man en mediecenter PC 'almost-on-one-chip'. Det tegner godt!
Og til dem der spiller, kan man jo stadig købe et dedikeret 'top-of-the-pops' grafikkort...
Det er kun logisk at GPU kommer med ind på samme die. Ikke noget hokus pokus eller noget, ren udvikling. Og det siger næsten sig selv at man ikke tager den største GPU (HD5870) og sætter sammen med en fire-kernet CPU. (Faktisk havde jeg regnet med at CPUen ville være to kerner, så fire lyder rigtigt godt!)
Med en GPU a.la. 54xx/55xx har man en mediecenter PC 'almost-on-one-chip'. Det tegner godt!
Og til dem der spiller, kan man jo stadig købe et dedikeret 'top-of-the-pops' grafikkort...
Problemet er ikke CPUen problemet er at det ikke er Intel der laver den. Hvis Intel havde lavet 100% samme cpu, havde Terra rost den til skyerne.
Terra sidder og brokker sig over at man ikke kan definere en bærbar som spillebærbar. Alligevel skal han nok brokke sig over at der udkommer en chip med delt ram? Hvorfor det når man alligevel ikke skal spille på en bærbar?!?
Nej denne CPU er perfekt til de mindre bærbare der ikke skal trække det tungeste.
Terra sidder og brokker sig over at man ikke kan definere en bærbar som spillebærbar. Alligevel skal han nok brokke sig over at der udkommer en chip med delt ram? Hvorfor det når man alligevel ikke skal spille på en bærbar?!?
Nej denne CPU er perfekt til de mindre bærbare der ikke skal trække det tungeste.
#14:
Alle IGP (og ydelse i samme lave katagori) kan rende mig.
Om det så er Intel, AMD eller NVIDIA der laver dem.
Hvis folk vil have en ide om ydelse i spil, så er dette et godt sted at starte:
http://anandtech.com/video/showdoc.aspx?i=3738&...
Bare husk på at Fusion vil være langsommere...ingen dedikeret GDDR3 bus, så den skal slås med CPU'en om bandwith.
Og hvad angår HTPC så imponere AMD ikke lige frem:
http://anandtech.com/video/showdoc.aspx?i=3738&...
Post-processiing er en by i Rusland...
Terra - Og så snakker vi 2011...der vil resultatet ser endnu mere ynkligt ud...
Alle IGP (og ydelse i samme lave katagori) kan rende mig.
Om det så er Intel, AMD eller NVIDIA der laver dem.
Hvis folk vil have en ide om ydelse i spil, så er dette et godt sted at starte:
http://anandtech.com/video/showdoc.aspx?i=3738&...
Bare husk på at Fusion vil være langsommere...ingen dedikeret GDDR3 bus, så den skal slås med CPU'en om bandwith.
Og hvad angår HTPC så imponere AMD ikke lige frem:
http://anandtech.com/video/showdoc.aspx?i=3738&...
Post-processiing er en by i Rusland...
Terra - Og så snakker vi 2011...der vil resultatet ser endnu mere ynkligt ud...
#16
Nej man skal have en relevant GPU hvis man vil se video og spare processorkraft.
Der behøves ikke et eksternt grafikkort for at se 1024P
Nej man skal have en relevant GPU hvis man vil se video og spare processorkraft.
Der behøves ikke et eksternt grafikkort for at se 1024P
Jakob Jakobsen (17) skrev:#16
Nej man skal have en relevant GPU hvis man vil se video og spare processorkraft.
Der behøves ikke et eksternt grafikkort for at se 1024P
Yarrr... Men i 2011 skal vi jo alle sammen køre QuadHD eller UltraHD i 3d...... Så har den ingen chance :-P
#1
Forvent ikke høje clock hastigheder med det forbrug.
#4
AMD har snakket om Fusion lige siden de købte ATI, så det kan være 2011 lykkes for dem.
#terra
sut på en kaktus og check om du stadig kan mærke virkeligheden.
Halvdelen af alle grafikkort solgt er Intels integrerede møg og de fleste der ejer de kort er tilfredse med dem, hele verdenen render ikke rundt og spiller Operation Flashpoint Dragon Rising, specielt ikke på en bærbar.
Løsningen er ikke rettet imod vild ydelse, men samme område som intels Clarkdale løsning, AMD's version er desuden langt bedre sat sammen end Intels QPI/FSB rod i Clarkdale.
Forvent ikke høje clock hastigheder med det forbrug.
#4
AMD har snakket om Fusion lige siden de købte ATI, så det kan være 2011 lykkes for dem.
#terra
sut på en kaktus og check om du stadig kan mærke virkeligheden.
Halvdelen af alle grafikkort solgt er Intels integrerede møg og de fleste der ejer de kort er tilfredse med dem, hele verdenen render ikke rundt og spiller Operation Flashpoint Dragon Rising, specielt ikke på en bærbar.
Løsningen er ikke rettet imod vild ydelse, men samme område som intels Clarkdale løsning, AMD's version er desuden langt bedre sat sammen end Intels QPI/FSB rod i Clarkdale.
terracide (2) skrev:#1:
Ja, det lyder lige så "sygt" som onboard lyd, onboard LAN, onboard IGP...oh wait....
Terra - Jeg forudser MAX 2x nuværende IGP ydelse...og held og lykke med 32nm SOI...
Hvor er du evigt ensidig og irrelevant i dine betragtninger.
Lad os forstille os at process og hukommelses-teknologi ikke er fanget i et eller andet mystisk vakum, hvor intet ændrer sig.
Lad os forstille os en fremtid hvor båndbredde er øget og mængden af logik i forhold til plads er øget.
I denne meget hypotetiske fremtid, er det faktisk ikke helt utænkeligt at et on-chip design kunne være en bedre løsning.
Jeg synes nu stadig at det er lidt åndssvagt at opfinde et nyt udtryk til fænomenet, om noget er Fusion vel NETOP en Central Processing Unit, når den samler det meste "processing" i én die.
Og så er det interessant, at de angiver TDP for CPU delen, men intet for GPU delen .. det er lidt som at sige, at chokoladekagen er mager, fordi man har brugt affedtet kakao...
Og så er det interessant, at de angiver TDP for CPU delen, men intet for GPU delen .. det er lidt som at sige, at chokoladekagen er mager, fordi man har brugt affedtet kakao...
Hvor har folk den skøre ide fra at APU står for "Application Processor Unit"??? Det står for "Accelerated Processing Unit" og er en ganske almindelig SOC (System On a Chip) med flere CPU-kerner og en GPU enhed på samme chip.
Kilde: AMD Blog
AMD skrev:Our strong roadmap for 2010 is scheduled to be followed with the advent of “Fusion” and the first Accelerated Processing Unit (APU) codenamed “Llano,” in 2011.
Kilde: AMD Blog
Atom forsvinder da fuldstændig, hvis det er muligt at få en CPU der bruger det halv i strøm når computeren køre på batteri og har desktop kraft når den sidder i stikkontakten.
Det lyder vildt at den bliver så fleksibel, men det er AMD jo efterhånden blevet gode til gennem ATI.
Det lyder vildt at den bliver så fleksibel, men det er AMD jo efterhånden blevet gode til gennem ATI.
Ja. Det lydder jo meget godt, men jeg må sige at det er lang tiden siden jeg har set noget interessandt fra AMD, så jeg vil se det før jeg tror det.
Er i øvrigt temmeligt imponeret over Intels nye Atom D510. Hvilken også skulle være på vej i en 32 nm udgave.
Er i øvrigt temmeligt imponeret over Intels nye Atom D510. Hvilken også skulle være på vej i en 32 nm udgave.
#23 Nyheden er også blevet bragt på Ingeniøren, hvor journalisten desværre har lavet samme fejl. Umiddelbart lader det til at journalisten hos Arstechnica har læst forkert i AMDs pressemeddelelse og at denne så er blevet viderebragt både her og på www.ing.dk.
"#13" skrev:Min første 8087 (FPU-delen til en 8086/88) kostede mig ihf. 1295,- i sin tid. CPU Cache var også noget man købte 'ved siden af', i dyre
Nu er det bare sådan at der er to meget store forskelle på disse problematikker:
FPU (floating point unit, enhed til kommatalsberegninger) indeholde et fast set instruktioner. Cache skal selvfølgelig så tæt på cpu'en som muligt for at vi kan arbejde i de hastigheder vi gør.
Problemet med grafik (og for den sags skyld lyd) er at det er meget specialiserede instruktioner der skal bruges alt efter hvad computeren skal bruges til.
Som jeg ser det, kommer en CPU i fremtiden til at indeholde en del kerner der fungere som parallelprocessorer. Disse skal så have et reduceret instruktionssæt, men tilgengæld arbejde parallelt med nogle hundrede tråde.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.