mboost-dp1

Advanced Micro Devices, Inc.

AMD løfter sløret for detaljer om Fusion

- Via Ars Technica - , redigeret af Avenger-

Intel udgav i starten af januar deres Clarkdale- og Arrandale-processorer, hvor der er placeret både en CPU og GPU på samme chip. AMD er på vej med en lignende løsning, men de går et skridt videre og integrerer CPU og GPU i den samme die.

Integrationen kalder AMD Fusion og skaber ifølge dem en ny chip-type, som de har givet navnet APU (Application Processor Unit). Den første APU, der p.t. går under navnet Llano, forventes at komme på markedet i 2011, men til den igangværende ISSCC 2010 (International Solid-State Circuits Conference) er AMD nu kommet med flere detaljer om teknologien.

Llano vil bestå af en Radeon 5000-serie GPU og en quad-kerne CPU, alt lavet i en 32 nm produktionsproces. CPU-delen vil blive lavet med fokus på energibesparelse og vil ifølge AMD komme i udgaver, der anvender mellem 2,5 til 25 watt.

Den nye APU er tiltænkt bærbare computere, og de første testeksemplarer vil blive udleveret til computerproducenterne i starten af 2011.





Gå til bund
Gravatar #1 - Lundt
9. feb. 2010 10:43
Den lyder ret syg , når man tænker på den er til en bærbar .
Gravatar #2 - terracide
9. feb. 2010 10:49
#1:
Ja, det lyder lige så "sygt" som onboard lyd, onboard LAN, onboard IGP...oh wait....

Terra - Jeg forudser MAX 2x nuværende IGP ydelse...og held og lykke med 32nm SOI...
Gravatar #3 - LupusGrey
9. feb. 2010 10:58
Der burde være stort potentiale for meget power for meget lidt strøm.
Gravatar #4 - toLucky
9. feb. 2010 11:01
Hvornår blev Larabee nævnt første gang? 2½ år siden?? Dengang var det også "lige om hjørnet" så lad os nu se hvornår AMD smider de første chips på markedet

Og.. hvis analogien holder, så ser vi først chips om 2 år hvor Intel har været på banen og rettet baby-fejl i deres chips for længst. AMD - jeg savner de gode gamle dage, hvor de virkelig var en konkurrent, som ikke var på fallittens rend.
Gravatar #5 - terracide
9. feb. 2010 11:14
LupusGrey (3) skrev:
Der burde være stort potentiale for meget power for meget lidt strøm.


Ikke når RAM = System hukommelse...dual bus DDR...*host*

Terra - Reality bites...
Gravatar #6 - sKIDROw
9. feb. 2010 11:32
Den løsning vil være plimrende til visse ting, men til spil og andre ekstremt krævende ting, er det nok hverken egnet eller tiltænkt.
Gravatar #7 - lindysign
9. feb. 2010 11:58
Ignorer bare terracide, han kan som altid ikke bidrage på nogen positiv måde.

Det giver gode muligheder at få tingene på samme die, hvilket giver nogle stabilitetsfordele for samarbejdet mellem cpu og gpu. Ud over det, spares broen mellem de to væk, og det sparer igen strøm men giver ydelse.

Jeg glæder mig til at se det, men kunne så ønske at de tog lydchippen med i det, med det samme. En slags "amiga" on a chip. ;)

Uanset hvad, så bliver det lettere at sikre at drivers arbejder sammen, og det kan kun glæde folk...

Ulempen er som alle sammenbyggede løsninger (kontormaskiner med scanner, printer osv. i en). at hvis man ønsker et andet mærke eller model af bare den ene ting, så får man redundans og går én af tingene i stykker, så er det det hele der skal repareres/udskiftes.
Gravatar #8 - drenriza
9. feb. 2010 11:59
#6
måske ikke lige nu, men jeg tror bestemt at i fremtiden så bliver dette løsningen på en eller anden måde. Jeg kan heller ikke se hvorfor at man ikke skulle kunne få alle sine ram ned on-die på sin cpu chip, 4,6,12gb.

Jeg ville bare ønske at amd ville komme væk fra Intels platform samt deres licenser og lave deres egen.
Gravatar #9 - Qw_freak
9. feb. 2010 12:12
terracide (2) skrev:
#1:
Ja, det lyder lige så "sygt" som onboard lyd, onboard LAN, onboard IGP...oh wait....

Terra - Jeg forudser MAX 2x nuværende IGP ydelse...og held og lykke med 32nm SOI...


det er jo ikke onboard, men on-chip!?
Gravatar #10 - terracide
9. feb. 2010 12:31
lindysign (7) skrev:
Ignorer bare terracide, han kan som altid ikke bidrage på nogen positiv måde.

Det giver gode muligheder at få tingene på samme die, hvilket giver nogle stabilitetsfordele for samarbejdet mellem cpu og gpu. Ud over det, spares broen mellem de to væk, og det sparer igen strøm men giver ydelse.

Jeg glæder mig til at se det, men kunne så ønske at de tog lydchippen med i det, med det samme. En slags "amiga" on a chip. ;)

Uanset hvad, så bliver det lettere at sikre at drivers arbejder sammen, og det kan kun glæde folk...

Ulempen er som alle sammenbyggede løsninger (kontormaskiner med scanner, printer osv. i en). at hvis man ønsker et andet mærke eller model af bare den ene ting, så får man redundans og går én af tingene i stykker, så er det det hele der skal repareres/udskiftes.


Så læs og lær hvad folk i industrien mener, så vil du vide hvorfor jeg ikke ser en 4kernet Althon med IGP klampet på som noget at råbe hurra for:
http://forum.beyond3d.com/showthread.php?t=55601

For lidt ydelse til reelt set at køre DX11...så sidder de tilbage med GPGPU...og de folk som skal bruge dette, vil vælge en mere...ydende enhed..så som en GPU.

Beklager, men grafik/GPGPU der skal dele RAM-bussen med CPU'en er ikke noget jeg betragter som "biggest thing since slice bread"...tværtimod.

Gravatar #11 - atrox
9. feb. 2010 12:48
#10

Hvis 9 ud af 10 af dine kommentarer ikke var ligegyldigt vrøvl, så kunne det være at folk gad høre på dig når du for en gang skyld havde noget klogt at sige.
Gravatar #12 - Testa
9. feb. 2010 12:56
Gætter på at Terra kun tænker på grafisk tunge applikationer her, og der kan det være han har ret, men vi kan ikke rigtigt vide det før vi får et færdigt produkt at se.

Mig bekendt har Intel også et rimeligt skod grafik kort på market som ikke yder fantastisk, men alligevel sælger de meget godt. Så jeg gætter på at AMD går efter dette markede hvor hvis de bare giver lidt bedre ydelse, lavere strømforbrug, og mest vigtigt at de koster mindre end Intel, nok skal blive en succes.
Gravatar #13 - Clauzii
9. feb. 2010 13:09
Der var engang hvor FPU-funktioner var noget man købte sig (dyrt!) til. Min første 8087 (FPU-delen til en 8086/88) kostede mig ihf. 1295,- i sin tid. CPU Cache var også noget man købte 'ved siden af', i dyre domme. I dag indeholder en CPU så begge disse dele. I chips til 300,-....

Det er kun logisk at GPU kommer med ind på samme die. Ikke noget hokus pokus eller noget, ren udvikling. Og det siger næsten sig selv at man ikke tager den største GPU (HD5870) og sætter sammen med en fire-kernet CPU. (Faktisk havde jeg regnet med at CPUen ville være to kerner, så fire lyder rigtigt godt!)

Med en GPU a.la. 54xx/55xx har man en mediecenter PC 'almost-on-one-chip'. Det tegner godt!

Og til dem der spiller, kan man jo stadig købe et dedikeret 'top-of-the-pops' grafikkort...
Gravatar #14 - Jakob Jakobsen
9. feb. 2010 13:11
Problemet er ikke CPUen problemet er at det ikke er Intel der laver den. Hvis Intel havde lavet 100% samme cpu, havde Terra rost den til skyerne.

Terra sidder og brokker sig over at man ikke kan definere en bærbar som spillebærbar. Alligevel skal han nok brokke sig over at der udkommer en chip med delt ram? Hvorfor det når man alligevel ikke skal spille på en bærbar?!?

Nej denne CPU er perfekt til de mindre bærbare der ikke skal trække det tungeste.
Gravatar #15 - terracide
9. feb. 2010 13:32
#14:
Alle IGP (og ydelse i samme lave katagori) kan rende mig.
Om det så er Intel, AMD eller NVIDIA der laver dem.

Hvis folk vil have en ide om ydelse i spil, så er dette et godt sted at starte:
http://anandtech.com/video/showdoc.aspx?i=3738&...

Bare husk på at Fusion vil være langsommere...ingen dedikeret GDDR3 bus, så den skal slås med CPU'en om bandwith.

Og hvad angår HTPC så imponere AMD ikke lige frem:
http://anandtech.com/video/showdoc.aspx?i=3738&...

Post-processiing er en by i Rusland...

Terra - Og så snakker vi 2011...der vil resultatet ser endnu mere ynkligt ud...
Gravatar #16 - terracide
9. feb. 2010 13:33
#13:
Du glemte at man også skal købe en GPU hvis man vil se højkvalitets video....
Gravatar #17 - Jakob Jakobsen
9. feb. 2010 13:34
#16
Nej man skal have en relevant GPU hvis man vil se video og spare processorkraft.
Der behøves ikke et eksternt grafikkort for at se 1024P
Gravatar #18 - gensplejs
9. feb. 2010 13:45
Jakob Jakobsen (17) skrev:
#16
Nej man skal have en relevant GPU hvis man vil se video og spare processorkraft.
Der behøves ikke et eksternt grafikkort for at se 1024P

Yarrr... Men i 2011 skal vi jo alle sammen køre QuadHD eller UltraHD i 3d...... Så har den ingen chance :-P
Gravatar #19 - vandfarve
9. feb. 2010 14:00
gensplejs (18) skrev:
[quote=Jakob Jakobsen (17)]Men i 2011 skal vi jo alle sammen køre QuadHD eller UltraHD i 3d...... Så har den ingen chance :-P


... på en netbook med 8"-skærm.

Yeah, right! :)
Gravatar #20 - mee
9. feb. 2010 14:36
#1

Forvent ikke høje clock hastigheder med det forbrug.

#4

AMD har snakket om Fusion lige siden de købte ATI, så det kan være 2011 lykkes for dem.

#terra

sut på en kaktus og check om du stadig kan mærke virkeligheden.

Halvdelen af alle grafikkort solgt er Intels integrerede møg og de fleste der ejer de kort er tilfredse med dem, hele verdenen render ikke rundt og spiller Operation Flashpoint Dragon Rising, specielt ikke på en bærbar.

Løsningen er ikke rettet imod vild ydelse, men samme område som intels Clarkdale løsning, AMD's version er desuden langt bedre sat sammen end Intels QPI/FSB rod i Clarkdale.
Gravatar #21 - zook
9. feb. 2010 14:46
terracide (2) skrev:
#1:
Ja, det lyder lige så "sygt" som onboard lyd, onboard LAN, onboard IGP...oh wait....

Terra - Jeg forudser MAX 2x nuværende IGP ydelse...og held og lykke med 32nm SOI...


Hvor er du evigt ensidig og irrelevant i dine betragtninger.

Lad os forstille os at process og hukommelses-teknologi ikke er fanget i et eller andet mystisk vakum, hvor intet ændrer sig.
Lad os forstille os en fremtid hvor båndbredde er øget og mængden af logik i forhold til plads er øget.
I denne meget hypotetiske fremtid, er det faktisk ikke helt utænkeligt at et on-chip design kunne være en bedre løsning.
Gravatar #22 - Decipher
9. feb. 2010 15:22
Jeg synes nu stadig at det er lidt åndssvagt at opfinde et nyt udtryk til fænomenet, om noget er Fusion vel NETOP en Central Processing Unit, når den samler det meste "processing" i én die.

Og så er det interessant, at de angiver TDP for CPU delen, men intet for GPU delen .. det er lidt som at sige, at chokoladekagen er mager, fordi man har brugt affedtet kakao...
Gravatar #23 - Mulpacha
9. feb. 2010 18:17
Hvor har folk den skøre ide fra at APU står for "Application Processor Unit"??? Det står for "Accelerated Processing Unit" og er en ganske almindelig SOC (System On a Chip) med flere CPU-kerner og en GPU enhed på samme chip.

AMD skrev:
Our strong roadmap for 2010 is scheduled to be followed with the advent of “Fusion” and the first Accelerated Processing Unit (APU) codenamed “Llano,” in 2011.


Kilde: AMD Blog
Gravatar #24 - -N-
9. feb. 2010 20:26
Atom forsvinder da fuldstændig, hvis det er muligt at få en CPU der bruger det halv i strøm når computeren køre på batteri og har desktop kraft når den sidder i stikkontakten.

Det lyder vildt at den bliver så fleksibel, men det er AMD jo efterhånden blevet gode til gennem ATI.
Gravatar #25 - røvskæg
9. feb. 2010 20:35
Ja. Det lydder jo meget godt, men jeg må sige at det er lang tiden siden jeg har set noget interessandt fra AMD, så jeg vil se det før jeg tror det.

Er i øvrigt temmeligt imponeret over Intels nye Atom D510. Hvilken også skulle være på vej i en 32 nm udgave.
Gravatar #26 - xenocrates
9. feb. 2010 21:26
#23 Nyheden er også blevet bragt på Ingeniøren, hvor journalisten desværre har lavet samme fejl. Umiddelbart lader det til at journalisten hos Arstechnica har læst forkert i AMDs pressemeddelelse og at denne så er blevet viderebragt både her og på www.ing.dk.
Gravatar #27 - Clauzii
9. feb. 2010 21:57
#16:
Mit 3650 spiller fint højkvalitetsvideo - all the way up...
Gravatar #28 - buchi
9. feb. 2010 22:24
"#13" skrev:
Min første 8087 (FPU-delen til en 8086/88) kostede mig ihf. 1295,- i sin tid. CPU Cache var også noget man købte 'ved siden af', i dyre


Nu er det bare sådan at der er to meget store forskelle på disse problematikker:
FPU (floating point unit, enhed til kommatalsberegninger) indeholde et fast set instruktioner. Cache skal selvfølgelig så tæt på cpu'en som muligt for at vi kan arbejde i de hastigheder vi gør.

Problemet med grafik (og for den sags skyld lyd) er at det er meget specialiserede instruktioner der skal bruges alt efter hvad computeren skal bruges til.

Som jeg ser det, kommer en CPU i fremtiden til at indeholde en del kerner der fungere som parallelprocessorer. Disse skal så have et reduceret instruktionssæt, men tilgengæld arbejde parallelt med nogle hundrede tråde.
Gravatar #29 - Clauzii
10. feb. 2010 22:48
#28:
GPUerne er jo samtidigt blevet forbedret med nye måder at beregne på, så også GPUen kan bruges til visse FPU-funktioner. Det ser jeg ikke som et problem ;)
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login