mboost-dp1

Intel

Dansk professor: Grafikkort bliver overflødige

- Via Comon - , redigeret af Avenger-

Både Nvidia og AMD udsender løbende nye, meget kraftige grafikchips, der i topmodel-udgaverne har en helt enorm regnekraft, som kan bruges til at vise de nyeste spil i højeste opløsning og alle detaljer.

Ifølge den danske forsker og Oscar-modtager Henrik Wann Jensen, der til dagligt arbejder hos University of California, hvor han er specialist i simulering af lys og materialer på computere, så vil de dedikerede grafikkort snart uddø.

ComOn har talt med den danske forsker, og han fortæller, at de nye processorer med indbygget grafikkerne vil være fremtiden.

Henrik Wann Jensen til ComOn skrev:
Det er rigtigt at gpu’er har været nødvendige, men jeg tror ikke, at vi har brug for dem længere nede af vejen. De spil, som kræver et hurtigt grafikkort i dag, vil kunne køre på den fusionerede cpu og gpu om nogle år.

Oven i sin dom over grafikkortene forudser han ligeledes, at bliver der behov for ekstra regnekraft, så vil man finde det i skyen og streame det direkte til sin computer.





Gå til bund
Gravatar #1 - Avatar1301
4. okt. 2010 13:46
Har gået og spekuleret i samme baner :P
Gravatar #2 - suc4
4. okt. 2010 13:48
Stavefejl i titel
Gravatar #3 - nielsbuus
4. okt. 2010 13:58
Hvordan er dette forslag anderledes end integreret grafik som vi kender det?
Gravatar #4 - pezzen
4. okt. 2010 14:05
Har man ikke os sagt at man er ved at nå max hvad man kan presse ud af CPU'er?

Hvis man er nået max på den teknologi vi har nu, så vil grafikkortet blive.
Gravatar #5 - NutZ
4. okt. 2010 14:08
Har han modtaget en Oscar? - er han så professor / skuespiller? - eller er det mig der er helt mis-informeret her?
Gravatar #6 - Anders Fedеr
4. okt. 2010 14:10
pezzen (4) skrev:
Har man ikke os sagt at man er ved at nå max hvad man kan presse ud af CPU'er?

Nej, du tænker på transistor(kredse). Både GPU og CPU er baseret på transistorer.
Gravatar #7 - Dragoe
4. okt. 2010 14:15
#5
Har han modtaget en Oscar? - er han så professor / skuespiller? - eller er det mig der er helt mis-informeret her?


Han er ikke skuespiller men modtog i stedet en oscar for Special FX. Prisen blev vundet for det banebrydende arbejde som han var med til at skabe netop med simulering af lys på computerskabt hud. Det var arbejdet med Gollum fra Ringenes Herre som han vandt prisen for. Så han er stadig professor og ikke skuespiller :)
Gravatar #8 - Dysorl
4. okt. 2010 14:30
Stating the obvious. You're doing it right!
Gravatar #9 - dummyddd
4. okt. 2010 14:31
#3
Forskellen er at vi (forhåbentligt) om nogle år vil begynde at bruge grafikkort til at lave andre beregninger end grafiske, og det derfor ikke længere kan betale sig at have super dårlige (integrerede) grafikkort på markedet. Ved at integrere cpu og gpu kan man endvidere reducere forsinkelsen i kommunikation imellem de to.
Personligt tvivler jeg på hans udtalelse, da Nvidia nok har andre planer.
Gravatar #10 - Leth
4. okt. 2010 14:33
Sagde man ikke også det for 10+ år siden da Pentium MMX CPU´en kom frem?
Gravatar #11 - BrianB
4. okt. 2010 14:45
I sidste ende bliver det vel et spørgsmål om man kan komme af med varmen. Hvis man slår 2 chips sammen som hver laver ca. 200watt varme, så må man jo komme til at stå med én chip som laver 400watt varme.
Men jeg tvivler, for det virker usandsynligt at alt det som sidder på et grafikkort skulle kunne få plads i en CPU. Så ville man nok vælge at fylde CPU'en op med nogle flere kerne.
Gravatar #12 - Remmerboy
4. okt. 2010 14:49
jeg tror ikke, at han ved at gpu med høj regnekraft bliver mest brugt til computerspil. dette kræver realtime rendering.
når man laver cgi i film, tager det fra minutter til timer at render 1 fps. det kan man ikke leve med i privaten.
terminator 2, tog sikkert dage at render 1 fps i sin tid. så det er da blevet hurtigere, men så længe det ikke er realtime, vil gpu altid været påkrævet
Gravatar #13 - heinz
4. okt. 2010 14:51
..bliver der behov for ekstra regnekraft, så vil man finde det i skyen og streame det direkte til sin computer.

Er jeg den eneste her der synes at det er en dårlig idé?
Jeg kan ikke se hvorfor jeg skal streame regnekraft til min computer... Så vil jeg til en hver tid have en GPU i min computer, end at skulle bruge bredbånd på sådan noget pjat.
Gravatar #14 - Lares
4. okt. 2010 14:52
Hvis alle de planer som folk har med "skyen" skal blive en realitet, så kræver det nok lige, at vi får noget mere fart på forbindelserne. Men lige på dét punkt er der åbenbart ingen der har travlt.
Gravatar #15 - -N-
4. okt. 2010 15:16
#4 Den nåede man allerede med Pentium 4 extra hot versionen.

CMOS kan i dag max håndtere 4.x GHz, derfor vi ikke bare hæver frekvenzen på CPU med øger antallet af kerne. Vi har pt. ikke nogen mulighed for at øge frekvenzen udover den grænse vi kender i dag.

Så på den måed er grænsen nået, men der er jo mange muligheder for at øge hastigheden udover frekvenzen, hvilket du jo nok har lagt mærke til.

#0 Det vare vist nogle år før vi kan håndtere den kompleksitet der skal til for at lave en hybrid chip.

Men sprøgsmålet er om det ikke er hæmmende for mulighederne for at differentiere mellem kunder på markedet og dermed underminere sig selv.

I dag kan man lave en computer med en relativ stor cpu og en vilkårlig gfx ydelse, det kan man ikke ved en hybrid chip.

Onboard lyd og lan er jo også kun meget basalt, er men lidt kvalitets bevidst springer man uden om, ihvertfald på lydsiden. Siden er ikke er kommet bundkort med bedre lyd en skrammel, så må det betyde, at forbrugerne har et enormt behov for at differentiere og mon ikke det samme gør sig gældende på gfx markedet, hvor marginalerne også her har en betydning på flere 100,- pr. frame i highend markedet.
Gravatar #16 - ipwn
4. okt. 2010 15:23
Tror ikke på det.

Spillenes brug af regnekraften stiger med ydelsen af grafikkortene. Nægter at tro på at man i den nærmeste fremtid har nået en ydelse hvor der ikke længere er brug for det.

Der er uendeligt mange CG metoder der blot venter på at blive brugt, samt kombinationerne heraf, og resolutionen af alting kan forbedres. Selv hvis der ikke var flere metoder, kan man jo så begynde at erstatte monte carlo baserede renderings teknikker med fuld sampling, hvilket vi da overhovedet slet ikke, i de næste ti år, kommer tæt på!

Pjat siger jeg.

(Selv hvis der bliver ydelse til overs, så giver det blot plads til nedprioterede systemer såsom AI, som også kræver enorme ressourcer hvis nogen af de nyere teknikker skal i brug især indenfor maskin læring - og lur mig ikke om de kan køre på GPU ligesom fysik gør det nu)
Gravatar #17 - HerrMansen
4. okt. 2010 15:26
Så længe at der er spil som Crysis osv. i eksistens så tivler jeg sgu på at gamere går med til at skulle udskifte CPU+GFX hybridkernen hver gang at maskinen begynder at hoste en smule.

Næh du. Moduler, det ved man hvad er.
Gravatar #18 - Bomimo
4. okt. 2010 15:31
#17 Så altså så længe at der er håbløst uptimerede spil med skrækkelige texturer og grafik effekter der er 10 gange tungere end alle de andre engines, så kan vi ikke have en hybrid? jeg vil heller ikke have en hybrid, men kan i sukkerknaldsunger ikke komme over crysis og komme videre? Nutidens tungeste, mest uoptimede dynge lort er Metro 2033. Det ved alle.

Seriously though, Crysis er meget grimt ifølge dagens standard... fatter ikke at folk stadig roder rundt i om det er et tungt spil mere... For mig er det som at spille minestryger.
Gravatar #19 - Mr.DNA
4. okt. 2010 15:54
og så er der nogen der mener det modsatte:

http://www.xbitlabs.com/news/video/display/2010100...
Gravatar #20 - crankyrabbit
4. okt. 2010 16:07
#18
kan du ikke lige smide et link til det minestryger du spiller..For det jeg kender ser åbenbart meget anderledes ud end det du spiller..lol
Gravatar #21 - Sugardad
4. okt. 2010 16:52
man skal ikke altid tage en eksperts udtalelser seriøse, ofte ved de ikke en disse mere om fremtiden end os andre.

men hvis det sker bliver det dejligt at undvære de KÆMPE grafikkort, så mangler vi bare noget mere effektivt køling til cpu som ofte fylder lige så meget som grafikkortet. i min egen computer har jeg kun få ekstra milimeter at gøre med, både med cpukøleren og grafikkortet
Gravatar #22 - Bundy
4. okt. 2010 17:21
-N- (15) skrev:
CMOS kan i dag max håndtere 4.x GHz, derfor vi ikke bare hæver frekvenzen på CPU med øger antallet af kerne. Vi har pt. ikke nogen mulighed for at øge frekvenzen udover den grænse vi kender i dag.


Det forstår jeg ikke helt, kan du uddybe? Jeg synes da jeg har set CPU'er over 5GHz - ganske vidst clockede, men still ..
Gravatar #23 - Cybermaze
4. okt. 2010 17:29
Ligesom ram controlleren er flyttet til cpu'en, og Southbridge'en delvist er udfaset til fordel for en super Northbridge, så virker det som en naturlig udvikling at flytte onboard grafikkort over på cpu'ens print (læs, grafikkort med begrænset ydelse).

Men jeg tror ærlig talt heller ikke på, at vi får high-end løsninger inden for den nærmeste fremtid, der er on-die sammen med cpu'en. Dertil er der stadig mange udfordringer, ikke bare varmeudvikling, men også at få plads til skidtet uden at det bliver alt for stort. High-end grafikkort har tilmed stadig brug for dedikeret ram, så det bliver noget af en socket, der skal trække det hele.
Gravatar #24 - Oculus
4. okt. 2010 18:19
MadiZone (3) skrev:
Hvordan er dette forslag anderledes end integreret grafik som vi kender det?
Integreret grafik-løsninger er stadigvæk 2 chips, hvor det der tales om her er én?
Gravatar #25 - Che0ps
4. okt. 2010 18:22
-N- (15) skrev:

CMOS kan i dag max håndtere 4.x GHz, derfor vi ikke bare hæver frekvenzen på CPU med øger antallet af kerne. Vi har pt. ikke nogen mulighed for at øge frekvenzen udover den grænse vi kender i dag.


CMOS'en har ingenting med den begrænsning at gøre, eneste CMOS'en gør er at opbevare data, så som settings i bios, tid/dato mm.

Højeste validerede clock ligger på 8.199mhz lige pt :)
Gravatar #26 - Oculus
4. okt. 2010 18:23
Lares (14) skrev:
Hvis alle de planer som folk har med "skyen" skal blive en realitet, så kræver det nok lige, at vi får noget mere fart på forbindelserne. Men lige på dét punkt er der åbenbart ingen der har travlt.

Skyen er det nye .com

Halvdelen af de ting folk snakker om skal klares i "skyen" har så lav en latency tærskel, at bare selve forbindelsens latency i selve arkitekturen til "skyen" er for meget.
Gravatar #27 - Anders Fedеr
4. okt. 2010 18:30
#26 Uden at kende særlig meget til grafikprogrammering vil jeg forestille mig at der er beregninger der er mindre latency-afhængige end andre? Eksempelvis kunne et MMO eller FPS måske rendere dele af scenen i skyen inden man træder ind i den, og kun rendere real-time ændringer i den lokalt.
Gravatar #28 - Clauzii
4. okt. 2010 19:34
#25:
CMOS er en fremstillingsteknik! Det du snakker om er BIOSen, som godt KAN være lavet med CMOS teknik.

Men CMOS ER en begrænset teknik, der har en øvre grænse for frekvens.
Gravatar #29 - TrolleRolle
4. okt. 2010 20:54
Er jeg den eneste som synes at Henrik Wann Jensen er lidt sent ude med denne udtalelse?
Det samme er blevet sagt hundrede gange før af både Intel og divs nørder (som bare har set tendensen og tænker sig lidt om).... men når Henrik Wann Jensen pludselig siger det, så er han sgu den nye Einstein/Sherlock Holmes og hans ord er lov.

Det kan naturligvis være COMON som blæser det helt vildt op. Det er jo ikke første gang de ikke lige følger med i hvad der sker inden for IT ...

Gravatar #30 - -N-
4. okt. 2010 21:06
#22 Under hvilke forhold?

Hvis du fryser helium ned til absolut nul kan det løbe gennem solids.

Det regner man dog ikke med det kan under normale forhold.

Ja du kan lave nogle sjove eksperimenter, men det er ikke realtisk at have en cpu kølet ned til under nul.

Men under normale forhold, hvor luft el. vandkøling er mulighederne, så ligger grænsen noget lavere.

Det er en fysisk grænse, så med mindre man finder et andet matriale eller kan ændre forholdene cpu arbejder under radikalt, så vil grænsen altid være der.
Gravatar #31 - -N-
4. okt. 2010 21:07
#25

http://en.wikipedia.org/wiki/CMOS

Hvorfor rater folk sjov/irrelevant bare fordi de ikke ved hvad man skriver om?

Der burde være en "Jeg ved ikke hvad der bliver snakket om, men jeg VIL rate" rating :-D
Gravatar #32 - Viggo
4. okt. 2010 22:50
Bomimo (18) skrev:
Seriously though, Crysis er meget grimt ifølge dagens standard...


Denne video hvor Crysis er modded er da ikke så slem at se på
Gravatar #33 - Dr_Mo
4. okt. 2010 23:45
#31
Du skriver at CMOS i dag kan håndtere max 4,x GHz. Derefter skriver du at grænsen er nået.

Er grænsen nået for i dag eller for altid? Det er rigtig at vi pt ikke kan komme meget højere end 4.xGhz, men hvad med når vi kommer ned på 11nm eller 7nm? Kan vi måske komme op det dobbelte? 9GHz? Hvis ja, så er det du skriver om, at grænsen er nået forkert. Ratingen irrelevant ville være passende, da du selv ikke ved hvad du snakker om :-)
Gravatar #34 - AlienDarkmind
5. okt. 2010 06:02
Tror ikke manden ved at der findes computer spil.. Så længe der er det, så længe er der brug for et grafikkort som kan skiftes ud uden at skulle rykke på CPU'en.. Kan se at der ikke var brug for det hvis spil kun var på konsol, så var det bare at smide endnu et middelmådigt grafik/CPU i maskinen og sige det var nextgen:P

I øvrigt hvad gør ham kvalificeret til at Komme med en udtalelse som kan være reel for market?
Gravatar #35 - MOA
5. okt. 2010 06:14
Successen ligger i valgmulighederne for grafikkortene.
Gravatar #36 - Scapegoat
5. okt. 2010 06:23
Sæt dig over i hjørnet og strik dig en cardigan!

Grafikkort bliver unødvendige, den dag der er en som sætter sig ned og beslutter sig for at lave en helt ny arkitektur. Så slipper vi også af med de gamle idéer der er med x86 arkitekturen. Jeg har ikke selv en bedre måde at gøre tingene på, men der er bare en del (unødvendig) bagudkompatibilitet, og flaskehalse/smuthuller osv. Den eneste rigtige måde at komme problemerne til livs er at starte forfra. Det kræver penge og tid, men det er muligt. Syntes det er sjovt at de computere vi har idag, bygger på noget som i realiteten er hvad... 40 år gammelt? Mere måske?

x86 blev udviklet til tekst-computere. Grafikken var noget som bare skulle tænde eller slukke, ikke noget med forskellige farver eller teksturer for den sags skyld.

Det er ligesom når der er folk som arbejder på at få BIOS'en til at starte hurtigere op. Det er nok snart kun muligt at optimere mere, hvis du smider x86 i skraldespanden og laver noget nyt.
Gravatar #37 - jAST
5. okt. 2010 06:39
<offtopic>
"... længere nede af vejen." - Et velkendt dansk ordsprog!

PLx 2 spike davis!
</offtopic>
Gravatar #38 - AViGu
5. okt. 2010 07:22
#31.
Ville gerne rate dig positivt, men fatter ikke at rate et indslag.
Er jeg bare almindelig dum, eller har jeg ikke "rights to rate"?
Gravatar #39 - knasknaz
5. okt. 2010 07:57
Skyen! Hahahah, for helvede da. Det er lige så hypet et begreb som augmented reality er lige for tiden (og virtual reality i midten af 90'erne.) Jeg tror mere på senator Ted Stevens... "The internet - It's a series of tubes." :D

"THE CLOUD! - it's still hot!"
Gravatar #40 - XorpiZ
5. okt. 2010 09:18
AViGu (38) skrev:
#31.
Ville gerne rate dig positivt, men fatter ikke at rate et indslag.
Er jeg bare almindelig dum, eller har jeg ikke "rights to rate"?


Jeg mener man skal være oprettet to måneder, før man må rate. Det står i FAQ'en et sted, men jeg gider ikke lige lede. :D
Gravatar #41 - AViGu
5. okt. 2010 10:02
Så skyldes det nok det :)
Jeg deaktiverede min gamle konto heeeeeelt tilbage dengang vores koder blev kompromiteret, og har bare ikke taget mig sammen før nu, med at få lavet en ny :D
Gravatar #42 - pleuph
5. okt. 2010 10:36
Flot, professor.
/Sarkasme
Gravatar #43 - el_barto
6. okt. 2010 09:33
Glæder mig til Henrik Wann Jensen bliver Pwned i en gang online Crysis med en fps på 2 og en latency på 20 minutter.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login