mboost-dp1

pci-sig
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Burde nok skifte de 4 raid diske ud med en SSD, eller bare få smidt en SSD disk i den bærbare. :) Hvornår kommer det her til en bærbar? :D
#3 Ty
Du har ret. Hvorfor laver de ikke bare CPU'er på 256 cores og 100 GHz allerede nu? Hvorfor får vi ikke bare 64 TB ram allesammen? Hvorfor ikke bare lave SATA på 1 Tbps fra start? Hvorfor laver de ikke bare batterier der kan holde i uger allerede nu? Hvorfor laver de ikke bare SSD'erne på 4 TB nu?
Jeg er helt enig. Hvorfor ikke? Måske fordi det skal ske i takt med udviklingen på området?
Du har ret. Hvorfor laver de ikke bare CPU'er på 256 cores og 100 GHz allerede nu? Hvorfor får vi ikke bare 64 TB ram allesammen? Hvorfor ikke bare lave SATA på 1 Tbps fra start? Hvorfor laver de ikke bare batterier der kan holde i uger allerede nu? Hvorfor laver de ikke bare SSD'erne på 4 TB nu?
Jeg er helt enig. Hvorfor ikke? Måske fordi det skal ske i takt med udviklingen på området?
ty (6) skrev:pewbe, du er nødt til at uddybe, hvorfor du mener det er irrelevant.
#7 siger det meget godt. Og der er flere eksempler:
Hvorfor finder forskere ikke bare en forenet teori for alting?
Hvorfor har vi ikke kolonier på Mars?
Hvorfor har vi ikke fungerende fuisonsreaktorer?
Osv osv osv...
ty (11) skrev:#10 Du har ikke forstået pointen.
Nej, det er DIG der ikke har forstået pointen! De gjorde det ikke fra starten af, af den simple grund at det ikke var muligt på det tidspunkt!
ty (13) skrev:Og hvad er dit argument for, at det ikke var muligt?
At de ikke havde redskaberne til det.
At der ikke var brug for det.
ty (15) skrev:Redskaberne? En bus er til at overføre data på. Det kan være hvilken som helst form for data. Bussen ER redskabet...
Men den skal lige laves før den kan bruges!
ty (17) skrev:SATA og PCI express er sådan cirka fra det samme år
Nu handler det om hastighederne de kan opnå, ikke hvornår de er lavet.
Men fortæl mig gerne hvordan de skulle have lavet det med de hastigheder fra starten af, jeg er faktisk nysgerrig.
ty (17) skrev:SATA og PCI express er sådan cirka fra det samme år
Eller ca. et år fra hinanden ;)
SATA - 2003
PIC-E - 2004
Så hut jeg visker
ty (21) skrev:Hvad? Jeg taler om at have brugt PCI express fra starten af. Hastigheden mellem controller og harddisk havde så fulgt udviklen af PCIe. Så havde man sparet krafterne på at have udviklet på to busser.
Se, det giver mere mening. Men det var ikke det jeg læste af dit indlæg, som du nok har lagt mærke til.
#25
Hvis man skulle ændre det så helst noget der ligner Thunderbolt
Den har nogle begrænsninger der ikke helt gør den klar til intern brug.
Men ideen er god nok med en "ægte" universel port, der også kan overføre strøm.
Ville være sweet med en port med fiber omgivet af metalleder til overførsel af strøm til intern og ekstern brug.
Hvis man skulle ændre det så helst noget der ligner Thunderbolt
Den har nogle begrænsninger der ikke helt gør den klar til intern brug.
Men ideen er god nok med en "ægte" universel port, der også kan overføre strøm.
Ville være sweet med en port med fiber omgivet af metalleder til overførsel af strøm til intern og ekstern brug.
#25:
På den interne bus arbejder enhederne langt, langt over 10 Gb/s - 10 Gb/s er slet, slet ikke hurtigt nok.
Til ty' spørgsmål hvorfor gjorde de det ikke fra starten af?
svaret er meget enkelt - det er for dyrt. SRAM buffere er ikke billige, de koster i omegnen af 100x mere og producere per MB. Busser af den størrelsesorden der skal transportere den mængde data med den hastighed vil kræve at registrene er baseret på SRAM, istedet af registrene baseret på DRAM i stedet. PCI-E bussen skal jo også få data fra CPU (baseret på SRAM) og memory som er baseret på DRAM. Det kan SAGTENS lade sig gøre og købe SSDere der bruger en PCI-E bus baseret på SRAM - De er bare meget, meget dyrere end konventionelle SSD diske.
- Og til jer andre, spørgsmålet er relevant nok. I stedet for at bitche, så giv et uddybende svar.
På den interne bus arbejder enhederne langt, langt over 10 Gb/s - 10 Gb/s er slet, slet ikke hurtigt nok.
Til ty' spørgsmål hvorfor gjorde de det ikke fra starten af?
svaret er meget enkelt - det er for dyrt. SRAM buffere er ikke billige, de koster i omegnen af 100x mere og producere per MB. Busser af den størrelsesorden der skal transportere den mængde data med den hastighed vil kræve at registrene er baseret på SRAM, istedet af registrene baseret på DRAM i stedet. PCI-E bussen skal jo også få data fra CPU (baseret på SRAM) og memory som er baseret på DRAM. Det kan SAGTENS lade sig gøre og købe SSDere der bruger en PCI-E bus baseret på SRAM - De er bare meget, meget dyrere end konventionelle SSD diske.
- Og til jer andre, spørgsmålet er relevant nok. I stedet for at bitche, så giv et uddybende svar.
#25:
.. og da der så ikke skulle have været brugt resourcer på SATA, kunnet de have været brugt på en endnu bedre PCIe fra starten af, med flere porte i controlleren osv.
Men man huske at det hele er begyndt et sted - med noget der blev tegnet på et stykke papir, og hvor en (computer)chip blev lavet i store rum med strimler klistret på gulvet.
Denne process er idag noget der foregår på en skærm og sendes over internettet til en fabrikant i fjernøsten, der så næsten fuldautomatisk kan producere X antal chips indimellem andre udvikleres X antal chips, 24/7 ~365.
En enorm udvikling, der ikke bare sådan kan komme overnight. Jeg ville da gerne have set HELE internettet rullet ud på et par måneder, ingen tvivl, men det tager nu engang også tid at lægge kabler i jorden, bygge/opgradere server-centre, få forskellige landes systemer til at snakke sammen osv. osv.
Jeg kan sagtens se at der ved visse teknologier holdes igen.
F. eks. tog det Intel ca. 10! år at komme med et 10 Gbit serielt interface til PCer, selvom teknikken allerede var mere eller mindre klar i DK, da Intel købte det danskudviklede produkt og firma for kr. 10 mia.
Der er desværre så også buisness-politik med i spil.
Hvordan skal fremtiden se ud, de såkaldte roadmaps.. Det kan et enkelt firma ikke gøre alene. De forskellige stumper er nødt til at spille sammen, og firmaer er på globalt plan også nødt til at samarbejde om fremtiden, da verden er blevet så 'afhængig' af computere, at der ikke er en vej tilbage.
Men selvfølgelig skal udviklingen fortsætte og blive endnu bedre!
Og, .. der er penge i licenser...
.. og da der så ikke skulle have været brugt resourcer på SATA, kunnet de have været brugt på en endnu bedre PCIe fra starten af, med flere porte i controlleren osv.
Men man huske at det hele er begyndt et sted - med noget der blev tegnet på et stykke papir, og hvor en (computer)chip blev lavet i store rum med strimler klistret på gulvet.
Denne process er idag noget der foregår på en skærm og sendes over internettet til en fabrikant i fjernøsten, der så næsten fuldautomatisk kan producere X antal chips indimellem andre udvikleres X antal chips, 24/7 ~365.
En enorm udvikling, der ikke bare sådan kan komme overnight. Jeg ville da gerne have set HELE internettet rullet ud på et par måneder, ingen tvivl, men det tager nu engang også tid at lægge kabler i jorden, bygge/opgradere server-centre, få forskellige landes systemer til at snakke sammen osv. osv.
Jeg kan sagtens se at der ved visse teknologier holdes igen.
F. eks. tog det Intel ca. 10! år at komme med et 10 Gbit serielt interface til PCer, selvom teknikken allerede var mere eller mindre klar i DK, da Intel købte det danskudviklede produkt og firma for kr. 10 mia.
Der er desværre så også buisness-politik med i spil.
Hvordan skal fremtiden se ud, de såkaldte roadmaps.. Det kan et enkelt firma ikke gøre alene. De forskellige stumper er nødt til at spille sammen, og firmaer er på globalt plan også nødt til at samarbejde om fremtiden, da verden er blevet så 'afhængig' af computere, at der ikke er en vej tilbage.
Men selvfølgelig skal udviklingen fortsætte og blive endnu bedre!
Og, .. der er penge i licenser...
Nu spørger jeg dumt, men hvordan kan det være at der er så stor en forskel fra teoretisk til praksis dataoverførsel?
Nu forøger de den teoretiske hastighed, og dermed også den praktiske, men hvorfor ikke bare forøge den praktiske hastighed? Der er jo massere af headroom at give af, medmindre jeg selvfølgelig har misforstået noget her :)
Nu forøger de den teoretiske hastighed, og dermed også den praktiske, men hvorfor ikke bare forøge den praktiske hastighed? Der er jo massere af headroom at give af, medmindre jeg selvfølgelig har misforstået noget her :)
#30
Er du klar over at 8Gb/s betyder 8 Giga-bit-per-sekundt og at 1 GB/s betyder 1 Giga-Byte-per-sekundt? Der går 8 bit på 1 Byte
Udover det, så står der ikke i artiklen at 6 Gb/s teoretisk hastighed er godt 600 MB/s i praksis når vi taler om SATA, men det kan godt være at det er almen viden som jeg ikke har...
Er du klar over at 8Gb/s betyder 8 Giga-bit-per-sekundt og at 1 GB/s betyder 1 Giga-Byte-per-sekundt? Der går 8 bit på 1 Byte
Udover det, så står der ikke i artiklen at 6 Gb/s teoretisk hastighed er godt 600 MB/s i praksis når vi taler om SATA, men det kan godt være at det er almen viden som jeg ikke har...
Hekatombe (32) skrev:
Udover det, så står der ikke i artiklen at 6 Gb/s teoretisk hastighed er godt 600 MB/s i praksis når vi taler om SATA, men det kan godt være at det er almen viden som jeg ikke har...
SATA er 8b/10b encoded, så der går 10 bit på en byte.
Der er lidt forskel på teori og praksis her, og lidt forskel på begreber der desværre kan hedde det samme.. bla. fordi marketingsfolk har prøvet at sælge det uden helt at forstå det:
baud rate / bit rate er antal gange den elektriske bus kan skifte med.
afhængig af bussen er der enten en synkroniserende master clock, som alle følger, eller ikke, det kommer an på om bussen er tænkt som master/slave eller som flad struktur.
Før nogen siger (det ene er et netværk og det andet en bus) vil jeg gerne henlede opmærksomheden på CAN (Controller Area Network) som i sin egen specifikation kalder sig en bus.. der er også en god forklaring på hvorfor..
hvis der ikke er en master clock, skal enhederne finde ud af om der bliver sendt noget, og hvornår et bit starter og hvor hurtigt bussen kører.
derfor er der tit noget encoding hvor et bit f.eks. skifter med fast frekvens, og derimellem kan et møster så afsløre om man prøver at sende et 1 eller et 0.
det laver en division på bussen af den praktiske bitrate. typisk division med 2 eller 4
Den resulterende data overførsels hastighed er også den teoretiske maximale bitrate på bussen, men ikke den maximale baudrate, selvom det ofte misbruges i denne sammenhæng..
Så skal der undertrykkes støj, hvis tåben der installerer kablerne trækker dem lige forbi strømforsyningen skal det jo helst stadig virke.
Der kan man f.eks. bruge : http://en.wikipedia.org/wiki/Hamming_code eller lign. som tilfører lidt overhead.
Det begrænser igen bitraten, afhængig af hvor man begynder at måle fra.
Så er der protokol overhead som adressen på modtageren, længde på datapakken, antal datapakker, en checksum og andet.
på mange busser er der omtrent 1/4 overhead til protokol
på nogle mindre på nogle mere..
Det er stadigvæk den teoretiske max hastighed vi får, men denne gang er det max byte rate.. da datapakker er større end 1 bit, ofte mange bytes.
Så er der retransmissioner, hvis en pakke kommer frem, og cheksummen ikke passer, eller encoding afslører bitfejl der ikke kan rettes, så kan man (f.eks. ved TCP) forvente at få den data pakke igen. (Det sker f.eks. på hardware laget i CAN, så det er ikke kun en ethernet feature)
retransmissioner er selvfølgelig støj afhængigt, så derfor vil den praktiske altid være lavere end den teorietiske, selvom den teoretiske kan være (måske ikke er) kompenseret for overhead / encoding / bit encoding
baud rate / bit rate er antal gange den elektriske bus kan skifte med.
afhængig af bussen er der enten en synkroniserende master clock, som alle følger, eller ikke, det kommer an på om bussen er tænkt som master/slave eller som flad struktur.
Før nogen siger (det ene er et netværk og det andet en bus) vil jeg gerne henlede opmærksomheden på CAN (Controller Area Network) som i sin egen specifikation kalder sig en bus.. der er også en god forklaring på hvorfor..
hvis der ikke er en master clock, skal enhederne finde ud af om der bliver sendt noget, og hvornår et bit starter og hvor hurtigt bussen kører.
derfor er der tit noget encoding hvor et bit f.eks. skifter med fast frekvens, og derimellem kan et møster så afsløre om man prøver at sende et 1 eller et 0.
det laver en division på bussen af den praktiske bitrate. typisk division med 2 eller 4
Den resulterende data overførsels hastighed er også den teoretiske maximale bitrate på bussen, men ikke den maximale baudrate, selvom det ofte misbruges i denne sammenhæng..
Så skal der undertrykkes støj, hvis tåben der installerer kablerne trækker dem lige forbi strømforsyningen skal det jo helst stadig virke.
Der kan man f.eks. bruge : http://en.wikipedia.org/wiki/Hamming_code eller lign. som tilfører lidt overhead.
Det begrænser igen bitraten, afhængig af hvor man begynder at måle fra.
Så er der protokol overhead som adressen på modtageren, længde på datapakken, antal datapakker, en checksum og andet.
på mange busser er der omtrent 1/4 overhead til protokol
på nogle mindre på nogle mere..
Det er stadigvæk den teoretiske max hastighed vi får, men denne gang er det max byte rate.. da datapakker er større end 1 bit, ofte mange bytes.
Så er der retransmissioner, hvis en pakke kommer frem, og cheksummen ikke passer, eller encoding afslører bitfejl der ikke kan rettes, så kan man (f.eks. ved TCP) forvente at få den data pakke igen. (Det sker f.eks. på hardware laget i CAN, så det er ikke kun en ethernet feature)
retransmissioner er selvfølgelig støj afhængigt, så derfor vil den praktiske altid være lavere end den teorietiske, selvom den teoretiske kan være (måske ikke er) kompenseret for overhead / encoding / bit encoding
Jim Night (36) skrev:Du mener forhåbentlig 600 MB/s ;)
Damn jeg synes de evige enheds fejl, forvirring og korrektioner af fx mega bit og byte er trælse. De skulle de aldrig have lavet dem case sensative.
Anyways.. når teknologien ser lyset for første gang er der ikke nogen der ved om den overhovedet bliver populær. Det svarer lidt til at bruge flere år på at kode "verdens bedste website" hvorefter det viser sig at der ikke rigtigt er nogen der gider at bruge det og så står man der med 100.000 linjers "pæn kode" (woohoo :) ).
Start et sted. Se om det holder. Udvid og forbedr det.
Tillykke SATA. Du gør det godt. Keep up the good work!
Firewire kunne være et godt bud på en standard der kunne bruges til både externe og interne enheder hvis standarden blev udvidet og opgraderet.
Kunne være ret nice hvis alting kunne plugges i samme stik uanset om det er et tastatur, et grafik kort eller noget helt tredje.
Så ville det også være rart hvis man kunne lade være med at lave 4-5 forskellige stik til den samme standard og endda _EFTER_ den er blevet mainstream med de oprindelige stik.. her tænker jeg på USB som pludselig blev til mini USB, mikro USB og et hav af andre stik... herunder m$ usb controller porte på deres XBOX .
Kunne være ret nice hvis alting kunne plugges i samme stik uanset om det er et tastatur, et grafik kort eller noget helt tredje.
Så ville det også være rart hvis man kunne lade være med at lave 4-5 forskellige stik til den samme standard og endda _EFTER_ den er blevet mainstream med de oprindelige stik.. her tænker jeg på USB som pludselig blev til mini USB, mikro USB og et hav af andre stik... herunder m$ usb controller porte på deres XBOX .
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.