mboost-dp1

bit-tech.net
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
#2: De grafikkort der sælges som den dårligere model passerer normalt ikke standarderne for den bedre model - så i stedet for at kassere modellen deaktiveres den problematiske del af grafikkortet/underclockes den og den sælges som en lavere model.
Dette er noget der gøres som standard i computerindustrien, det er en måde at nøjes med en produktlinje for flere produkter samt at kunne få solgt de "dårligere" produkter der faktisk virker fint ved en lavere clock og med deaktiveret hardware.
Med processorer er det f. eks de chips der har det mindste antal fejl, som clockes højst.
Se http://en.wikipedia.org/wiki/Product_binning
Dette er noget der gøres som standard i computerindustrien, det er en måde at nøjes med en produktlinje for flere produkter samt at kunne få solgt de "dårligere" produkter der faktisk virker fint ved en lavere clock og med deaktiveret hardware.
Med processorer er det f. eks de chips der har det mindste antal fejl, som clockes højst.
Se http://en.wikipedia.org/wiki/Product_binning
Ofte er det også mere økonomisk at lave en version CPU / GPU og så justere på ydelsen via software ( BIOS, Firmware etc. )
v1ct0r (2) skrev:Jeg forstår ikke helt hvorfor man tager en chip, gør den dårligere og sælger den billigere.. Hvorfor ikke bare sælge den originale chip så billigt til at begynde med?
Ja, hvorfor ikke blot sælge alle de dyre chips til den pris det koster at fremstille dem + 5%?
Fordi det koster penge at udvikle chips og de store udgifter der er ved chipdesign og udvikling skal dækkes primært ved salget af de chips der er kraftigst.
Det er samme piveri som folk kom med dengang Intel sagde at du kunne opgradere din CPU senere for et beløb. Folk er tossede over at skulle betale for en chip der er begrænset, selvom de betaler en lavere pris. Intel fremstår som onde pengepugere der udnytter kunderne, selvom kunderne reelt får den ydelse de har betalt for.
v1ct0r (2) skrev:Jeg forstår ikke helt hvorfor man tager en chip, gør den dårligere og sælger den billigere.. Hvorfor ikke bare sælge den originale chip så billigt til at begynde med?
Det gøres på den måde, fordi det er for besværligt at lave en chip der passer til præcis de specifikationer man ønsker. Derfor laves der en chip som minimum opfylder de specifikationer man ønsker, og derefter begrænser man chippen så den er stabil.
En typisk 500Gb HDD har mellem 150-400Gb utilgængelig plads, der er blevet spærret af med software. På en HDD kan man ofte bruge et program som til at fuske sig til den ekstra plads
mireigi (7) skrev:En typisk 500Gb HDD har mellem 150-400Gb utilgængelig plads, der er blevet spærret af med software. På en HDD kan man ofte bruge et program som til at fuske sig til den ekstra plads
Det har jeg godt nok aldrig hørt om før!
Men det lyder ikke som om jeg har lyst til at afprøve din påstand, det skulle jo lige passe at al den vigtigste data (pornofilmene) bliver smidt på det "kritiske område" og så er mistet igen...
#7:
Gad godt lige se den kilde hvor du har den påstand fra...
150-450GB...Det er satme meget data...
I de nye diske kører de med op til 4 plader der bruger "Perpendicular recording" med en datatæthed på mellem 150GB og 500GB, hvor dem med størst datatæthed er de dyreste, da der så typisk kun er 3 plader i, som giver bedre strømforbrug...
Men standard 2TB diske kører pt. med 4 plader da de har den største datatæthed.
Og så afhængig af og du bruger 512byte eller 4096byte logiske blokke, så opnår du en bedre udnyttelse af din disk.
Så når du så skriver at der er et "magisk" program, så er det nok et der ændre disken til at bruge 4096byte i stedet for 512byte, og derved får adgang til utilgængelig data, hvilket typisk ikke er mere end 150MB.
Og som en lille sidenote, så skriver du 150Gb-450Gb, som er Giga-bit og ikke Giga-byte, hvilket nok er en tastefejl fra din side.
Det er tilladt at rette på mig, hvis der er noget af det jeg skriver som er ukorrekt...
Gad godt lige se den kilde hvor du har den påstand fra...
150-450GB...Det er satme meget data...
I de nye diske kører de med op til 4 plader der bruger "Perpendicular recording" med en datatæthed på mellem 150GB og 500GB, hvor dem med størst datatæthed er de dyreste, da der så typisk kun er 3 plader i, som giver bedre strømforbrug...
Men standard 2TB diske kører pt. med 4 plader da de har den største datatæthed.
Og så afhængig af og du bruger 512byte eller 4096byte logiske blokke, så opnår du en bedre udnyttelse af din disk.
Så når du så skriver at der er et "magisk" program, så er det nok et der ændre disken til at bruge 4096byte i stedet for 512byte, og derved får adgang til utilgængelig data, hvilket typisk ikke er mere end 150MB.
Og som en lille sidenote, så skriver du 150Gb-450Gb, som er Giga-bit og ikke Giga-byte, hvilket nok er en tastefejl fra din side.
Det er tilladt at rette på mig, hvis der er noget af det jeg skriver som er ukorrekt...
v1ct0r (2) skrev:Jeg forstår ikke helt hvorfor man tager en chip, gør den dårligere og sælger den billigere.. Hvorfor ikke bare sælge den originale chip så billigt til at begynde med?
Det er simpel økonomisk tankegang
1)sælg varen til de folk der vil give fuld pris
2)sælg varen til de folk der vil give 90% af fuld pris - men sørg for at dem som vil give 100% ikke springer ned og giver 90% (her: gør produktet lidt dårligere med en anden BIOS)
3)sælg varen til dem som vil give 80% - men sørg for at dem som vil give 90% og 100% ikke springer ned og giver 80%
4) osv osv osv
Eksempel: Sælger sælger i den første måned en vaskemaskine til 10.000 - alle dem som vil give 10k køber.
måned 2: sælger tager en hammer og giver 80% af de tilbageværende vaskemaskiner to slag med en hammer, så de får buler - og sælger dem så til 8k.
Dem som vil købte til 10k - vil ikke have vaskemaskiner med buler og giver derfor 10k- men dem som kun har 8k kan nu købe den vaskemaskine de gerne vil have - til en billigere pris.
Sælgeren har købt vaskemaskinerne for 5k - så han tjener på begge grupper.
dkskynet (9) skrev:kan man også det med et 5850 ? så det bliver til et 5870 ?
Mener det ikke, men er ikke sikker :)
mireigi (7) skrev:Det gøres på den måde, fordi det er for besværligt at lave en chip der passer til præcis de specifikationer man ønsker. Derfor laves der en chip som minimum opfylder de specifikationer man ønsker, og derefter begrænser man chippen så den er stabil.
En typisk 500Gb HDD har mellem 150-400Gb utilgængelig plads, der er blevet spærret af med software. På en HDD kan man ofte bruge et program som til at fuske sig til den ekstra plads
Tror det du mener er det som #10 nævner, den mulige datamængde på en skive, ja, i teorien kan du godt "åbne" op for det, men du ved ikke om det er fordi der er en "defekt" et sted på skiven at den er brugt i den lavere model. Med defekt mener jeg ikke nødvendigvis at den ikke kan læses med det samme, det kan også være at det er et område som er mere tilbøjelig til fejl..osv :)
det er ligesom ved 9500pro kontra 9700pro tiden. med en bios opdatering på bestemte 9500pro, kunne de yde som 9700pro. og grunden var, dengang at, der var størrere salg af 9500pro end der kunne produceres. så tog man 9700pro chips (der sådan set er identiske med 9500, men med flere shaders osv) og clockede ned.
så var der amd thunderbird, hvor man vha. blyant, kunne aktivere stepping, da man skaber en forbindelse mellem 2 punkter på cpu'en. og når stepping bliver aktiveret, kunne man øge det og får lidt flere mhz :)
så var der amd thunderbird, hvor man vha. blyant, kunne aktivere stepping, da man skaber en forbindelse mellem 2 punkter på cpu'en. og når stepping bliver aktiveret, kunne man øge det og får lidt flere mhz :)
#15: Samme kan jeg huske at jeg fik gjort på min AMD Duron i sin tid. Dette er bestemt ikke en ny ting og er et fint alternativ til at producenter smider hardware ud som ikke performer som det er rated til topprodukterne.
HerrMansen (15) skrev:#15: Samme kan jeg huske at jeg fik gjort på min AMD Duron i sin tid. Dette er bestemt ikke en ny ting og er et fint alternativ til at producenter smider hardware ud som ikke performer som det er rated til topprodukterne.
At henvise til sig selv er altid sejt :D
Dunkstar (10) skrev:#7:
Gad godt lige se den kilde hvor du har den påstand fra...
150-450GB...Det er satme meget data...
I de nye diske kører de med op til 4 plader der bruger "Perpendicular recording" med en datatæthed på mellem 150GB og 500GB, hvor dem med størst datatæthed er de dyreste, da der så typisk kun er 3 plader i, som giver bedre strømforbrug...
Men standard 2TB diske kører pt. med 4 plader da de har den største datatæthed.
Og så afhængig af og du bruger 512byte eller 4096byte logiske blokke, så opnår du en bedre udnyttelse af din disk.
Så når du så skriver at der er et "magisk" program, så er det nok et der ændre disken til at bruge 4096byte i stedet for 512byte, og derved får adgang til utilgængelig data, hvilket typisk ikke er mere end 150MB.
Og som en lille sidenote, så skriver du 150Gb-450Gb, som er Giga-bit og ikke Giga-byte, hvilket nok er en tastefejl fra din side.
Det er tilladt at rette på mig, hvis der er noget af det jeg skriver som er ukorrekt...
Harddisk producenter tester pladerne, og alt efter kvalitet, bliver de begrænset til en hvis størrelse, så den del af dem, der overskrider fejl-margin, ikke er tilgængeligt.
Ja, det er risikabelt at åbne op for det, men det kan lade sig gøre. Og det har ikke noget med at ændre blok-størrelsen. Så vidt jeg husker fra den artikel jeg læste dengang (2-3 år siden), kan man med fx. Norton Ghost finde en skjult partition på de fleste harddiske, hvor partitionen er på index (-1). Man kan så flytte partitionen til et højere index, hvorefter den bliver tilgængelig.
Det er vel værd at nævne at man, med denne fremgangsmåde, bryder produktets garanti.
Dermed forpligter producenten sig ikke længere til at tage sig af de produkter, der opstår fejl på efter modifikationen.
Så man skal ikke tro at man får et "rigtigt" Radeon HD 6970, forstået på den måde at man mister sin garanti.
Om kortet fungerer 100 % perfekt, kan variere fra eksemplar til eksemplar, men ud fra artiklen at dømme, er der ret stor sandsynlighed for at få fat i et eksemplar, som kan modificeres.
Dermed forpligter producenten sig ikke længere til at tage sig af de produkter, der opstår fejl på efter modifikationen.
Så man skal ikke tro at man får et "rigtigt" Radeon HD 6970, forstået på den måde at man mister sin garanti.
Om kortet fungerer 100 % perfekt, kan variere fra eksemplar til eksemplar, men ud fra artiklen at dømme, er der ret stor sandsynlighed for at få fat i et eksemplar, som kan modificeres.
Det er en god metode hardware producenterne bruger.
Når en CPU bliver lavet, tester de om den virker som den skal.
Hvis der er fejl i den, slår de de områder fra og sælger den billiger, dermed kan de stadig få nogle penge ud af chippen.
Det samme gør Nvidia/ATI, de producer en GPU, tester om den virker optimalt, hvis ikke sælger de den billiger og får stadig nogle penge hjem.
Harddisk producenterne bruger ligende, de producer harddisk masser af harddiske, når en harddisk er færdig lavet, analyser og tester de disken, hvor de finder ud af hvor meget af harddisken der kan bruges og hvor meget af den der er ubrugeligt.
Så en harddisk der bliver produceret på til at være 2 TB, kan have en faktisk kapacitet på 1 - 1,5 TB.
Der er muligt at låse en harddisk fulde kapacitet op med Norton Partition Magic fra 2003-2004. (Kan ikke helt huske hvilken udgave)
ADVARSEL
Hvis du låse harddisk op og du bruger disken kan den virke uden problemer, MEN Hvis du skriver på et område med fejl bliver harddisken TOTAL UBRUGELIG. (Med andre ord, du kan smide den i skraldespanden)
Ud fra dette kan vi faktisk konkluder at samtlige dele i vores computer har fejl: CPU, GPU & HDD. Hvor områderne med fejl er slået fra.
Når en CPU bliver lavet, tester de om den virker som den skal.
Hvis der er fejl i den, slår de de områder fra og sælger den billiger, dermed kan de stadig få nogle penge ud af chippen.
Det samme gør Nvidia/ATI, de producer en GPU, tester om den virker optimalt, hvis ikke sælger de den billiger og får stadig nogle penge hjem.
Harddisk producenterne bruger ligende, de producer harddisk masser af harddiske, når en harddisk er færdig lavet, analyser og tester de disken, hvor de finder ud af hvor meget af harddisken der kan bruges og hvor meget af den der er ubrugeligt.
Så en harddisk der bliver produceret på til at være 2 TB, kan have en faktisk kapacitet på 1 - 1,5 TB.
Der er muligt at låse en harddisk fulde kapacitet op med Norton Partition Magic fra 2003-2004. (Kan ikke helt huske hvilken udgave)
ADVARSEL
Hvis du låse harddisk op og du bruger disken kan den virke uden problemer, MEN Hvis du skriver på et område med fejl bliver harddisken TOTAL UBRUGELIG. (Med andre ord, du kan smide den i skraldespanden)
Ud fra dette kan vi faktisk konkluder at samtlige dele i vores computer har fejl: CPU, GPU & HDD. Hvor områderne med fejl er slået fra.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.