mboost-dp1

Hewlett-Packard
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Ikk for at være negativ eller noget, men er det ikke lidt over-kill... For lige at give et indblik i hvor meget 1 mia er
1.000.000.000 sek = 16.666.666 min = 277.777 timer = 11.574 dage = 31 år. :p
(ret irrelevant, men alligevel)
1.000.000.000 sek = 16.666.666 min = 277.777 timer = 11.574 dage = 31 år. :p
(ret irrelevant, men alligevel)
Antallet af unikke farver der kan gengives afhænger af antallet af bits der bliver brugt til det.
De fleste PC-brugere kører med 32-bit farver i dag, hvoraf der bruges 8 bit til hver af kanalerne rød, grøn, blå og gennemsigtighed. Med 8 bit er det muligt at gengive 256 forskellige niveauer af hver kanal, hvilket giver 16.777.216 (256*256*256) forskellige farvekombinationer, i 256 forskellige gennemsigtighedsniveauer.
GIF benytter kun 8 bit per pixel til at identificere farven, hvilket betyder at der kun kan vises 256 unikke farver på ét gif-billede, til gengæld kan man definere paletten selv, dvs. man kan vælge hvilke 256 farver der skal gengives.
Før 24-bit (og 32-bit) blev standard i Windows, blev der en overgang brugt 16-bit farver, hvor der bruges 5 bit til hver kanal, men uden gennemsigtighed. Nogle steder blev den sidste bit brugt til grøn, da øjet er mere følsomt over for de grønne bølgelængder af lys, mens den blev ignoreret andre steder. Det betød at Windows kun kunne gengive 32.768 (15-bit)/65.536 (16-bit) forskellige farver. Det er i dag standard på de fleste mobiltelefoner med farveskærm.
Jeg har aldrig set på en skærm der kunne gengive mere end 24-bit farver, men Jeg tvivler ærlig talt på at Jeg ville kunne se forskel, selvom forskellen mellem 16-bit og 24-bit er stor.. :\
De fleste PC-brugere kører med 32-bit farver i dag, hvoraf der bruges 8 bit til hver af kanalerne rød, grøn, blå og gennemsigtighed. Med 8 bit er det muligt at gengive 256 forskellige niveauer af hver kanal, hvilket giver 16.777.216 (256*256*256) forskellige farvekombinationer, i 256 forskellige gennemsigtighedsniveauer.
GIF benytter kun 8 bit per pixel til at identificere farven, hvilket betyder at der kun kan vises 256 unikke farver på ét gif-billede, til gengæld kan man definere paletten selv, dvs. man kan vælge hvilke 256 farver der skal gengives.
Før 24-bit (og 32-bit) blev standard i Windows, blev der en overgang brugt 16-bit farver, hvor der bruges 5 bit til hver kanal, men uden gennemsigtighed. Nogle steder blev den sidste bit brugt til grøn, da øjet er mere følsomt over for de grønne bølgelængder af lys, mens den blev ignoreret andre steder. Det betød at Windows kun kunne gengive 32.768 (15-bit)/65.536 (16-bit) forskellige farver. Det er i dag standard på de fleste mobiltelefoner med farveskærm.
Jeg har aldrig set på en skærm der kunne gengive mere end 24-bit farver, men Jeg tvivler ærlig talt på at Jeg ville kunne se forskel, selvom forskellen mellem 16-bit og 24-bit er stor.. :\
7 skrev:#6 Mange dumme kommentarer har jeg læst (og skrevet) på newz i tidernes løb - men jeg tror alligevel at din kommentar er det dummeste jeg har læst!
Hvad skærmen angår, kunne jeg godt forestille mig at den er en grafikers drøm!!
Fair nok.
Men spørgsmålet er om du kan se de mange farver med det blotte øje. Du kan jo ikke engang se forskel på en 720p og 1080p med mindre du sidder 2 cm fra skærmen. Hvis det også er tilfældet her, så kan jeg ikke se ideen i 10 bit? men okay...
#6 det var et indblik, hvilket der også står. Det var på ingen måde en sammenligning.
10# Lasse
What? :D Kommer du nu og påstår at man ikke kan se forskel på 720p og 1080p? :)
Prøv at smække det op på en full HD 46-50 tommer skærm, så kan du snildt se, at 720p bliver skaleret op. 720p er stadigvæk rigtig pænt, men 1080p giver altså et pænere og mere skarpt billlede - hvis du har skærmen til at vise det vel og mærke...
Ontopic:
Nårh, jeg har lige købt Apples Cinema HD 23" - den må kunne gøre det i en periode indtil ens billede-arbejde kræver mere :-)
What? :D Kommer du nu og påstår at man ikke kan se forskel på 720p og 1080p? :)
Prøv at smække det op på en full HD 46-50 tommer skærm, så kan du snildt se, at 720p bliver skaleret op. 720p er stadigvæk rigtig pænt, men 1080p giver altså et pænere og mere skarpt billlede - hvis du har skærmen til at vise det vel og mærke...
Ontopic:
Nårh, jeg har lige købt Apples Cinema HD 23" - den må kunne gøre det i en periode indtil ens billede-arbejde kræver mere :-)
14 skrev:10# Lasse
What? :D Kommer du nu og påstår at man ikke kan se forskel på 720p og 1080p? :)
Prøv at smække det op på en full HD 46-50 tommer skærm, så kan du snildt se, at 720p bliver skaleret op. 720p er stadigvæk rigtig pænt, men 1080p giver altså et pænere og mere skarpt billlede - hvis du har skærmen til at vise det vel og mærke...
Ontopic:
Nårh, jeg har lige købt Apples Cinema HD 23" - den må kunne gøre det i en periode indtil ens billede-arbejde kræver mere :-)
ikk noget jeg påstår, men kig gear-tv fra 12/10 2007 :D
På min 24" LG L245WP-BN, der kører 1920x1200 kan Jeg snildt se forskel på 720p og 1080p.. Vel og mærke på en meters afstand..
Det er klart at man ikke kan se forskel hvis man bare har et "HD ready" tv, og ikke et Full HD kompatibelt et. For at fabrikanterne kan få lov til at stemple deres TV med "HD Ready"-mærket, kræver det blot at det har mindst 720 pixels i højden - Der er ikke noget krav til hvor mange pixels der skal være i bredden.. Mine forældre har et 16:9 plasma tv der har "HD Ready"-stemplet, men dens opløsning er 1024x768, altså er hver pixel rektangulær, ikke kvadratisk.
Hvorvidt man kan se forskel, kommer naturligvis også an på hvor godt/dårligt ens syn er - Men hvis man har normalt syn, og billedet fylder bare halvdelen af dit synsfelt, kan man sagtens se forskel på 720p og 1080p, såfremt at skærmen faktisk kan vise alle pixels (minimum 1920x1080).
Det er klart at man ikke kan se forskel hvis man bare har et "HD ready" tv, og ikke et Full HD kompatibelt et. For at fabrikanterne kan få lov til at stemple deres TV med "HD Ready"-mærket, kræver det blot at det har mindst 720 pixels i højden - Der er ikke noget krav til hvor mange pixels der skal være i bredden.. Mine forældre har et 16:9 plasma tv der har "HD Ready"-stemplet, men dens opløsning er 1024x768, altså er hver pixel rektangulær, ikke kvadratisk.
Hvorvidt man kan se forskel, kommer naturligvis også an på hvor godt/dårligt ens syn er - Men hvis man har normalt syn, og billedet fylder bare halvdelen af dit synsfelt, kan man sagtens se forskel på 720p og 1080p, såfremt at skærmen faktisk kan vise alle pixels (minimum 1920x1080).
FFS....
hvorfor er der endnu ikke nogen som har nævnt Kontrast, Pixelstørrelse, Betragtningsvinkel eller Lysstyrke endnu ?
for ikke at glemme black-level og backlight bleeding ?
antallet af farver er kun relevant hvis man synligt kan se color-clipping - f.eks. 16bit på 24bit panel... eller ved visning af en gradient...
hvorfor er der endnu ikke nogen som har nævnt Kontrast, Pixelstørrelse, Betragtningsvinkel eller Lysstyrke endnu ?
for ikke at glemme black-level og backlight bleeding ?
antallet af farver er kun relevant hvis man synligt kan se color-clipping - f.eks. 16bit på 24bit panel... eller ved visning af en gradient...
#18 genau.
Men jeg synes da tit man ser "hak" i gradienter på f.eks. sort/hvide, undskyld, 'gråtone' fotografier hvor store arealer har næsten samme farve, f.eks. himmelen. Så jeg synes da det er på tide at man går op til 10bit. 256 gråtoner mv. er lige i underkanten synes jeg. I de gode gamle dage hvor skærme var analoge, var det da ikke almindeligt at skærmkort havde en 10bit DAC?
Men jeg synes da tit man ser "hak" i gradienter på f.eks. sort/hvide, undskyld, 'gråtone' fotografier hvor store arealer har næsten samme farve, f.eks. himmelen. Så jeg synes da det er på tide at man går op til 10bit. 256 gråtoner mv. er lige i underkanten synes jeg. I de gode gamle dage hvor skærme var analoge, var det da ikke almindeligt at skærmkort havde en 10bit DAC?
#3 Nej, der er uendeligt mange farver. Det mere interessante spørgsmål er hvor mange farver vi kan skelne.
Og det afhænger rigtig meget af hvordan vi betragter det. Men jeg er ret overbevist om at vi sagtens kan skelne langt over 1 mia. farver, - selv hvis vi er lidt oppe i årene.
#12 Der findes forskellige paneler. De billige (TN paneler) har kun 6 bit pr farvekanal (dvs. 18 bit i alt, - dvs. kun ca 250.000 farver). Men 24 bit (8 bit/kanal) kommer vi op på de "sædvanlige" ca. 16 millioner farver.
JPG billeder og mange andre billedformater har i øvrigt ikke et farverum der er større end de 16 mio. farver, - sådan da. For man kan vælge farveprofil, - og dermed "hvilke 16 millioner farver" man ønsker at se. Så selv med JPG er det ikke helt sandt.
Med RAW, DNG og andre nyere formater er der naturligvis mulighed for flere farver.
De fleste gratikkort kan i øvrigt også kun vise 24 bit farver.
Mange nyere digitalkameraer, - især SLR, har 36 bit (12 bit pr. farvekanal) eller mere. Canon's nyeste har f.eks. 14 bit pr. farvekanal, - eller 42 bit i alt. Det giver godt 4 tusinde millarder (4 trillioner) farvenuancer
Og det afhænger rigtig meget af hvordan vi betragter det. Men jeg er ret overbevist om at vi sagtens kan skelne langt over 1 mia. farver, - selv hvis vi er lidt oppe i årene.
#12 Der findes forskellige paneler. De billige (TN paneler) har kun 6 bit pr farvekanal (dvs. 18 bit i alt, - dvs. kun ca 250.000 farver). Men 24 bit (8 bit/kanal) kommer vi op på de "sædvanlige" ca. 16 millioner farver.
JPG billeder og mange andre billedformater har i øvrigt ikke et farverum der er større end de 16 mio. farver, - sådan da. For man kan vælge farveprofil, - og dermed "hvilke 16 millioner farver" man ønsker at se. Så selv med JPG er det ikke helt sandt.
Med RAW, DNG og andre nyere formater er der naturligvis mulighed for flere farver.
De fleste gratikkort kan i øvrigt også kun vise 24 bit farver.
Mange nyere digitalkameraer, - især SLR, har 36 bit (12 bit pr. farvekanal) eller mere. Canon's nyeste har f.eks. 14 bit pr. farvekanal, - eller 42 bit i alt. Det giver godt 4 tusinde millarder (4 trillioner) farvenuancer
Hvad mange af jer liiiiige glemmer er at en ting er teori og specifikationer..... og at en anden ting er implementationen af dette.....
F.eks er det langt fra umuligt at købe en 2 ms. TFT, som reelt er for dårlig til gaming..... Det er også langt fra umuligt at ave en skærm med 1 mia. farver, som lider af flere farvesygdomme såsom "Red Push" og sådan..... Sådanne sygdomme kan i visse tilfælde gøre skærmen ubrugelig alligevel..... den skal være korrekt og præcist kalibreret fra fabrikken af de rigtige folk..... ellers er den nærmest værdiløs.... specielt for en grafikker.
Men kunne være en fed skærm hvis den er kalibreret ;-)
F.eks er det langt fra umuligt at købe en 2 ms. TFT, som reelt er for dårlig til gaming..... Det er også langt fra umuligt at ave en skærm med 1 mia. farver, som lider af flere farvesygdomme såsom "Red Push" og sådan..... Sådanne sygdomme kan i visse tilfælde gøre skærmen ubrugelig alligevel..... den skal være korrekt og præcist kalibreret fra fabrikken af de rigtige folk..... ellers er den nærmest værdiløs.... specielt for en grafikker.
Men kunne være en fed skærm hvis den er kalibreret ;-)
Hvad skal resultatet af det man laver på den skærm vises på?
Hvis det er med udgangspunkt i 3d animation bliver den ekstra farve så ikke tabt når det laves om til "håbløse" filmruller og en senere telecinema med mål i DVD og BlueRay som mig bekendt ikke kan vise den mængde farver.
Filmrullen kan måske godt men så flot er billedet altså heller ikke i biografen, det er langt fra så sprødt som det man ser på HD film.
Er det med udgangspunkt i det trykte medie så kræver det vel at printeren eller trykken kan gengive den mængde farve ligeledes. Kan de det? Og har det nogen indvirkning på slut resultatet eller er vi mennesker så farve "blinde" at vi ikke kan se forskellen.
Når det så er sagt så er det da nogle fine specs den skærm har :) Om ikke andet så øger den klart størrelse på ens ePeen når man snakker med sine grafiker venner.
Hvis det er med udgangspunkt i 3d animation bliver den ekstra farve så ikke tabt når det laves om til "håbløse" filmruller og en senere telecinema med mål i DVD og BlueRay som mig bekendt ikke kan vise den mængde farver.
Filmrullen kan måske godt men så flot er billedet altså heller ikke i biografen, det er langt fra så sprødt som det man ser på HD film.
Er det med udgangspunkt i det trykte medie så kræver det vel at printeren eller trykken kan gengive den mængde farve ligeledes. Kan de det? Og har det nogen indvirkning på slut resultatet eller er vi mennesker så farve "blinde" at vi ikke kan se forskellen.
Når det så er sagt så er det da nogle fine specs den skærm har :) Om ikke andet så øger den klart størrelse på ens ePeen når man snakker med sine grafiker venner.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.