mboost-dp1

Canon
- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Mig fatte ganske lidt brille af det her.
CMOS sensorerne dukkede op da man fandt ud af at DRAM var lysfølsomt.
For at gøre resultaterne bedre sørgede man for at udlæse data via en A/D konvertering hvilket gav et større dynamikområde end den rent digitale udlæsning som RAMen var beregnet til.
Først derefter begyndte man at optimere på linearitet, størrelse og en utrolion andre parametre.
Det her ligner da ganske det samme: FlashRAMen er beregnet til digital udlæsning, og det benytter man. Ganske snart ville jeg forvente at nogen finder ud af at antallet af fotoner passer til ladningen og tæller antallet sammen (A/D konvertering), og giver et analogt resultat.
Det eneste der kan betinge andet er hvis det enkelte element er så lille at det enten er påvirket af en foton eller ej. Altså har en udstrækning på cirka en foton. Så bliver resultatet selvfølgelig at man er nød til at kigge på flere for at se hvor mange fotoner der var i nærheden.
Billedet her viser fint at langt den største del af en cmos sensors areal er den fotofølsomme del, og et lille hjørne er pillet af.
Selvfølgelig vil "overhead" arealet være større hvis fotodiodedelen bliver mindre, men en af grundene til ikke at gøre dette mindre er støj. Signal/støj forholdet falder altid med mindre geometrier.
CMOS sensorerne dukkede op da man fandt ud af at DRAM var lysfølsomt.
For at gøre resultaterne bedre sørgede man for at udlæse data via en A/D konvertering hvilket gav et større dynamikområde end den rent digitale udlæsning som RAMen var beregnet til.
Først derefter begyndte man at optimere på linearitet, størrelse og en utrolion andre parametre.
Det her ligner da ganske det samme: FlashRAMen er beregnet til digital udlæsning, og det benytter man. Ganske snart ville jeg forvente at nogen finder ud af at antallet af fotoner passer til ladningen og tæller antallet sammen (A/D konvertering), og giver et analogt resultat.
Det eneste der kan betinge andet er hvis det enkelte element er så lille at det enten er påvirket af en foton eller ej. Altså har en udstrækning på cirka en foton. Så bliver resultatet selvfølgelig at man er nød til at kigge på flere for at se hvor mange fotoner der var i nærheden.
Billedet her viser fint at langt den største del af en cmos sensors areal er den fotofølsomme del, og et lille hjørne er pillet af.
Selvfølgelig vil "overhead" arealet være større hvis fotodiodedelen bliver mindre, men en af grundene til ikke at gøre dette mindre er støj. Signal/støj forholdet falder altid med mindre geometrier.
Endnu et slag i ansigtet på folk som går op i kvalitet-pr-pixel i stedet for pixels-pr-sensor
Problemet med små pixels er at SNR stiger, og billedet bliver mere grumset + farvenøjagtigheden falder...
jo større pixels, desto bedre er farvenøjagtigheden - og jo flere pixels desto flere detaljer...
spørgsmålet er så om ikke 10-12 Mpix for en APS-C størrelse sensor er nok ? og ideelt når det gælder opløsning vs farvenøjagtighed ???
hele Megapixelræset kan få een til at rive hår ud af hovedet over hvor åndsvagt det egentlig er...
se bare på hvad folk spørger om i butikkerne og hvad de går efter:
- "Jamen du skal da købe et 12MPix i stedet for 'kun' 8Mpix"
- "Er 10Mpix ikke bedre en 6Mpix"
folk glemmer bare
- størrelsen på sensor
- kvaliteten af optik
- A/D konverterens kvalitet
- Kameraets CPU's evner til at rense og forbedre billedet
- Antishake
- alle andre parametre som betyder mere end selve antallet af pixels
Problemet med små pixels er at SNR stiger, og billedet bliver mere grumset + farvenøjagtigheden falder...
jo større pixels, desto bedre er farvenøjagtigheden - og jo flere pixels desto flere detaljer...
spørgsmålet er så om ikke 10-12 Mpix for en APS-C størrelse sensor er nok ? og ideelt når det gælder opløsning vs farvenøjagtighed ???
hele Megapixelræset kan få een til at rive hår ud af hovedet over hvor åndsvagt det egentlig er...
se bare på hvad folk spørger om i butikkerne og hvad de går efter:
- "Jamen du skal da købe et 12MPix i stedet for 'kun' 8Mpix"
- "Er 10Mpix ikke bedre en 6Mpix"
folk glemmer bare
- størrelsen på sensor
- kvaliteten af optik
- A/D konverterens kvalitet
- Kameraets CPU's evner til at rense og forbedre billedet
- Antishake
- alle andre parametre som betyder mere end selve antallet af pixels
#3
Stadig vil flere mindre pixels give et bedre billede end færre større pixels, så længe sensorens areal er det samme.
Med de nyere generationer af sensorer, er der jo reelt ingen afstand imellem de forskellige pixels.
Stadig vil flere mindre pixels give et bedre billede end færre større pixels, så længe sensorens areal er det samme.
Med de nyere generationer af sensorer, er der jo reelt ingen afstand imellem de forskellige pixels.
#3
Men hvis har et billede med mange pixels og de problemer det giver, og man så downsampler, så vil man (under rette omstændigheder) ende med et godt resultat.
Dvs. hvis man nu kan tage et 1000 MP-billede med én bit pr. pixel, hvor meget skal den mon så nedskaleres for at komme af med støj osv? Kan vi nøjes med at gå ned på 50? Hvad nu hvis vi fortsætter ned til 5 MP, hvor stor dynamic range kan man mon så få ud af det?
Jeg har ingen anelse om det nogensinde bliver godt det her, men ud fra de informationer jeg har set her i tråden ser jeg ingen grund til at tro, at det aldrig bliver godt.
Men hvis har et billede med mange pixels og de problemer det giver, og man så downsampler, så vil man (under rette omstændigheder) ende med et godt resultat.
Dvs. hvis man nu kan tage et 1000 MP-billede med én bit pr. pixel, hvor meget skal den mon så nedskaleres for at komme af med støj osv? Kan vi nøjes med at gå ned på 50? Hvad nu hvis vi fortsætter ned til 5 MP, hvor stor dynamic range kan man mon så få ud af det?
Jeg har ingen anelse om det nogensinde bliver godt det her, men ud fra de informationer jeg har set her i tråden ser jeg ingen grund til at tro, at det aldrig bliver godt.
Nu skal man jo huske på at CMOS også lignede lort da det blev skabt. Ekstremt ubrugeligt - og den eneste grund til at det blev så godt, er ufatteligt mange udviklingskroner og store innovationer på den front, gennem mange mange år. CMOS-patentet stammer fra 1967 - lang tid før mainstream digitalkameraer med denne teknologi blev kendte.
Da CCD'en kom frem, var den et så stort skridt foran CMOS kvalitetsmæssigt set, at CMOS burde have været aflivet dengang. Men CMOS havde en stor fordel i sit lavere strømforbrug - og måske allervigtigst; i sine muligheder for on-sensor chipsæt til eks. støjfjernelse, antiblooming gates osv...
Udvikling af disse ting samt bedre mikrolinser, har gjort CMOS til foretrukken darling i dSLR-kameraer, mens man i webcams ser at CCD-kameraer er de overlegne.
Så om en sensor baseret på flashRAM kan blive noget godt - det er alt, alt for tidligt at sige noget om endnu. Jeg vil være meget interesseret i at se resultaterne om 3-4 år fra nu, for der vil teknologien være udviklet og modnet noget mere - og så kan man derfra bedømme om den kan have potentiale.
Ang. det teoretiske; i artiklen nævnes "100 gange mindre". Et 10 MPixels kamera vil altså yde 1000 MPixels baseret på teknologien.
Hvis vi antager et 8-bit farverum så snakker vi 256 forskellige gråtoner. Eftersom hver pixel kun kan være 0 eller 1, så skal der 256 pixels til at danne et dynamikspekter der kan indbefatte 256 niveauer. Og så snakker vi allerede her kun 4 MPixels, hvis vi ser bort fra binningsmuligheder.
Her vil per-pixel skarphed til gengæld også være superb.
Men der er ingen grund til at gøre det på denne klodsede måde; tabet vil realistisk set ikke være 1/256 del, men nok snarere 1/50 del højest, hvis man laver en god algoritme der approximerer præcist ud fra færre og omkringliggende pixels. En sådan algoritme findes allerede for tolkning af bayerfilteret - nuværende sensorer skyder jo alle i s/h, og farver skabes ved hjælp af typisk GRGB-filter (med meget få undtagelser; eks. Foveon X3 sensoren). Meget det samme princip som at skulle hive dynamik ud af flere pixels, der som udgangspunkt kun være 0 eller 1.
Og så snakker vi om at nuværende 10 MPixels-kameraer kan opnå 20 MPixels ved samme eller bedre kvalitet end hvad nuværende teknologier kan overkomme i samme fysiske sensorstørrelse.
Til den tid vil nuværende teknologier naturligvis også have rykket sig, men eftersom meget af den teknologiske udvikling ligger i netop mikrolinserne, så kan disse fremskridt direkte overføres til denne nye teknologi, der også vil få brug for mikroliner.
Da CCD'en kom frem, var den et så stort skridt foran CMOS kvalitetsmæssigt set, at CMOS burde have været aflivet dengang. Men CMOS havde en stor fordel i sit lavere strømforbrug - og måske allervigtigst; i sine muligheder for on-sensor chipsæt til eks. støjfjernelse, antiblooming gates osv...
Udvikling af disse ting samt bedre mikrolinser, har gjort CMOS til foretrukken darling i dSLR-kameraer, mens man i webcams ser at CCD-kameraer er de overlegne.
Så om en sensor baseret på flashRAM kan blive noget godt - det er alt, alt for tidligt at sige noget om endnu. Jeg vil være meget interesseret i at se resultaterne om 3-4 år fra nu, for der vil teknologien være udviklet og modnet noget mere - og så kan man derfra bedømme om den kan have potentiale.
Ang. det teoretiske; i artiklen nævnes "100 gange mindre". Et 10 MPixels kamera vil altså yde 1000 MPixels baseret på teknologien.
Hvis vi antager et 8-bit farverum så snakker vi 256 forskellige gråtoner. Eftersom hver pixel kun kan være 0 eller 1, så skal der 256 pixels til at danne et dynamikspekter der kan indbefatte 256 niveauer. Og så snakker vi allerede her kun 4 MPixels, hvis vi ser bort fra binningsmuligheder.
Her vil per-pixel skarphed til gengæld også være superb.
Men der er ingen grund til at gøre det på denne klodsede måde; tabet vil realistisk set ikke være 1/256 del, men nok snarere 1/50 del højest, hvis man laver en god algoritme der approximerer præcist ud fra færre og omkringliggende pixels. En sådan algoritme findes allerede for tolkning af bayerfilteret - nuværende sensorer skyder jo alle i s/h, og farver skabes ved hjælp af typisk GRGB-filter (med meget få undtagelser; eks. Foveon X3 sensoren). Meget det samme princip som at skulle hive dynamik ud af flere pixels, der som udgangspunkt kun være 0 eller 1.
Og så snakker vi om at nuværende 10 MPixels-kameraer kan opnå 20 MPixels ved samme eller bedre kvalitet end hvad nuværende teknologier kan overkomme i samme fysiske sensorstørrelse.
Til den tid vil nuværende teknologier naturligvis også have rykket sig, men eftersom meget af den teknologiske udvikling ligger i netop mikrolinserne, så kan disse fremskridt direkte overføres til denne nye teknologi, der også vil få brug for mikroliner.
#2 >
Du er ikke helt galt på den, men det er nu altså CCD og ikke CMOS der har den baggrundshistorie.
Det er dog vigtigt at bemærke at samme analoge del ikke vil blive gældende i denne nye teknologi (flashRAM) - hvorimod grundprincippet i CCD altid har været analogt.
Sensorstøj som følge af varme fra skiftende gates og elektrisk ladning der skaber intereferens, er derfor ikke sansynlige vil ske her.
Ligesom nuværende teknologier, skal FlashRAM'ene også boostes op - men ikke elektronisk, det kan man gøre i softwaren fordi værdien i forvejen er digital... og så er der ingen mening i at øge spændingen undervejs. Selv hvis der VAR mening i det, ville det jo heller ikke skabe mere støj.
Men approximeret unøjagtighed kan også være slemt nok - sådan som vi ser med fladskærms TN-paneler der jo kører 6-bit per kanal og så bare gætter sig resten ad vejen op til 8-bit.
Du er ikke helt galt på den, men det er nu altså CCD og ikke CMOS der har den baggrundshistorie.
Det er dog vigtigt at bemærke at samme analoge del ikke vil blive gældende i denne nye teknologi (flashRAM) - hvorimod grundprincippet i CCD altid har været analogt.
Sensorstøj som følge af varme fra skiftende gates og elektrisk ladning der skaber intereferens, er derfor ikke sansynlige vil ske her.
Ligesom nuværende teknologier, skal FlashRAM'ene også boostes op - men ikke elektronisk, det kan man gøre i softwaren fordi værdien i forvejen er digital... og så er der ingen mening i at øge spændingen undervejs. Selv hvis der VAR mening i det, ville det jo heller ikke skabe mere støj.
Men approximeret unøjagtighed kan også være slemt nok - sådan som vi ser med fladskærms TN-paneler der jo kører 6-bit per kanal og så bare gætter sig resten ad vejen op til 8-bit.
#8
Der skal da stadig et antal fotoner til at trigge den enkelte pixel, så størrelsen vil stadig hænge sammen med lysfølsomheden.
Der skal da stadig et antal fotoner til at trigge den enkelte pixel, så størrelsen vil stadig hænge sammen med lysfølsomheden.
hvornår er lys blevet digital? når sensoren omdanner fotoner til et 0 eller 1 er det da en A/D konverter...
256 gråtoner er ikke nær nok til at lave andet en noget der minder om en dårlig fotokopi skal langt længere op for at komme nær analoge billeder.
Med små pixel kunne man jo lære af den analoge verden som jo ligger i flere lag hvilket man jo burde kunne her også således øges tætheden jo drastisk og hvis hvert lag specialiseres til bestemte bølgelængder så er vi ved at være nær noget der kunne bruges.
TKB
256 gråtoner er ikke nær nok til at lave andet en noget der minder om en dårlig fotokopi skal langt længere op for at komme nær analoge billeder.
Med små pixel kunne man jo lære af den analoge verden som jo ligger i flere lag hvilket man jo burde kunne her også således øges tætheden jo drastisk og hvis hvert lag specialiseres til bestemte bølgelængder så er vi ved at være nær noget der kunne bruges.
TKB
#10
Enten er der en foton, eller også er der ikke. Det er da ret digitalt? :)
Enten er der en foton, eller også er der ikke. Det er da ret digitalt? :)
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.