mboost-dp1

Canon

Flashram bliver til billedsensor

- Via NewScientist - , redigeret af Net_Srak

Det har længe været kendt, at “rå” flashram ikke må udsættes for lys, idet fotonerne øger energien i chippens elektroner, der kan ende med at ødelægge de data der er gemt i chippen.

Denne effekt vil et hold af forskere i Holland, ledet af Edoardo Charbon, nu udnytte til at lave en ny billedsensor, der skal tage konkurrencen op med CCD- og CMOS-sensorne.

Fordelen ved flashram-teknologien er dens størrelse, idet der ikke er behov for en analog til digital konvertering hvilket er nødvendigt ved både CCD og CMOS. Alene dette faktum gør, at en pixel vil kunne laves 100 gange mindre end CMOS-teknologien tillader.

Der er dog en stor ulempe, for en pixel i flashram-sensoren kan kun være enten 0 eller 1, hvilket ikke giver gode billeder. Dette problem vil forskerne løse via software, ved at kigge på flere pixels på samme tid.

De foreløbige resultater er meget positive og viser gråtoneskaler, der er bedre end dem opnået ved CMOS-teknologien. Ulempen er dog at med så små “pixels”, så bliver der indfanget færre fotoner, hvilket betyder lavere lysfølsomhed.

Forskerne forventer at have en prototype-chip færdig senere på året som de kan begynde at arbejde med i starten af det nye år.





Gå til bund
Gravatar #1 - ALo
9. okt. 2009 10:19
Digitale billedsensorer er helt sikkert fremtiden, men det her lyder ikke godt nok ikke til at være løsningen. :/
Gravatar #2 - dsckeld
9. okt. 2009 10:41
Mig fatte ganske lidt brille af det her.

CMOS sensorerne dukkede op da man fandt ud af at DRAM var lysfølsomt.
For at gøre resultaterne bedre sørgede man for at udlæse data via en A/D konvertering hvilket gav et større dynamikområde end den rent digitale udlæsning som RAMen var beregnet til.
Først derefter begyndte man at optimere på linearitet, størrelse og en utrolion andre parametre.

Det her ligner da ganske det samme: FlashRAMen er beregnet til digital udlæsning, og det benytter man. Ganske snart ville jeg forvente at nogen finder ud af at antallet af fotoner passer til ladningen og tæller antallet sammen (A/D konvertering), og giver et analogt resultat.
Det eneste der kan betinge andet er hvis det enkelte element er så lille at det enten er påvirket af en foton eller ej. Altså har en udstrækning på cirka en foton. Så bliver resultatet selvfølgelig at man er nød til at kigge på flere for at se hvor mange fotoner der var i nærheden.

Billedet her viser fint at langt den største del af en cmos sensors areal er den fotofølsomme del, og et lille hjørne er pillet af.
Selvfølgelig vil "overhead" arealet være større hvis fotodiodedelen bliver mindre, men en af grundene til ikke at gøre dette mindre er støj. Signal/støj forholdet falder altid med mindre geometrier.
Gravatar #3 - Montago.NET
9. okt. 2009 11:37
Endnu et slag i ansigtet på folk som går op i kvalitet-pr-pixel i stedet for pixels-pr-sensor

Problemet med små pixels er at SNR stiger, og billedet bliver mere grumset + farvenøjagtigheden falder...

jo større pixels, desto bedre er farvenøjagtigheden - og jo flere pixels desto flere detaljer...


spørgsmålet er så om ikke 10-12 Mpix for en APS-C størrelse sensor er nok ? og ideelt når det gælder opløsning vs farvenøjagtighed ???


hele Megapixelræset kan få een til at rive hår ud af hovedet over hvor åndsvagt det egentlig er...


se bare på hvad folk spørger om i butikkerne og hvad de går efter:
- "Jamen du skal da købe et 12MPix i stedet for 'kun' 8Mpix"
- "Er 10Mpix ikke bedre en 6Mpix"

folk glemmer bare
- størrelsen på sensor
- kvaliteten af optik
- A/D konverterens kvalitet
- Kameraets CPU's evner til at rense og forbedre billedet
- Antishake
- alle andre parametre som betyder mere end selve antallet af pixels
Gravatar #4 - Jakob Jakobsen
9. okt. 2009 12:01
#3

Stadig vil flere mindre pixels give et bedre billede end færre større pixels, så længe sensorens areal er det samme.
Med de nyere generationer af sensorer, er der jo reelt ingen afstand imellem de forskellige pixels.
Gravatar #5 - myplacedk
9. okt. 2009 12:06
#3
Men hvis har et billede med mange pixels og de problemer det giver, og man så downsampler, så vil man (under rette omstændigheder) ende med et godt resultat.

Dvs. hvis man nu kan tage et 1000 MP-billede med én bit pr. pixel, hvor meget skal den mon så nedskaleres for at komme af med støj osv? Kan vi nøjes med at gå ned på 50? Hvad nu hvis vi fortsætter ned til 5 MP, hvor stor dynamic range kan man mon så få ud af det?

Jeg har ingen anelse om det nogensinde bliver godt det her, men ud fra de informationer jeg har set her i tråden ser jeg ingen grund til at tro, at det aldrig bliver godt.
Gravatar #6 - jakobdam
9. okt. 2009 12:39
Nu skal man jo huske på at CMOS også lignede lort da det blev skabt. Ekstremt ubrugeligt - og den eneste grund til at det blev så godt, er ufatteligt mange udviklingskroner og store innovationer på den front, gennem mange mange år. CMOS-patentet stammer fra 1967 - lang tid før mainstream digitalkameraer med denne teknologi blev kendte.

Da CCD'en kom frem, var den et så stort skridt foran CMOS kvalitetsmæssigt set, at CMOS burde have været aflivet dengang. Men CMOS havde en stor fordel i sit lavere strømforbrug - og måske allervigtigst; i sine muligheder for on-sensor chipsæt til eks. støjfjernelse, antiblooming gates osv...

Udvikling af disse ting samt bedre mikrolinser, har gjort CMOS til foretrukken darling i dSLR-kameraer, mens man i webcams ser at CCD-kameraer er de overlegne.

Så om en sensor baseret på flashRAM kan blive noget godt - det er alt, alt for tidligt at sige noget om endnu. Jeg vil være meget interesseret i at se resultaterne om 3-4 år fra nu, for der vil teknologien være udviklet og modnet noget mere - og så kan man derfra bedømme om den kan have potentiale.



Ang. det teoretiske; i artiklen nævnes "100 gange mindre". Et 10 MPixels kamera vil altså yde 1000 MPixels baseret på teknologien.

Hvis vi antager et 8-bit farverum så snakker vi 256 forskellige gråtoner. Eftersom hver pixel kun kan være 0 eller 1, så skal der 256 pixels til at danne et dynamikspekter der kan indbefatte 256 niveauer. Og så snakker vi allerede her kun 4 MPixels, hvis vi ser bort fra binningsmuligheder.

Her vil per-pixel skarphed til gengæld også være superb.

Men der er ingen grund til at gøre det på denne klodsede måde; tabet vil realistisk set ikke være 1/256 del, men nok snarere 1/50 del højest, hvis man laver en god algoritme der approximerer præcist ud fra færre og omkringliggende pixels. En sådan algoritme findes allerede for tolkning af bayerfilteret - nuværende sensorer skyder jo alle i s/h, og farver skabes ved hjælp af typisk GRGB-filter (med meget få undtagelser; eks. Foveon X3 sensoren). Meget det samme princip som at skulle hive dynamik ud af flere pixels, der som udgangspunkt kun være 0 eller 1.

Og så snakker vi om at nuværende 10 MPixels-kameraer kan opnå 20 MPixels ved samme eller bedre kvalitet end hvad nuværende teknologier kan overkomme i samme fysiske sensorstørrelse.

Til den tid vil nuværende teknologier naturligvis også have rykket sig, men eftersom meget af den teknologiske udvikling ligger i netop mikrolinserne, så kan disse fremskridt direkte overføres til denne nye teknologi, der også vil få brug for mikroliner.
Gravatar #7 - jakobdam
9. okt. 2009 12:49
#2 >

Du er ikke helt galt på den, men det er nu altså CCD og ikke CMOS der har den baggrundshistorie.

Det er dog vigtigt at bemærke at samme analoge del ikke vil blive gældende i denne nye teknologi (flashRAM) - hvorimod grundprincippet i CCD altid har været analogt.

Sensorstøj som følge af varme fra skiftende gates og elektrisk ladning der skaber intereferens, er derfor ikke sansynlige vil ske her.

Ligesom nuværende teknologier, skal FlashRAM'ene også boostes op - men ikke elektronisk, det kan man gøre i softwaren fordi værdien i forvejen er digital... og så er der ingen mening i at øge spændingen undervejs. Selv hvis der VAR mening i det, ville det jo heller ikke skabe mere støj.

Men approximeret unøjagtighed kan også være slemt nok - sådan som vi ser med fladskærms TN-paneler der jo kører 6-bit per kanal og så bare gætter sig resten ad vejen op til 8-bit.
Gravatar #8 - salatbar
9. okt. 2009 13:30
Når det nu er en hel ny teknik uden A/D konvertering er jeg ikke sikker på at chippens størrelse har nogen betydning for billedkvaliteten.

Til gengæld er en farveopløsning på 1 bit en rimelig stor hæmsko.
Gravatar #9 - Jakob Jakobsen
9. okt. 2009 13:39
#8
Der skal da stadig et antal fotoner til at trigge den enkelte pixel, så størrelsen vil stadig hænge sammen med lysfølsomheden.
Gravatar #10 - TKB
9. okt. 2009 14:32
hvornår er lys blevet digital? når sensoren omdanner fotoner til et 0 eller 1 er det da en A/D konverter...
256 gråtoner er ikke nær nok til at lave andet en noget der minder om en dårlig fotokopi skal langt længere op for at komme nær analoge billeder.
Med små pixel kunne man jo lære af den analoge verden som jo ligger i flere lag hvilket man jo burde kunne her også således øges tætheden jo drastisk og hvis hvert lag specialiseres til bestemte bølgelængder så er vi ved at være nær noget der kunne bruges.

TKB
Gravatar #11 - Jakob Jakobsen
9. okt. 2009 14:37
#10
Enten er der en foton, eller også er der ikke. Det er da ret digitalt? :)
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login