Rispondi citando fadderico il 03 marzo 2011, 21:31
Allora anche io sapevo che il CMOS leggesse una scala di grigi, ma in tealtà non è propriamente così, la riproduzione dei coloro non è realizzata solo dal processore, come farebbe a riconoscere i colori a priori? l'informazione sul colore DEVE provenire direttamente dal sensore.
Io parlavo dell'elettronica in genere non solo del processore. In base al livello di fotoni catturati dal fotosito, e quindi alla quantità di luce, si fa la conversione per il rispettivo pixel. Vuol dire che che se quel fotosito era stato settato per il blu si ricostruirà il pixel con una certa intensità di blu, se era stato settato per il rosso si farà un pixel con una certa quantità di rosso e così via.
I fotositi del sensore (CMOS e CCD) non sono tutti uguali, ovvero in una matrice di tot MPixels si alternano un fotosito per il rosso, uno per il verde e uno per il blu e così via da capo. Cioè ognifotosito è adibito ad un solo colre primario. Ogni fotosito registra la luce come un segnale elettrico e quindi una scala di grigi. È qui che il processore a seconda delle intensità dei fotositi mappati a seconda del colore che gli corrisponde lo interpola con i fotositi adiacenti e produce i colori.
Esatto perchè il fotosito non sa leggere "il colore" ma sa solo produrre un segnale elettrico proporzionale alla quantità di luce che lo ha investito, l'uscita del sensore sarà un immagine con tutti questi livelli registrati per ogni pixel, e poi in base a come era stata costruita la matrice rgb si ricostruisce l'immagine, tenendo prensente di questi livelli di luce. Diciamo la stessa cosa.
Quindi effettivamente se si setta in bianco e nero dalla macchina il software fa si che ogni fotosito corrisponda ad un "non" colore e si perde la gamma dinamica.
No questa ultima affermazione mi trova in disaccordo. Anche gelpado ha saputo nel corso che il bianco e nero on camera è il risultato di un picture style applicato all'immagine a colori. Non penso infatti sia possibile che la macchina ricostruisca una volta la matrice del sensore come una cella rgb e un altra volta come tutti pixel non colori (cioè che vanno dal bianco al nero). Perchè ci vorrebbe una parte di elettronica aggiuntiva, che resterebbe sempre non utilizzata in tutti gli scatti a colore.
La qualità dell'immagine di un sensore cmos da 12 mpix, infatti è quella di un immagine interpolata, proveniente dalla ricostruzioni di una matrice un cui la prima riga ha tutti pixel rosso - verde e la seconda riga ha tutti pixel verde - blu. Alla fine è come se fossero le immagini di 3 sensori da 4 mpix interpolate tra di loro. Per cui non penso che sttando il picture style su monocramatico, la macchina non faccia più tutto questo ambaradan. Perchè se così fosse le immagini bianco e nero on camera senza interpolazione sarebbero superiori a quelle a colori.
Ma perchè dici che si perde la gamma dinamica? La gamma dinamica dipende sempre dal campionamento a 12 o a 14 bit del sensore, e dall'algoritmo di demosaicizzazione dell'immagine. Quindi anche se in bianco e nero la reflex associasse direttamente un pixel al fotosito "non colore" senza interpolazione (Visto che mancano r, g e b) per quale motivo non dovrebbe usare tutti i bit, o un algoritmo divero????
Bhò a me mi sta a venire un mal di testa, Carlo facci sapere anche tu come la pensi.