regggae1095
PRO
Visto che eravamo andati ampiamente OT, riprendo la discussione in questa sezione del forum.
Mi aggancio all'ultima osservazione di Fearless, ma penso che anche StrongAle e Alessio70 vogliano dire la loro. E un taggino lo metto anche per supermariano81 e anche Wolf
QUOTE
No aspetta, prima di fare un affermazione del genere dovresti quantomeno specificare che intendi per "informazioni". La luce non è un'informazione per la reflex, l'informazione intesa come insieme di dettagli colori e luminosità della scena che viene registrato sulla reflex è il segnale digitale che a partire dalla luce viene creato.
La luce così come viene catturata dal sensore cmos è un radiazione elettromagnetica, costituenti di questa radiazione sono i fotoni, particelle senza massa ma dotate di una certa energia data dal prodotto tra quantità di moto e frequenza. Tale energia viene utilizzata dalle celle cmos per produrre un segnale elettrico equivalente.
Più luce viene tradotta con un segnale elettrico più forte, visto il numero maggiore di fotoni, una zona d'ombra viene invece tradotta dal sensore con un segnale elettrico più debole.
A questo livello il segnale è ancora analogico, varia cioè su ampiezze continue, non discrete.
Per rendere il segnale digitale, esso viene campionato, tale processo prevede prevede che ai vari livelli di energia catturati, corrispondano certi quantitativi di corrente con valori discreti. Tali valori di corrente sono tanto più piccoli quanto più la luce catturata è poca e sono tanto più alti quanto più è la luce catturata. E qui il fotografo attraverso l'impostazione ISO gioca un ruolo importante, perchè decide di quanto questi valori debbano essere amplificati.
Tali valori di corrente discreti però non si adattano alle elaborazioni digitali e tanto meno alla memorizzazione su supporti fisici come le memorie flash SD o CF. Tali memorie infatti sanno riconoscere solo due segnali, uno alto, corrispondente all'1 logico e uno basso, corrispondente allo zero logico.
I volts corrispondenti all'1 e allo zero variano poi da tecnologia a tecnologia.
Una volta l'1 era il 5V, poi si è sceso a 3,3 V..e così via, dipende insomma..
Per poter trasformare allora i vari segnali di corrente in bit occorre quantizzare. Con la quantizzazione infatti la grandezza elettrica prodotta dal sensore diventa una sequenza numerica di 0 e 1.
Se il processore è a 14 bit, vuol dire che per ogni grandezza elettrica il processore tirerà fuori un numero in base binaria a 14 cifre.
Se il processore è a 12 bit vuol dire che ... .. . . . .12 cifre e così via.
Il numero dei bit quindi non cambia non si dimezza e non aumenta. Altrimenti cambierebbe il numero dei livelli ad ogni conversione e ci sarebbe una mescolanza di segnali digitali diversi
Come dire che nell'ipotesi di conversione a 4 bit si rappresenta la luce con 1111, e il buio con 0! No!
Se il processore ha 4 bit. La luce sarà quindi 1111, e il buio sarà 0000.
Non è che con gli stop i bit aumentano o diminuiscono!!!!! E' l'equivalente in binario che assume valori multipli o sottomultipli secondo una certa scale
Se così nono fosse l'errore di quantizzazione aumenterebbe ad ogni quantizzazione in cui vengono ridotti i bit, e proprio questo nell'articolo che ho letto è sconsigliato:
Riguardo a tutte le teorie che si fanno nell'articolo con gli esempi delle fette e della conversione a 14 bit, non capisco da quali fondamenti si attinga, dal momento che non sono citate le fonti, non si fa nessuna ipotesi sulla quantizzazione utilizzata da nikon o da canon o chiunque altro...Dal momento che le quantizzazioni non sono tutte uguali, e quindi quelle stringe di uni e di zeri potrebbero anche essere completamente sballate.
Ma ad ogni modo, io non sono contrario con l'esposizione a destra, dicevo solo che (ma chi me l'ha fatto fare) nel caso di canon, conveniva di meno, perchè aumentare dalle ombre comportava più rumore
UNQUOTE
in effetti quanto scrive Fearless circa la conversione della luce da analogico a digitale è in linea con la prima parte dell'articolo di Alessandro Brizzi, poi però sembra non esserci più coerenza nel discorso del dimezzamento dei bit (e forse qui si tratta solo di una confusione nei termini oppure in una costruzione ambigua delle frasi dell'articolo)
A questo punto sarebbe interessante capire se ci sono altre fonti a cui attingere, magari scritte in altri termini che permettano una sola e univoca interpretazione, oltre ad un maggior dettaglio circa gli schemi di campionamento di Nikon o Canon (ammesso che ce ne sia traccia da qualche parte)
E' anche vero che (forse) per molti versi stiamo parlando di aria fritta, perchè poi alla fine non sono questi tecnicismi estremi a determinare se una foto verrà scattata bene oppure no, ma sono anche convinto che nel forum è bello discutere di un po' di tutto. In altre parole: ben venga se riusciamo a sviscerare il "problema", altrimenti continuo a vivere felice con il TTL di mamma Canon
Mi aggancio all'ultima osservazione di Fearless, ma penso che anche StrongAle e Alessio70 vogliano dire la loro. E un taggino lo metto anche per supermariano81 e anche Wolf
QUOTE
No aspetta, prima di fare un affermazione del genere dovresti quantomeno specificare che intendi per "informazioni". La luce non è un'informazione per la reflex, l'informazione intesa come insieme di dettagli colori e luminosità della scena che viene registrato sulla reflex è il segnale digitale che a partire dalla luce viene creato.
La luce così come viene catturata dal sensore cmos è un radiazione elettromagnetica, costituenti di questa radiazione sono i fotoni, particelle senza massa ma dotate di una certa energia data dal prodotto tra quantità di moto e frequenza. Tale energia viene utilizzata dalle celle cmos per produrre un segnale elettrico equivalente.
Più luce viene tradotta con un segnale elettrico più forte, visto il numero maggiore di fotoni, una zona d'ombra viene invece tradotta dal sensore con un segnale elettrico più debole.
A questo livello il segnale è ancora analogico, varia cioè su ampiezze continue, non discrete.
Per rendere il segnale digitale, esso viene campionato, tale processo prevede prevede che ai vari livelli di energia catturati, corrispondano certi quantitativi di corrente con valori discreti. Tali valori di corrente sono tanto più piccoli quanto più la luce catturata è poca e sono tanto più alti quanto più è la luce catturata. E qui il fotografo attraverso l'impostazione ISO gioca un ruolo importante, perchè decide di quanto questi valori debbano essere amplificati.
Tali valori di corrente discreti però non si adattano alle elaborazioni digitali e tanto meno alla memorizzazione su supporti fisici come le memorie flash SD o CF. Tali memorie infatti sanno riconoscere solo due segnali, uno alto, corrispondente all'1 logico e uno basso, corrispondente allo zero logico.
I volts corrispondenti all'1 e allo zero variano poi da tecnologia a tecnologia.
Una volta l'1 era il 5V, poi si è sceso a 3,3 V..e così via, dipende insomma..
Per poter trasformare allora i vari segnali di corrente in bit occorre quantizzare. Con la quantizzazione infatti la grandezza elettrica prodotta dal sensore diventa una sequenza numerica di 0 e 1.
Se il processore è a 14 bit, vuol dire che per ogni grandezza elettrica il processore tirerà fuori un numero in base binaria a 14 cifre.
Se il processore è a 12 bit vuol dire che ... .. . . . .12 cifre e così via.
Il numero dei bit quindi non cambia non si dimezza e non aumenta. Altrimenti cambierebbe il numero dei livelli ad ogni conversione e ci sarebbe una mescolanza di segnali digitali diversi
Come dire che nell'ipotesi di conversione a 4 bit si rappresenta la luce con 1111, e il buio con 0! No!
Se il processore ha 4 bit. La luce sarà quindi 1111, e il buio sarà 0000.
Non è che con gli stop i bit aumentano o diminuiscono!!!!! E' l'equivalente in binario che assume valori multipli o sottomultipli secondo una certa scale
Se così nono fosse l'errore di quantizzazione aumenterebbe ad ogni quantizzazione in cui vengono ridotti i bit, e proprio questo nell'articolo che ho letto è sconsigliato:
Riguardo a tutte le teorie che si fanno nell'articolo con gli esempi delle fette e della conversione a 14 bit, non capisco da quali fondamenti si attinga, dal momento che non sono citate le fonti, non si fa nessuna ipotesi sulla quantizzazione utilizzata da nikon o da canon o chiunque altro...Dal momento che le quantizzazioni non sono tutte uguali, e quindi quelle stringe di uni e di zeri potrebbero anche essere completamente sballate.
Ma ad ogni modo, io non sono contrario con l'esposizione a destra, dicevo solo che (ma chi me l'ha fatto fare) nel caso di canon, conveniva di meno, perchè aumentare dalle ombre comportava più rumore
UNQUOTE
in effetti quanto scrive Fearless circa la conversione della luce da analogico a digitale è in linea con la prima parte dell'articolo di Alessandro Brizzi, poi però sembra non esserci più coerenza nel discorso del dimezzamento dei bit (e forse qui si tratta solo di una confusione nei termini oppure in una costruzione ambigua delle frasi dell'articolo)
A questo punto sarebbe interessante capire se ci sono altre fonti a cui attingere, magari scritte in altri termini che permettano una sola e univoca interpretazione, oltre ad un maggior dettaglio circa gli schemi di campionamento di Nikon o Canon (ammesso che ce ne sia traccia da qualche parte)
E' anche vero che (forse) per molti versi stiamo parlando di aria fritta, perchè poi alla fine non sono questi tecnicismi estremi a determinare se una foto verrà scattata bene oppure no, ma sono anche convinto che nel forum è bello discutere di un po' di tutto. In altre parole: ben venga se riusciamo a sviscerare il "problema", altrimenti continuo a vivere felice con il TTL di mamma Canon