Campionamento di segnali analogici (superiori): differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Etichetta: Editor wikitesto 2017
Riga 53:
 
=== Quanti bit? ===
Quanti bit vengono utilizzati nella codifica? La risposta sembrerebbe ovvia: aumentare il numero di bit, significa aumentare la precisione, quindi più bit è meglio. Non sempre. La risposta corretta è: qual è la precisione necessaria e sufficiente per il corretto funzionamento del mio sistema?
 
Un esempio sono i colori nello schermo, formati da gradazioni di rosso, verde e blu. Sì è scelto di adottare una quantizzazione a 8 bit che – moltiplicata per 3 colori – fa 24 bit. Questo implica che i colori rappresentabili nello schermo sono <math>2^{24}=16.777.216</math>, non uno di più. È sufficiente? Sedici milioni di colori sono troppi, troppo pochi, il giusto? Questa scelta deriva dalla capacità dell'occhio umano di distinguere i vari colori. Meno bit avrebbe significato sfumature non nitide. Più bit, colori che l'occhio umano non avrebbe distinto tra loro.
 
È importante ricordare che aumentare la quantizzazione di un singolo bit, significa raddoppiare la risoluzione, infatti il numero di livelli diventa:
 
<math>L_{N+1} = 2^{N+1}=2\times 2^N=2\times L_N</math>
 
pertanto, la risposta corretta è sempre: quanto basta. Consideriamo un monitor con una risoluzione <math>1.920 \times 1.080 = 2.073.600~\text{pixel}</math>. Pertanto, l'immagine di sfondo, avendo 24 bit per pixel creerà un'occupazione di memoria pari a <math>2.073.600~\text{pixel}\times24~\text{bit}=49.766.400~\text{bit}\simeq5,93~\text{MB}</math>. Se aumentassimo la profondità di colore di un solo bit, passando da 24 a 27 bit per pixel, il risultato sarebbe un'occupazione di memoria pari a <math>6,67~\text{MB}</math>, ovvero il <math>12,5\%</math> in più. Per ogni fotogramma.
 
Ecco perché, sia nel campionamento, sia nella quantizzazione, si utilizzano le frequenze e i bit che servono.
 
Procediamo con alcuni esempi tratti dalla vita quotidiana.