Esattamente ora, mentre state leggendo questo articolo, state sperimentando il grandioso fenomeno della visione e tutto ciò che si staglia di fronte a voi appare con una risoluzione perfetta. Ma se volessimo quantificare tale perfezione in megapixel, quale sarebbe la risoluzione dell’occhio umano?
IN BREVE
È difficile confrontare la risoluzione dell’occhio umano con la risoluzione di una fotocamera digitale perché i concetti sono diversi.
In una fotocamera digitale, infatti, la “risoluzione” si riferisce al numero totale di pixel sulla lastra di imaging (il CCD) e viene misurata in megapixel. Una volta che una foto viene stampata la risoluzione si riferisce alla densità dei pixel per pollice (o altra unità di misura) sull’intera superficie stampata, ad esempio un foglio A4. Se volessimo fare un’analogia per gli umani, la risoluzione potrebbe essere il numero totale di fotorecettori nella retina, che è di circa 100 milioni o potrebbe essere il numero totale di fibre nervose inviate dall’occhio al cervello, che è circa 1 milione. Per essere corretti la risoluzione dell’occhio umano, ossia la capacità di risolvere i dettagli, andrebbe misurata in “risoluzione angolare” o gradi angolari per “pixel”. La risoluzione angolare varia da 1 minuto d’arco (1/60 di un grado angolare) al centro dell’occhio, dove si trova la fovea, un avvallamento nella retina considerato il punto di massima acutezza visiva, fino a 1 grado o più nella periferia.
Un’altra differenza che rende il nostro occhio diverso da una fotocamera è che nella maggior parte delle fotocamere digitali, i pixel sono posizionati in modo ortogonale tra loro su un sensore, ossia una lente, a formare una griglia quasi perfetta e la presenza di un filtro (di solito il filtro “Bayer”) fornisce pixel rossi, verdi e blu. Nell’occhio umano invece dobbiamo immaginare i pixel distribuiti in maniera disomogenea sul sensore, ossia il cristallino, con una maggiore densità di pixel nel centro ed inferiore alla periferia. Di questi solo circa 6 milioni di quei sensori sono sensibili al colore, dei quali solo 100.000 sono per la percezione del blu! Inoltre, la lente del nostro occhio non è piatta, come nella maggior parte delle fotocamere, ma è semi-sferica, con una diagonale di circa 22 mm ed una superficie di circa 1100 mm2.

Nonostante queste differenze e la difficoltà nel paragonare l’occhio ad una fotocamera, con un po’ di calcoli matematici e grazie alla conoscenza dell’anatomia umana è stato possibile rispondere alla domanda centrale di questo articolo, che in tanti vi sarete posti: qual è la risoluzione dell’occhio umano in megapixel? O detta in altri termini di quanti piccoli elementi individuali un’immagine che occupa l’intero campo visivo deve essere composta affinché il nostro occhio la percepisca come un’immagine unica?
La risposta? 576 megapixel.
Roger N. Clark ha calcolato questo numero sfruttando proprio il concetto di “risoluzione angolare”. Badate bene però che si tratta di un’approssimazione che assume che in qualsiasi punto dell’occhio, dalla fovea alla periferia, ci sia la stessa acutezza visiva, ossia la stessa risoluzione angolare. Sembrerebbe infatti che il più delle volte il nostro occhio sia una fotocamera da 7 megapixel, che corrisponde alla risoluzione della fovea durante una singola occhiata, risoluzione sufficiente per far sì che tutti i pixel di cui è composta l’immagine che si staglia nel nostro campo visivo siano impercettibili.

Un altro aspetto, che spesso diamo per scontato, è che l’occhio umano sembra vedere “continuamente”, ma in realtà è ciclico. Esso infatti è in mantenuto in costante movimento da microtremori oculari che si verificano circa 70-110 volte al secondo, mentre il nostro cervello fonde costantemente quell’ultima immagine catturata con tante altre immagini precedenti. Quindi non vediamo solo un oggetto, riconosciamo immediatamente un oggetto e richiamiamo un’intera libreria di informazioni su ciò che abbiamo appena visto. Ed il risultato, a meno che qualcosa si muova troppo velocemente, è che la risoluzione aumenta da 120 megapixel a qualcosa come 500 megapixel poiché l’immagine è costruita da più campioni. Quindi i pixel sono solo una parte dell’equazione alla base della risoluzione dell’occhio umano, che dipende in realtà da moltissimi altri fattori. Per esempio, la quantità di luce, la dimensione delle lenti oculari, e la distanza del soggetto dall’immagine che sta osservando.
E poi c’è il nostro cervello!
Per comprendere meglio come tutti questi fattori intervengono nel determinare la capacità dei nostri occhi di risolvere anche i più piccoli dettagli di un’immagine, è necessario comprendere come avviene lo spettacolare processo della visione. La prima parte del processo visivo è meccanica. La luce passa attraverso la cornea e la pupilla verso il cristallino (anche semplicemente definito lente). La forma della cornea focalizza leggermente la luce in entrata prima che entri nel cristallino. Il sistema ottico dell’occhio è tale da produrre un’immagine invertita del campo visivo sulla retina; il sistema si comporta come una lente convessa ma è, di fatto, molto più complesso: la rifrazione avviene non su due superfici, come in una lente, ma su quattro superfici separate – sulle superfici anteriore e posteriore sia della cornea sia del cristallino. Ciascuna di queste superfici è approssimativamente sferica così che i raggi di luce vengano indirizzati l’una sull’altra, con l’esito finale di portare questi raggi a un punto specifico di messa a fuoco del sistema ottico, che corrisponde alla retina. La quantità di luce che passa attraverso la cornea è regolata dall’iride, ossia quella porzione che determina il colore dei nostri occhi, e che circonda la pupilla e ne regola le dimensioni. In piena luce, infatti, l’iride riduce le dimensioni della pupilla, che lascia entrare meno luce, mentre in penombra, l’iride espande la pupilla, lasciando entrare più luce. I muscoli e i legamenti ciliari fanno sì che il cristallino cambi forma, consentendo alla lente di focalizzare la luce sulla retina. Questo processo è chiamato accomodazione. Con l’invecchiamento, il cristallino diventa meno flessibile e la capacità dell’occhio di concentrarsi su oggetti vicini è ridotta.

Dalla retina partono fasci di fibre nervose collegate al cervello. Tali fibre prendono nomi diversi a seconda della loro posizione sulla retina. Alcune di esse attraversano il lato opposto del cervello a creare un parziale incrocio chiamato chiasma, che fa sì che un oggetto, che si trova nel campo visivo della mano destra, produca effetti sul lato sinistro del cervello. Il chiasma è ciò che consente la visione binoculare, fondendo le risposte di entrambi gli occhi in una singola immagine.
Un aspetto interessante dell’elaborazione dell’immagine nel cervello è che esso non richiede alcuna risoluzione particolare e i nostri occhi si adattano a ciò che possono vedere. Basti pensare all’evoluzione della televisione. Il nostro cervello si è adattato alla qualità piuttosto terribile della televisione NTSC e al VHS. All’avvio del digitale, tra DVD e DVR, la risoluzione sembrava aver fatto passi da giganti e ci eravamo quasi adattati a tale livello di qualità; ma chiunque abbia sperimentato la HDTV di oggi, tornando a quei vecchi media, rimarrebbe davvero deluso.
L’occhio umano presenta caratteristiche uniche ed eccezionali non solo se confrontato con gli strumenti digitali oggi disponibili, ma anche rispetto a quasi tutte le specie di primati esistenti. L’occhio umano ha iniziato ad evolversi per adattarsi alle grandi dimensioni del corpo e alla vita terrestre, estendendo il campo visivo dal movimento del bulbo oculare, specialmente in direzione orizzontale, fino al risultato sensazionale degli occhi nell’era in cui viviamo.
Fonte
- Notes on the Resolution and Other Details of the Human Eye
ClarkVision - Human photoreceptor topography.
Journal of Comparative Neurology - Human eye
Encyclopedia britannica