L'invenzione

Fotografia, 180 anni di storia dal dagherrotipo all’intelligenza artificiale

di |

Si parte dal 1839, con l’invenzione di Louis Daguerre, e si arriva alla prima macchina fotografica digitale della storia del 1971, fino alle nuove frontiere dell’IA, della realtà aumentata, dell’olografia.

La prima fotografia fissata in maniera permanente è arrivata nel 1827. Si trattava della riproduzione unica di una veduta dalla finestra di un laboratorio, “Vista dalla finestra a Le Gras”, effettuata da Nicéphore Niépce e oggi esposta all’Harry Ransom Center dell’Università del Texas di Austin.

Qualche anno dopo è arrivato il famoso dagherrotipo, messo a punto dal francese Louis Jacques Mandé Daguerre, a partire proprio dall’’idea di Niépce, che è storicamente riconosciuto come il primo procedimento per lo sviluppo di immagini (anch’esse uniche però, non riproducibili ancora,) pubblicamente presentato a Parigi nel 1839.

Parte da qui la storia della fotografia che, con lo scoccare del 2019, compie ormai 180 anni.

Un lungo viaggio tra invenzioni, ricerca, scienza e innovazione, che ci ha portato nel tempo ad esplorare nuovi territori, nuove soluzioni, alcune inimmaginabili fino a qualche anno fa.

Non si tratta più solamente di chimica, fisica e meccanica, ma anche di software, tecnologie lenticolari avanzatissime, studio dei materiali, batterie e tanto digitale.

Se Niépce utilizzava per le sue prime fotografie una lastra di rame di sua invenzione, che aveva ricoperto di una soluzione fotosensibile composta da bitume di Giudea (da cui nacque la tecnica della dagherrotipia), oggi si sfruttano le potenzialità immense della trasformazione digitale.

Se i due principali punti di svolta della fotografia sono il 1841, con le prime foto riproducibili, grazie all’inventore inglese William Fox Talbot, che sviluppò il metodo chiamato calotipia, basato sull’utilizzo di un negativo di carta, e il 1888, con le prime pellicole avvolgibili, che permisero qualche tempo dopo a chiunque di esercitarsi da fotografo (fotografia come hobby personale), è nel 1975 che arriva la svolta digitale, con il lavoro dell’ingegnere Steve Sasson, che alla Kodak assemblò la “Charged Coupled Device”.

Si trattava di una macchina dal peso di 3,6 kg, con una risoluzione di soli 0,01 megapixel: l’immagine di 100X100 pixel veniva scattata in 50 millisecondi, registrata su una cassetta durante un periodo di tempo di 23 secondi, per poi essere visualizzata su schermo mediante un registratore che impiegava 30 secondi per elaborare i dati.

Partiva da qui l’ultima grande rivoluzione tecnologica della fotografia, che oggi è arrivata sugli smartphone, persino sugli occhiali (smart glasses). Un mondo di sensori di incredibile precisione, ma anche di software technologies, di applicazioni dell’intelligenza artificiale (IA), della realtà aumentata, del machine learning.

Proprio all’Università dell’Illinois Urbana-Champaign, negli Stati Uniti, un team di ricercatori coadiuvati da tecnici Intel ha utilizzato l’IA per elaborare in maniera mai così dettagliata sino ad ora immagini scattate al buio, ottenendo risultati definiti sorprendenti (fotografie totalmente prive di rumore e cromaticamente accettabili in condizioni di luce estreme).

Già un anno fa Adobe e Nvidia avevano realizzato una serie di studi su un sistema basato sull’Intelligenza artificiale, chiamato Deep Image Prior, in grado di riparare eventuali difetti esistenti nei file.

Oggi le nuove frontiere della fotografia parlano sempre il linguaggio del digitale ma con ulteriori sviluppi, come nel caso dell’olografia, tecnica inventata dal fisico Dennis Gabor, grazie alla quale nel 1971 ha ricevuto il premio Nobel per la fisica.

L’olografia, in fondo, è sempre una tecnica fotografica, solo che ha una doppia funzione: replicare la realtà fedelmente, così come ci appare, o partire da essa per costruire personaggi o scene di fantasia, realizzando una specie di illusione ottica.

Gli ologrammi, infatti, sono immagini tridimensionali che riproducono personaggi, reali o di fantasia, che richiamo la stessa realtà virtuale, ma senza l’utilizzo di visori aggiunti.