La luminosità di una foto è la media fra i livelli di colore sulla stessa: Rosso, Verde, Blu. Se si tratta di una foto astronomica in scala di grigi, come si relaziona la luminosità alla magnitudine? Se viene usato il contrast/stretch la luminosità perde valore e veridicità? Grazie anticipatamente.

Bisogna prima di tutto chiarire che non esiste una sola magnitudine, ma ne esistono molte, in relazione alla banda di colore.
La magnitudine è un modo di esprimere in scala logaritmica il flusso totale di fotoni che ci giunge da una sorgente, pesata per una curva di risposta di alcuni filtri standard.
In formule mx=-2,5 log10Fx+C
dove Fx è appunto il flusso pesato per la banda x (indichiamo tale funzione come Bx)mentre la costante C (che nei logaritmi equivale a una costante di proporzionalità) tiene conto di molti fattori del sistema di ripresa, quali per esempio il diametro del telescopio.
In linea teorica, supponendo di avere un sensore con risposta perfettamente piana in tutte le frequenze, è sufficiente anteporvi un filtro standard, che è stato costruito per avere una risposta spettrale esattamente pari ad Bx, per ottenere la magnitudine della sorgente, a meno della costante C. La costante si ottiene con semplicità paragonando il valore di magnitudine ottenuto osservando nelle medesime condizioni una sorgente di magnitudine nota in quella banda spettrale.
Nella pratica nessun sensore ha risposta piatta, per cui è necessario passare attraverso un procedimento un po’ più complesso di calibrazione dell’apparato di ripresa.
È evidente che la magnitudine è misurabile solo in quelle bande spettrali in cui il sensore a nostra disposizione possiede una sensibilità adeguata.
Si noti che, in linea di principio, uno potrebbe non anteporre alcun filtro al sensore: il tal caso esegue una misura di magnitudine pesata per una funzione Bs che è semplicemente la curva di risposta spettrale del proprio sensore: tale misura è in linea di principio lecita, l’unico problema è che, non essendo Bs una curva standard non esistono sorgenti di riferimento sulle quali eseguire una calibrazione. Si parlerà allora di magnitudine totale integrata sul sensore, che però non è una misura scientifica significativa.
Da un sensore elettronico escono in realtà dei numeri, uno per l’intensità di ciascun pixel: ne consegue che il procedimento descritto è adeguato solo fintanto che l’intensità misurata per ciascun pixel è proporzionale al flusso ricevuto Fx. Ciò rimane vero solo se il sensore stesso ha una risposta lineare (al raddoppio dell’intensità raddoppia il conteggio) o se nelle operaizoni eseguite interviene una pura costante di proporzionalità: se per esempio raddoppiamo il tempo di esposizione o l’area di raccolta della luce mi devo aspettare di ottenere un’intensità doppia e il coefficiente rientrerà nella costante C che viene rimossa in fase di calibrazione. Rimane altrettanto vero se in fase di elaborazione si applicano degli stretching lineari, che non sono altro che un modo per applicare una costante di proporzionalità.
Non è più vero se intervengono fenomeni non lineari quali la saturazione del sensore, uno stretching non lineare (moltiplicare ciascuna intensità per un fattore non costante ma funzione dell’intensità stessa) o applicare uno stretching lineare che porti alla "saturazione numerica" delle aree più intense.
In linea di principio, da un’immagine che ha subito un’elaborazione non lineare non è più possibile misurare la magnitudine delle stelle, perché l’intensità sull’immagine non è più proporzionale alla loro reale intensità in cielo.

Affrontiamo ora la questione del sensore a colori.
I sensori a colori delle macchine fotografiche digitali sono dei normali sensori in bianco e nero, ma davanti a ciascun pixel è stato deposto un micro-filtro, in una matrice a scacchiera di colori rosso, verde e blu. In fase di ripresa le immagini provenienti dai pixel coi diversi filtri vengono separate a creare tre immagini distinte, applicando durante questo processo una costante moltiplicativa diversa per ciascuna immagine, che dipende da quanto è sensibile il sensore sottostante ai tre colori dei filtri, in modo da compensare per la diversa sensibilità.
L’immagine ottenuta che visualizziamo sullo schermo contiene in realtà le tre immagini nei tre diversi colori e coi programmi di elaborazione d’immagine esse si possono nuovamente separare.
Se immaginiamo di sommare queste tre immagini perdiamo l’informazione sul colore e otteniamo la stessa immagine che avremmo potuto ottenere anteponendo al sensore originale in bianco e nero un ipotetico filtro che ha funzione di trasferimento pari alla somma delle Bx dei tre micro-filtri: non sarebbe una risposta piatta ma certamente più piatta di quella del singolo canale di colore.
Se ora vogliamo eseguire una misura di magnitudine, valgono le medesime considerazioni fatte per il sensore in bianco e nero: possiamo anteporre un filtro con risposta spettrale Bx  standard, eseguire la somma delle tre immagini, calibrare il sensore e procedere alla misura della magnitudine. Ha invece poco valore scientifico prendere le tre immagini a colori originali non filtrate perché i filtri usati per  i sensori delle fotocamere ad uso generico non hanno curve spettrali astronomiche standard. Ciò non toglie che, accettando un certo grado di errore e senza la pretesa di risultati scientifici di prim’ordine uno potrebbe assumere le tre immagini colorate come se ricevute dai tre filtri standard che più si avvicinano come curva spettrale a quella dei filtri della fotocamera e misurare in modo approssimato tre magnitudini apparenti in tre bande spettrali distinte.

 

Qualche testo per approfondire le questioni di calorimetria:

Claudio Oleari, "Fisiologia della visione a colori – Fotometria – Colorimetria e norme internaizonali" (Hoepli)
Alessandro Braccesi, "Dalle stelle all’universo – lezioni di astrofisica" (Zanichelli)