Vorrei una spiegazione, con qualche esempio, sul concetto di cifre significative delle misure delle grandezze fisiche.

Il concetto di cifre significative e’ strettamente legato a quello di
errore di misura delle grandezze fisiche. Quando si effettua una misura
si ottiene sempre un valore che non puo’ avere una precisione infinita.
Gli errori che possono affliggere una misura di grandezza fisica possono
avere varie cause (che non esaminero’ adesso); l’errore piu’ classico
e’ quello di sensibilita’: con un righello si e’ in grado di misurare
il millimetro, ma non una lunghezza piu’ piccola.
Ho misurato con un righello la lunghezza del foglio che ho davanti ed
ho ottenuto 26.3cm. L’errore intrinseco in questa misura e’ di un millimetro,
ovvero di 0.1cm. Le cifre significative di questa misura sono tre e sono
appunto quelle che ho scritto: 26.3

Se avessi scritto che la lunghezza del foglio fosse stata di 26.345cm
(sempre con un errore di 0.1cm), avrei commesso l’imprecisione di scrivere
cifre non significative. Tale imprecisione e’ piuttosto comune quando
si e’ alle prime armi con le misure di grandezze fisiche. Capita, in genere,
quando si effettuano delle operazioni matematiche sulle grandezza misurate.
Supponiamo, infatti, di voler calcolare la diagonale del foglio di cui
ho misurato la lunghezza. Per prima cosa ne misuro anche la larghezza,
che risulta di 19.2cm, anch’essa con un errore di 0.1cm

Utilizzando il teorema di Pitagora ottengo che la diagonale misura 32.562708cm.
Ma quali sono le cifre significative in questa misura, e quali sono quelle
prive di significato? Per rispondere a questa domanda bisogna effettuare
il calcolo della propagazione degli errori, il cui risultato e’ di 0.2cm.
Ovverosia la diagonale misura 32.6cm con un errore di 2mm. Le cifre significative
sono sempre tre.