Vorrei sapere la differenza tra informazione e rumore nei sistemi digitali. Grazie se vorrete rispondermi.

Il problema fondamentale della comunicazione consiste nel riprodurre in un punto un messaggio selezionato in un altro punto.
Dalla teoria generale delle telecomunicazioni di Shannon sappiamo che qualsiasi sistema di comunicazione, indipendentemente se è digitale o analogico, comprende i seguenti blocchi:

1) Una sorgente d’informazione che produce un messaggio o una sequenza di messaggi che devono essere comunicati ad un terminale ricevente.(Esempio, una persona che parla o un codificatore Mpeg ).

2) Il trasmettitore che opera sul messaggio in qualche modo per produrre un segnale adatto alla trasmissione. (Esempio, il microfono che trasforma la voce in segnali elettrici che modula una portante ed irradia un segnale radio o una codifica di canale e relativa modulazione)
3) Il canale è il mezzo usato per connettere trasmettitore e ricevitore. Può essere una coppia di fili, un cavo coassiale, una banda di frequenza radio, un fascio di luce. Il ricevitore può essere distante nello spazio oppure nel tempo, come avviene, quando si utilizzano supporti di memoria.

4) Il ricevitore che implementa l’operazione inversa di quella fatta dal trasmettitore. Decodifica il segnale con qualche approssimazione della sua forma principale. (Esempio, l’apparecchio radio di casa o il decoder Tv digitale ).

5) Una destinazione, in altre parole l’utente o la cosa per la quale il messaggio è stato inviato.

Tutto funzionerebbe alla perfezione se fra trasmettitore e ricevitore, cioè sul canale, vi fosse solo il segnale trasmesso.
In realtà abbiamo dei disturbi che alterano il segnale voluto che interagisce con segnali non voluti di diversa natura.

L’insieme di tutti i segnali non voluti, generati dall’uomo o da fenomeni naturali che modificano il segnale in modo imprevedibile e chiamato semplicemente “Rumore

Nel modello descritto, si aggiunge sul canale una sorgente di rumore

Quindi il rumore (dipende dalla rumosità del canale ) può modificare la forma del segnale in modo tale che il ricevitore possa commettere degli errori ,alterare quindi l’informazione contenuta nel messaggio.

Ma ,come è possibile sapere di quanto si è modificata l’informazione ? Misurandola !

Come si può misurare l’informazione ?

Uno dei postulati fondamentali della teoria di Shannon è che l’informazione può essere trattata come una quantità fisica misurabile, non diversamente da una misura di densità , corrente o massa.
Scopo di un’informazione è fornire ciò che non si conosce ,rimuovere uno stato d’incertezza, trasmettere ciò che non è noto. E’ completamente inutile trasmettere ciò che si conosce.

In base a quest’osservazione la teoria definì la quantità d’informazione contenuta in un messaggio e portata da un segnale: essa è semplicemente la misura della sua improbabilità.

Il tutto è visto come un processo stocastico. Shannon chiamò la misura del grado d’incertezza contenuta in un messaggio “Entropia 1 a causa della sua analogia formale dell’entropia termodinamica di Boltzmann.(In questo modo il genio di Shannon toglie dall’informazione qualsiasi contenuto soggettivo e semantico). L’entropia si misura in bit ed ha un ben diverso significato dell’altro utilizzo del “ bit “usato come simbolo binario.

Concludendo, la sorgente produce un messaggio (che verrà trasportato da un segnale elettrico) che contiene un definito valore d’entropia. Sul canale c’è rumore, aumenta quindi l’incertezza,

l’informazione all’uscita del canale è espressa come la differenza fra l’entropia della sorgente e l’entropia che il rumore sottrae.

Prima del 1948 tutti affermarono che era impossibile trasmettere un messaggio senza errori su un canale rumoroso. Shannon disse che era invece possibile. Dimostrò il suo teorema affermando la possibilità di raggiungere il limite della capacità del canale . La formula è nota ne abbiamo parlato in una precedente risposta 2. Shannon ci ha offerto gli strumenti matematici necessari a calcolare la capacità di un canale e quindi capire ,in presenza di rumore ,quanta informazione vi può transitare.

Ad ogni tipo di modulazione, manipolazione, codifica,presente o futura attuata sul segnale esiste un valore preciso del rapporto segnale rumore S/N o SNR sotto il quale il ricevitore non potrà estrarre nessun messaggio dal segnale ricevuto. Esiste un limite assoluto che non potrà mai essere superato detti limiti di Shannon.

Nessuno ha contraddetto questa teoria. Dal 1948 verifichiamo la validità con ricerche finalizzate a scoprire nuove tecniche di codifica per aviccinarsi ai limiti di Shannon, quindi per ora è la nostra verità assoluta.

Note

2) Sul teorema della codifica del canale e limiti di Shannon