Codifica binaria delle informazioni

A. Costantini | (la videolezione) Prima dell’avvento della tecnologia digitale l’informazione veniva trasmessa utilizzando segnali analogici. I segnali analogici sono funzioni continue del tempo che variano in analogia con qualche grandezza fisica, come il suono, la pressione, la temperatura, ecc. La trasmissione può avvenire attraverso dei cavi o attraverso lo spazio vuoto tramite le onde elettromagnetiche. Questo tipo di tecnologia funziona bene sulle piccole distanze; tuttavia ha dei limiti sulle grandi distanze, a causa del rumore inevitabile che degrada il segnale. Il rumore pone dei limiti fondamentali alla possibilità per il destinatario di ricostruire correttamente l’informazione trasmessa.
La teoria dell’informazione sviluppata da Shannon (il 1948 fu l'anno del suo articolo ‘A mathematical theory of communication‘) ha dato un contributo fondamentale per superare i limiti della trasmissione analogica. Shannon propose di codificare il messaggio da trasmettere, trasformando il segnale in una struttura discreta costituita da una stringa di cifre binarie, chiamate bit. Il bit (concetto introdotto proprio da Shannon) è l’unità minima di informazione che può essere usata per codificare un messaggio. Un bit può assumere solo due valori, che in genere vengono rappresentati con i simboli 0,10,1. Lungo il canale di trasmissione viene trasmesso il segnale codificato. Nel punto di arrivo si deve effettuare il procedimento opposto di decodifica, in modo da consegnare al destinatario il messaggio nella sua forma iniziale.
La trasmissione digitale ha un grande vantaggio: anche in presenza di rumore nel canale di trasmissione il segnale digitale può essere ricostruito nella sua forma iniziale. Questo permette di trasmettere informazioni in modo affidabile anche a grandissime distanze.