(la videolezione) La codifica digitale rappresenta l'informazione (immagini, suoni o testi) in una sequenza di cifre binarie, chiamate bit (0 e 1). Questa rappresentazione è fondamentale per la memorizzazione, l'elaborazione e la trasmissione dei dati attraverso dispositivi elettronici. Ogni tipo di informazione ha un suo specifico metodo di codifica: per i caratteri, si utilizzano standard come ASCII o Unicode, dove a ogni lettera, numero o simbolo viene associato un codice binario unico (per esempio, la lettera "A" maiuscola in ASCII è codificata come 01000001). Per le immagini, la codifica avviene suddividendo l'immagine in una griglia di piccoli punti chiamati pixel. A ciascun pixel viene assegnato un codice binario che rappresenta il suo colore e la sua luminosità (ad esempio, in un'immagine a 24 bit, 8 bit sono usati per il rosso, 8 per il verde e 8 per il blu, permettendo oltre 16 milioni di combinazioni di colore). Per i suoni, si digitalizza l'onda sonora misurandone il valore a intervalli regolari e convertendo l'ampiezza di ogni campione prelevato in un codice binario (ad esempio, un CD audio campiona il suono 44.100 volte al secondo, convertendo ogni campione in un numero a 16 bit). La frequenza di campionamento e il numero di bit per campione determinano la qualità della riproduzione digitale.

Prima dell’avvento della tecnologia digitale l’informazione veniva trasmessa utilizzando segnali analogici. I segnali analogici sono funzioni continue del tempo che variano in analogia con qualche grandezza fisica, come il suono, la pressione, la temperatura, ecc. Questo tipo di tecnologia funziona bene nelle trasmissioni sulle piccole distanze ma ha dei limiti sulle grandi distanze, a causa del rumore inevitabile che degrada il segnale. Il rumore pone dei limiti fondamentali alla possibilità per il destinatario di ricostruire correttamente l’informazione trasmessa.
La teoria dell’informazione sviluppata da Shannon (il 1948 fu l'anno del suo articolo ‘A mathematical theory of communication‘) ha dato un contributo fondamentale per superare i limiti della trasmissione analogica. Shannon propose di codificare il messaggio da trasmettere, trasformando il segnale in una struttura discreta costituita da una stringa di cifre binarie, chiamate bit. Il bit (concetto introdotto proprio da Shannon) è l’unità minima di informazione che può essere usata per codificare un messaggio. Un bit può assumere solo due valori, che in genere vengono rappresentati con i simboli 0 e 1. Lungo il canale di trasmissione viene trasmesso il segnale codificato. Nel punto di arrivo si deve effettuare il procedimento opposto di decodifica, in modo da consegnare al destinatario il messaggio nella sua forma iniziale. La trasmissione digitale ha un grande vantaggio: anche in presenza di rumore nel canale di trasmissione il segnale digitale può essere ricostruito nella sua forma iniziale. Questo permette di trasmettere informazioni in modo affidabile anche a grandissime distanze.