In questo articolo affronteremo il tema Ridondanza (teoria dell'informazione), argomento di grande attualità e interesse oggi. Da tempo Ridondanza (teoria dell'informazione) attira l'attenzione di specialisti, ricercatori e grande pubblico per il suo impatto su diversi aspetti della società. Nel corso dell'articolo verranno analizzate diverse prospettive, studi e riflessioni su Ridondanza (teoria dell'informazione), con l'obiettivo di fornire una visione completa e arricchente dell'argomento. Inoltre, verranno esplorate possibili soluzioni, progressi e sfide legate a Ridondanza (teoria dell'informazione), con l'intenzione di favorire il dialogo e la riflessione critica attorno a questa questione di grande importanza.
Nella teoria dell'informazione la ridondanza misura la differenza tra l'entropia H(X) di un insieme X e il suo valore massimo possibile .[1][2] Concettualmente indica la quantità di spazio usato in eccesso rispetto al contenuto informativo, ossia misura tutto quanto non è strettamente necessario per ricavare l'informazione utile netta (perché per esempio non aggiunge informazione o trasporta contenuti di altro tipo) e che quindi peggiora l'efficienza della trasmissione. La compressione dei dati o il ricorso a opportuni algoritmi di codifica sono alcuni dei sistemi pratici utilizzati per ridurre o eliminare la ridondanza. Altre tecniche trasmissive invece introducono apposta una ridondanza in quantità nota e limitata, per consentire una maggiore robustezza nella trasmissione o per trasportare sullo stesso canale informazioni ausiliarie per il monitoraggio e controllo del traffico: esempi del primo caso sono gli algoritmi di checksum e di Forward Error Correction impiegati per il rilevamento e la correzione degli errori quando si comunica su un canale rumoroso; esempi del secondo caso sono gli overhead associati alle strutture trasmissive come ad esempio i pacchetti o le trame dati utilizzate in tecnologie quali SDH e OTN.
Nel descrivere la ridondanza dei dati grezzi, la velocità (attuale) di una fonte di informazione è l'entropia media per simbolo . Per le sorgenti senza memoria questa coincide con l'entropia di ciascun simbolo, mentre, nel caso più generale di un processo stocastico, è data da:
cioè il limite, per n tendente all'infinito, dell'entropia congiunta dei primi n simboli diviso per n.
La velocità assoluta di una fonte è data dal logaritmo della cardinalità dello spazio del messaggio, o alfabeto.
Questa formula è talvolta chiamata funzione di Hartley.[3] Essa indica la quantità massima possibile di informazione per unità di tempo che può essere trasmessa con quell'alfabeto. La velocità assoluta è uguale alla velocità effettiva se la sorgente è priva di memoria e ha una distribuzione uniforme.
La ridondanza assoluta può quindi essere definita come la differenza tra la velocità assoluta e quella attuale:
La quantità è chiamata ridondanza relativa e fornisce il massimo rapporto possibile di compressione dei dati, espresso come la percentuale di riduzione della dimensione di un insieme di dati. Quando invece viene espresso come rapporto tra la dimensione originale e la dimensione compressa, la quantità fornisce il massimo rapporto di compressione ottenibile. Complementare al concetto di ridondanza relativa è l'efficienza, definita come ; si ha per definizione che . Una sorgente senza memoria con una distribuzione uniforme ha ridondanza zero (e quindi efficienza del 100%) e non può essere compressa.