REDUNDANCIA & ENTROPIA
Redundancia: Es la repetición de información o de los canales de transmisión. Los canales redundantes evitan la sobrecarga.
· Añadir canales redundantes aumentaría la probabilidad de que la señal alcanzase su objetivo.
· La redundancia no debe considerarse simplemente como canales adicionales o mensajes adicionales, sino también como información tan previsible que no parece que pudiera haber ninguna dificultad en descodificarla.
Entropía: Se usa para describir información impredecible e inesperada en el contexto en que aparece.
· Si un grado de redundancia o predicción en la comunicación aumenta la posibilidad de que un mensaje se descodifique fácilmente, el uso de la entropía tiene el efecto contrario.
· Si bien el uso de la entropía puede hacer mas difícil descodificar un mensaje, puede igualmente aumentar la posibilidad de que reparemos en el mensaje y le prestemos mas atención.
· Añadir canales redundantes aumentaría la probabilidad de que la señal alcanzase su objetivo.
· La redundancia no debe considerarse simplemente como canales adicionales o mensajes adicionales, sino también como información tan previsible que no parece que pudiera haber ninguna dificultad en descodificarla.
Entropía: Se usa para describir información impredecible e inesperada en el contexto en que aparece.
· Si un grado de redundancia o predicción en la comunicación aumenta la posibilidad de que un mensaje se descodifique fácilmente, el uso de la entropía tiene el efecto contrario.
· Si bien el uso de la entropía puede hacer mas difícil descodificar un mensaje, puede igualmente aumentar la posibilidad de que reparemos en el mensaje y le prestemos mas atención.
La Entropía también es entendida como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como "que", "el", "a" aportan poca información. Mientras que palabras menos frecuentes como "corren", "niño", "perro" aportan más información. Si de un texto dado borramos un "que", seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra "niño" del mismo texto original. Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima.