Algo más que un mensaje

El modelo de la información de Shannon /1

Claude Shannon. Electrical Mouse showing how computing machines work. (Photo by Yale Joel//Time Life Pictures/Getty Images)

Claude Shannon propuso un modelo explicativo de la información que se convirtió en legendario, a pesar de su aparente sencillez y que está en el origen dela digitalización y la revolución informática . Aquí examinaré el modelo desarrollado, que es un poco más complejo.

Tomemos el clásico modelo matemático de la información de Shannon, en el que se muestran todos los elementos implicados en un acto comunicativo. Es un poco más complejo que el que se enseña habitualmente, en el que sólo se habla de emisor, receptor, canal (o medio) y mensaje.

No sé si interpreto bien todos sus aspectos, pero lo intentaré.

Imaginemos que quiero trasmitir los resultados de las elecciones legislativas italianas a un amigo que tengo en Brasil.

En primer lugar, para que yo (el emisor) envíe un mensaje al receptor o destinatario, primero debo construir ese mensaje a partir de algo previo, lo que Shannon llama «fuente de información«.

La fuente de información puede ser, por ejemplo, la radio o la televisión. De esa fuente de información selecciono lo que a mí me interesa. Esto significa que no se puede identificar alegremente fuente de información con mensaje, algo que se hace demasiado a menudo. En una fuente de información puede haber muchos mensajes y, además es muy posible que no se encuentre en ella el mensaje mismo tal cual el emisor lo va a trasmitir.

Para trasmitir el mensaje necesito, además, un trasmisor o codificador, por ejemplo un ordenador con teclado, en el que escribo un mensaje en español.

Además, necesito un canal por el que trasmitir ese mensaje codificado, que sería, en este caso, la red de Internet.

Aquí nos podríamos perder en complejas disquisiciones acerca de cuál es exactamente el código que estoy utilizando para trasmitir mi mensaje: lo que se transmite ¿es el español en el que lo he escrito o son los bits, los ceros y unos del lenguaje binario?

Probablemente se podría hablar de una doble o triple descodificación:

1. La que hace el ordenador con mi mensaje: yo tecleo en español, pero el software de mi ordenador reconoce simplemente números del código ASCII asociados a cada tecla. Por ejemplo, la letra ‘A’ mayúscula es: «A», mientras que la letra ‘a’ minúscula es: «a» (sin las comillas en ambos casos, claro). Después el código ASCII se convierte en lenguaje máquina, en una ristra de unos y ceros: 00110101…. etcétera.

2. La posterior descodificación que hace el ordenador de mi amigo brasileño al recibir el mensaje, convirtiendo la ristra de unos y ceros recibida a ASCII y de nuevo a letras del alfabeto latino. A todo esto quizá deberíamos añadir una tercera descodificación, la que hace mi amigo al traducir el mensaje del español al brasileño.

Si somos estrictos, deberíamos hablar de una cuádruple descodificación, pues cuando leemos algo, incluso en nuestro propio idioma, estamos aplicando nuestro conocimiento de un código al desciframiento de unas manchas de tinta sobre un papel, o de unas luces coloreadas en la pantalla de un ordenador.

Pensándolo bien, se trata de una quíntuple descodificación, pero este asunto no me interesa ahora, afortunadamente.

[2017: supongo que me refería como quinta descodificación a la que nos permite interpretar un símbolo como una palabra en forma de concepto o idea que se refiere a una cosa o quizá a una idea mental]

Lo importante es que, como se ve claramente en el esquema de Shannon, el mensaje enviado y el recibido no son el mismo mensaje: el mensaje ha sufrido, en su paso del emisor al destinatario, diversas trasformaciones y descodificaciones.

Ni siquiera, se dice, podemos identificar la señal trasmitida con la señal recibida.

Supongo, a primera vista, que no podemos identificar señal trasmitida y señal recibida al menos por dos razones: porque la naturaleza misma del canal que empleemos influirá sobre la señal (a la manera del célebre «el medio es el mensaje» macluhiano), pero también porque en la trasmisión de todo mensaje hay ruido, como se indica claramente en el esquema. El ruido son todos los elementos que son trasmitidos sin que el emisor tenga intención de hacerlo, puede ser desde ruido literal, que impida escuchar bien el mensaje, a cualquier otro tipo de interferencia.

Shannon elaboró su modelo matemático de la información precisamente a causa del ruido, porque lo que quería era encontrar la manera más eficaz de trasmitir un mensaje, sin gastar energía inútil.

Quizá se puede comparar el ruido en la teoría de la información con el calor que se produce en cualquier mecanismo que trasmite o produce energía, desde un cable de la luz que se calienta, a las ruedas de un automóvil o el desgaste del motor. Si eliminásemos todo el calor y el rozamiento, podríamos inventar la soñada máquina de movimiento perpetuo. Del mismo modo, si lográramos trasmitir un mensaje sin ruido, podríamos trasmitir el mensaje perfecto. Pero yo no llevaría la comparación mucho más allá.

Continuará…

Escrito en abril de 2010 en…

SIGNOS

[pt_view id=»e0b02a28s2″]

SIGNOS

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *