La comunicación

En sentido estricto, debe definirse la comunicación como una transmisión de información: en todo acto comunicativo, un mensaje originado en un determinado punto (fuente o emisor) llega a otro punto (destino o receptor) a través de un canal. Habitualmente identificamos este concepto con la comunicación humana; sin embargo, los intercambios de información también tienen lugar entre los animales, entre las máquinas y en el interior de los organismos vivos y de las máquinas.


Las abejas indican la posición del alimento mediante una peculiar danza

De ahí que la moderna teoría de la comunicación haya tenido que formularse sobre un alto grado de abstracción que permita dar cuenta de los fenómenos comunicativos en ámbitos diversos, e incluya entre sus áreas la cibernética, que se ocupa de los procesos de comunicación en los múltiples tipos de dispositivos, la zoosemiótica o estudio de la comunicación animal y la biosemiótica o descripción de los procesos comunicativos que tienen lugar en el interior de los seres vivos.

Ciertamente, la comunicación puede producirse entre personas, entre personas y otros seres vivos, entre personas y mecanismos o entre mecanismos entre sí, y aun otras combinaciones que se nos ocurran. En todos los casos la comunicación culmina con la recepción de la información por parte del destinatario. Así, existe comunicación cuando una persona le dice a otra qué hora es. En esta situación, el emisor y el receptor son seres humanos y el mensaje es oral. Pero también existe comunicación cuando un programa de un ordenador (actuando como un emisor) abre una ventana y avisa de que ha eliminado un virus (emite un mensaje) al usuario que maneja el ordenador (el receptor).

Elementos de la comunicación

En todo acto comunicativo intervienen necesariamente una serie de elementos: un emisor que envía a un receptor o destinatario las informaciones contenidas en el mensaje, el cual circula por determinado canal. El análisis de actos comunicativos complejos requiere además conceptos como el de código y el de contexto o situación, y debe tomar en consideración ciertos subprocesos y mecanismos adicionales.

Emisor y receptor

Los agentes de un acto comunicativo son el emisor y el receptor o destinatario. Como ya se ha indicado, solamente cuando nos referimos a la comunicación humana podemos identificarlos con personas (o grupos de personas). En un sentido general, pueden ser también seres vivos o bien órganos (el cerebro y el músculo) y máquinas o sus componentes (el sensor de temperatura y el regulador de potencia de un aparato de aire acondicionado).

Cuando, como en la comunicación verbal, se emplean signos convencionales, la emisión requiere un proceso previo de codificación del mensaje por parte del emisor. Del mismo modo, tras recibir el mensaje, el receptor lo descodifica. Este proceso es tan instantáneo que apenas si lo percibimos cuando hablamos nuestra lengua materna; en cambio, para comunicarnos en una lengua extranjera que dominamos poco, nos cuesta un gran esfuerzo expresar nuestras ideas: tenemos que ir eligiendo los signos (palabras) y combinarlos conforme a las reglas (gramaticales, sintácticas) que constituyen el código de dicha lengua.


Elementos de un acto comunicativo

Además de un proceso de codificación y descodificación, muchos actos comunicativos precisan la existencia de un mecanismo de transmisión y recepción, como es el aparato fonador y el aparato auditivo en el habla humana. Tales mecanismos pueden ser artificiales; así, en un estadio de fútbol, se necesita un micrófono y todo un sistema de megafonía para que las alineaciones lleguen al público; comunicarse con personas que están al otro extremo del mundo no es posible sin medios como el teléfono.

Algunos de estos medios, por su parte, pueden requerir una codificación específica. En el antiguo telégrafo sólo podían enviarse pulsaciones cortas y largas (puntos y rayas); el código Morse establecía la equivalencia de cada letra del alfabeto con una determinada secuencia de puntos y rayas. Para comunicarse por este medio era necesaria, por lo tanto, una segunda codificación: se entregaba un texto escrito al telegrafista, el cual se encargaba de trasladarlo al código Morse.

Mensaje y canal

El mensaje es el conjunto de informaciones transmitidas; más adelante delimitaremos el concepto de «información». El canal es simplemente el medio físico a través del cual circula el mensaje; así, nuestras palabras son sonidos que se difunden por el aire, y nuestros correos electrónicos circulan por la «red de redes» que es Internet. Tal medio no tiene por qué ser único; si enviamos un correo desde el teléfono móvil, una parte del recorrido será por cables y otra por ondas a través del aire.

Contexto o situación

En muchos actos comunicativos complejos, y también en algunos básicos, el contexto puede ser un factor con tal grado de incidencia que llega a determinar la correcta decodificación del mensaje. Un ejemplo clásico es el sonido de un timbre, que interpretamos de modo completamente distinto si estamos en la escuela (final de clase) o en casa (alguien quiere vernos). El contexto abarca mucho más que el lugar físico en que se produce el acto comunicativo; en realidad, incluye todo un conjunto de circunstancias externas y también internas, como la intención del emisor o las expectativas y conocimientos del receptor.

Sería erróneo deducir del ejemplo anterior que el contexto dificulta la comunicación; más bien nos la facilita, pues una buena parte de nuestros actos comunicativos tienen lugar en situaciones trilladas con un repertorio muy limitado de mensajes posibles. Ignorando completamente el inglés, podemos adquirir fácilmente un billete en la estación de ferrocarriles de Londres; bastará con decir «Liverpool» al empleado de la taquilla, pues el contexto suple todas las demás palabras que no sabemos decir.

El código

Un código es un conjunto limitado de signos que se combinan mediante ciertas reglas establecidas. Para que se verifique la comunicación, emisor y receptor deben compartir el mismo código. Así, dado que cada una de las diferentes lenguas que se hablan en el mundo constituye un código distinto, no podremos comunicarnos con un japonés si desconocemos el código que emplea, la lengua japonesa; habremos de expresarnos por señas, o acaso exista la posibilidad de comunicarnos mediante un código compartido, la lengua inglesa, si es conocida por ambos.


Código Morse

Las lenguas naturales son un tipo particular de códigos, los códigos lingüísticos, que se caracterizan por su particular riqueza y complejidad. No por ello dejan de ser códigos: están formadas por una serie de signos (unidades portadoras de significado) que combinamos conforme a la morfología, la gramática y la sintaxis del idioma; con ellos construimos oraciones (unidades comunicativas dotadas de sentido completo) ajustándonos a determinadas reglas que conocemos intuitivamente, como la anteposición de artículos y preposiciones en los sintagmas, la concordancia en género y número o la compatibilidad semántica entre el sujeto y el predicado.

Algunos tipos de códigos, denominados paralingüísticos, derivan de los lingüísticos. Así, el código Morse no es más que una recodificación operada sobre un mensaje ya codificado en lengua natural. Existen también, por supuesto, multitud de códigos no lingüísticos; los de creación humana buscan por lo general la sencillez y la inmediatez. El código de los semáforos consta sólo de tres signos, más rápidamente perceptibles que, por ejemplo, unos carteles con un «pasen» y un «no pasen». Pero en otros casos, sin rehuir la complejidad, lo que se busca es la eliminación de las ambigüedades propias de los códigos lingüísticos, así como la precisión y la universalidad. Es el caso, por ejemplo, de la formulación química o de la lógica formal, si bien la dependencia o independencia de tales códigos respecto a la lengua natural es objeto de arduos debates filosóficos.

Clases de signos

Los códigos son conjuntos de signos, y podría suponerse, visto lo anterior, que los signos son simplemente palabras o cosas traducibles a palabras; ello no es exacto, pues existen signos de distinta naturaleza. El signo puede definirse como aquel objeto material (y como tal, perceptible por un receptor) capaz de representar cierta información; en la medida en que posee tal potencial, el signo puede transmitir la información que representa al ser percibido.

Partiendo de la relación entre el signo y el objeto representado, el filósofo estadounidense Charles Sanders Peirce estableció tres clases de signos: los iconos, los indicios y los símbolos. En los iconos se da un tipo de relación de semejanza. Así, el plano de una ciudad es parecido a una visión de la ciudad desde el cielo, y aunque en las calles no tengamos esa perspectiva, nos proporciona información muy útil para orientarnos. También son iconos, por ejemplo, las fotografías; una fotografía de un monumento transmite tanta información sobre el mismo que somos capaces de identificarlo en otras fotografías tomadas desde otros ángulos, aunque no lo hayamos visto nunca en la realidad.


Iconos empleados en los mapas meteorológicos

En los indicios (o índices) se da un tipo de relación que no es de semejanza. Una columna de humo sobre un bosque nos indica la posición de un incendio; la relación entre el fuego y el humo no es de semejanza, sino de causa y efecto. Del mismo modo, por la presencia de una huella dactilar, la policía sabe que cierta persona ha estado en la escena del crimen; la fiabilidad de la información transmitida por la huella es tal que puede emplearse en un juicio. Los indicios suelen ser fenómenos naturales sin finalidad comunicativa de los que el receptor extrae información; por su capacidad de «apuntar» a otros, son también llamados índices.

En los símbolos, por último, no existe ningún tipo de semejanza ni de relación entre el signo y aquello que representan. Es obvio que no hay ningún tipo de relación entre el color rojo del semáforo y la orden de detenerse que transmite. La equivalencia entre «rojo» y «no pasen» es una convención establecida por el código de circulación que hemos aprendido desde pequeños; carece de cualquier motivo o justificación (podría haberse utilizado otro color), por lo que se dice que la relación es arbitraria.

Las signos de los códigos lingüísticos son de este tipo: entre la secuencia de sonidos que forman la palabra «pan» y el alimento no existe ningún tipo de conexión; en otros códigos se emplea una secuencia distinta («bread» en inglés) para representar el mismo objeto. La única excepción son las palabras onomatopéyicas: el sonido de la palabra «tictac» se parece al que emite el reloj.

Comunicación e información

El resultado de todo proceso comunicativo es la transmisión de las informaciones contenidas en el mensaje. La teoría de la información, desarrollada desde mediados del siglo XX a partir de las aportaciones de Claude E. Shannon y Warren Weaver, ha permitido describir en términos matemáticos los procesos comunicativos; el establecimiento de unidades de información y el análisis de los fenómenos que conducen a su pérdida ha contribuido asimismo a precisar el concepto de información.

En el ámbito de la comunicación humana tiende a confundirse información y significación. Si recibimos un correo electrónico con las palabras «jijok kajelofksa lusk», podemos afirmar que, como el mensaje no significa nada, no se ha transmitido ninguna información. Pero un mensaje puede poseer significación y carecer de información. Es lo que ocurriría en un correo con la frase «Los triángulos tienen tres lados»; puesto que nos dice algo que ya sabíamos, la información aportada es nula. Sin embargo, ante una clase de niños de seis años que se inician en la geometría, esa misma frase transmitiría mucha información: introduciría en los alumnos un nuevo concepto (el triángulo) y lo definiría a través de un número de elementos ya conocidos (los lados).


Claude E. Shannon

La cantidad de información transmitida, por consiguiente, depende del contexto o situación, y no únicamente de las informaciones que el receptor ya posee, sino también de otros factores. El resultado de un partido de fútbol, por ejemplo, parece contener siempre la misma información (victoria, derrota o empate); sin embargo, la derrota del líder a manos del colista ocupa al día siguiente las portadas de los periódicos, mientras que la victoria del líder sobre el colista, por ser previsible o rutinaria, apenas si merece reseñarse. La incidencia del contexto puede resumirse como una proporcionalidad inversa entre expectativas previas e información efectiva: cuanto más inesperado es el mensaje, más información contiene.

Tomando en consideración lo anterior, se define el bite (del inglés bit) o unidad mínima de información como la cantidad de información transmitida cuando, en determinado contexto, sólo dos mensajes son posibles y ambos tienen la misma probabilidad de aparecer. Así, la respuesta afirmativa o negativa a la pregunta «¿Vendrás mañana?» transmite un bite de información si, por el contexto, ambas respuestas son igual de probables y si el receptor carece de expectativas concretas. La respuesta a la pregunta «¿Qué día vendrás?» contiene más información, pues el número de respuestas posibles es más amplio.

Ruido y redundancia

Los expertos en información se han ocupado en detalle de analizar y cuantificar un fenómeno cotidiano: las pérdidas de información que suelen producirse en los procesos comunicativos. La mejor ilustración es aquel juego infantil en que los niños se sientan en círculo y uno de ellos dice una frase al oído de su compañero, que debe repetirla al oído del siguiente y así sucesivamente hasta completar el círculo. La diferencia entre la frase inicial y la final suele ser tan cómica como asombrosa.

Por analogía con los que dificultan nuestras conversaciones diarias, se denomina «ruido» a toda perturbación que, en un acto comunicativo, obstaculiza la transmisión del mensaje. Del mismo modo que en un bar ruidoso nos perdemos partes de la conversación, las interferencias pueden entorpecer la transmisión de un programa de radio, y el vuelo de un mosca distrae al alumno de las explicaciones del profesor; todos estos fenómenos se describen genéricamente como «ruidos», y pueden provocar pérdidas de información.

Las lenguas naturales poseen mecanismos para neutralizar o minimizar estas pérdidas; el más importante es la redundancia, es decir, la inclusión de elementos repetitivos o redundantes (que no aportan información) en la codificación de los mensajes. Por ejemplo, la información contenida en «Mis hermanas salen a las dos en punto» es la misma que la contenida en «Mis hermanas salen a las dos»; la expresión «en punto» es un elemento redundante.

Gracias a las redundancias podremos, a menudo, comprender mensajes que no nos han llegado bien: «Mis hermanas () las dos» no significa nada, pero con «Mis hermanas () las dos en punto» entendemos al menos que las hermanas harán algo a esa hora, y puede que por el contexto deduzcamos que lo que van a hacer es salir del trabajo. Se estima que, en nuestro uso diario de la lengua oral, el porcentaje de elementos redundantes se acerca al cincuenta por ciento.

En el terreno de los códigos lingüísticos, la redundancia es un fenómeno bien conocido; ya la Antigüedad describió un figura retórica (el pleonasmo) consistente en reforzar la expresión con elementos innecesarios. El primer cantar de gesta en lengua castellana, el Poema de Mio Cid, empieza con un pleonasmo: «De los sus ojos tan fuertemente llorando». Se refiere al Cid, que, condenado al destierro, contempla con tristeza sus palacios desmantelados y llora «de los ojos», como si fuera posible llorar de otro modo.

En los actuales estudios sobre la comunicación, sin embargo, el término redundancia tiene un sentido mucho más general, y se define como cualquier mecanismo que tiene como objetivo anticiparse a posibles pérdidas de información. Así, levantar mucho la voz es una redundancia (pues nuestras frases contienen la misma información dichas en voz baja) que puede tener como efecto asegurar la recepción en un ambiente ruidoso.

Podría pensarse que los estudios e investigaciones en torno a estas cuestiones tienen un interés meramente teórico, e incluso que resulta ocioso discurrir sobre ellas. Sin embargo, muchos de los conceptos expuestos han tenido ya aplicación en campos como la ingeniería y la informática, particularmente en el diseño de sistemas de comunicaciones.

Un ejemplo es el protocolo TCP/IP, que gestiona las transmisiones de información en Internet. Cuando descargamos un fichero de la red, éste no circula entero, sino que, conforme a este protocolo, se divide en «paquetes» de tamaño estándar y se incluye en cada uno de ellos su número de orden, el número total y la dirección IP del remitente y el destinatario. Este procedimiento, claramente redundante (pues los datos citados se repiten en todos los paquetes) se ha revelado extremadamente eficaz: si por fallos de transmisión se pierden paquetes, el navegador puede reclamar su reenvío a partir de la información contenida en los restantes. Y obviamente, mientras que un fichero único podría perderse sin más, es casi imposible que se pierdan todos y cada uno de los cincuenta o cien paquetes que componen el fichero. Podemos decir que, como en tantos campos de la técnica, los ingenieros se inspiraron en la observación de la naturaleza, en este caso en un fenómeno característico (la redundancia) de las lenguas naturales.