Internet

En el terreno de los medios de comunicación, el desarrollo de Internet se ha convertido en el acontecimiento más relevante de nuestra época, y muy especialmente desde su integración en la telefonía móvil, es decir, en la otra gran innovación del nuevo milenio. A los cambios evidentes que Internet ha traído en nuestros hábitos comunicativos e informativos hay que sumar una serie menos visible de transformaciones en todos los ámbitos (social, laboral, económico, educativo). Algunos profetas no han dudado en vaticinar que la mutaciones son de tal envergadura que avanzamos hacia una «sociedad de la información» y una «economía del conocimiento», y que se avecina, si no ha comenzado ya, una especie de tercera revolución que dejaría atrás el capitalismo industrial.

Los expertos señalan, no sin razón, que estas nuevas tecnologías han contribuido decisivamente a consolidar el proceso de globalización económica, haciéndolo irreversible; que han multiplicado la productividad de empleados y empresas, la actividad comercial y la creación de riqueza; y que han llevado la difusión del conocimiento a un nivel que ridiculiza el de la era de Gutenberg. Pero tampoco faltan razones para el escepticismo, especialmente a la hora de valorar hasta qué punto estos avances repercuten no en los balances de las corporaciones, sino en el bienestar del conjunto de la humanidad.

Una implantación fulminante

Ciertamente, el crecimiento en progresión geométrica de Internet no es solamente el fenómeno sociológico y de comunicaciones más significativo de los inicios de este tercer milenio, sino también en el más incontrolable e inesperado en una sociedad regida por las prospecciones y las estadísticas en la que las sorpresas parecían no tener cabida. Si los setenta del pasado siglo fueron el decenio de la suplantación de las máquinas de escribir por los ordenadores, a nivel de las empresas, y los ochenta continuaron y abundaron en esa línea con la expansión de la informática al ámbito privado de los hogares a través de la creciente presencia del ordenador personal, la década de 1990 reservaba la imprevista novedad de Internet.

Si pocos supieron predecir semejante boom, no fue porque la tecnología que sirve de soporte a Internet no existiese desde al menos veinte años antes de su conversión en fenómeno de masas, sino porque había sido creada justamente para lo contrario: como vehículo privilegiado de comunicación entre sectores minoritarios, como los estrategas de la defensa en las Fuerzas Armadas o las elites científicas de la comunidad internacional, especializadas en diferentes disciplinas.


Una curiosa representación del «universo» web: los colores corresponden al idioma (el inglés en azul) y los círculos grandes a los sitios más visitados (Google, Facebook, Yahoo y Youtube)

El caso es que Internet, que hace tres décadas era únicamente una palabra que no le decía nada a nadie, cuenta en la actualidad con millones de usuarios (alrededor de tres mil millones en 2016, pero no hay modo de averiguar cuántos son exactamente, sobre todo por el impreciso número de ellos que pueden tener acceso a un mismo ordenador). Bautizados en sus inicios como «cibernautas» o «internautas», sus asiduos son hoy multitud de personas corrientes desparramadas por todos los países del mundo; su número ha crecido sin cesar y a una velocidad incomparablemente mayor a la de cualquier otro fenómeno de masas ocurrido con anterioridad, incluyendo la radio o la televisión, que ven menguadas sus audiencias en beneficio del nuevo medio.

Los científicos y los especialistas en informática ponen el acento en las novedades técnicas y en la originalidad de los servicios que aporta la red, mientras que los sociólogos y los expertos en comunicación destacan más bien la inédita libertad que propone y la flexibilidad que posee en medio de una sociedad donde todo está reglamentado, sujeto a una patente y es propiedad de una persona o de una empresa. La aparentemente libérrima naturaleza de la «red de redes» se comprende apenas se repasa la breve historia de Internet y de las sucesivas adiciones de inventos y servicios que la pusieron en movimiento y fueron ampliando sus casi inabarcables prestaciones; el resultado final de su desarrollo fue que la red no es obra de nadie en particular, y nadie puede por lo tanto reclamar en ella un papel de inventor, de dueño y ni siquiera de pionero.

No nos queda entonces sino quedar deslumbrados frente al inagotable universo de palabras, sonidos, imágenes y datos que ofrece Internet (verdaderamente inagotable, ya que sus prestaciones pueden ser utilizadas, sucesiva o simultáneamente, por millones de personas), pero podemos ya empezar a alejarnos de aquel optimismo democrático que caracterizó los inicios: las operadoras de telecomunicaciones poseen el cable y los accesos, las multinacionales informáticas copan el software y los servicios, miríadas de empresa explotan su coste ínfimo como canal de venta para publicitar y vender todo lo imaginable, y los grandes grupos de comunicación audiovisual vierten contenidos de pensamiento único o puras banalizaciones en su afán de acaparar una audiencia volcada en la última novedad del último instante. El altruismo, los proyectos colaborativos o la independencia informativa mantienen sus reductos, pero todo es cada vez más parecido al mundo real.

Historia de Internet

Se afirma, con razón, que la principal causa de la expansión de Internet es la propia estructura de la red, planteada casi desde sus orígenes como una propuesta dinámica y abierta, que podía llegar a ser interminable. Corrían los años de la guerra fría cuando la corporación RAND, asesora del Pentágono estadounidense en materia de seguridad nacional, recibió a finales de los sesenta un encargo concreto: diseñar un proyecto que asegurase el mantenimiento de las comunicaciones entre las diversas agencias gubernamentales, en el caso de que un ataque nuclear dejase inutilizados los sistemas y servicios tradicionales de telecomunicaciones.

RAND propuso una red de ordenadores descentralizada, en la que cada nodo pudiese a la vez emitir y recibir mensajes. Como convincente argumento de venta de su proyecto, la corporación razonó que, se produjese o no en el futuro el temido conflicto nuclear, una red de ese tipo podría en tiempos de paz permitir a los científicos e investigadores en general compartir los escasos y caros recursos informáticos de la época. La primera red surgida de este esquema y controlada por el Pentágono se denominó Arpanet (Advanced Research Projects Agency), con cuatro nodos iniciales que en 1971 se habían convertido en quince y tan sólo un año más tarde en treinta y siete.


Mosaic (1993) fue el primer navegador gráfico

En 1977 Arpanet adoptó el protocolo de comunicaciones TCP/IP (que heredaría Internet), lo que facilitó la rápida aparición de otras redes. En la primera mitad de los ochenta los militares crearon Milnet para usos específicos de la defensa nacional, y dejaron por lo tanto de participar en Arpanet, lo que permitió a su vez el nacimiento de la más compleja CSNET (Computer Science Network). En 1986, la National Science Foundation, por su parte, auspició el nacimiento de una nueva red, NSFnet, destinada exclusivamente al intercambio de informaciones en el ámbito de la comunidad científica estadounidense, pero que sin embargo pronto desbordó estas fronteras nacionales y se convirtió en fuente de consulta e intercambio entre científicos europeos y norteamericanos.

Finalmente, en 1988, ante la creciente proliferación de redes especializadas, sus responsables decidieron interconectarlas, para ampliar y diversificar el servicio, y dieron el nombre de Internet a la «red de redes» resultante de esa inspirada fusión. Este desarrollo histórico, en sucesivas etapas operativas pero no planificadas por nadie, explica el carácter acéfalo de la red y su anarquía funcional. Sobre la marcha, y para que esa creativa estructura anárquica no se precipitase en el caos, hubo que ir inventando también diversas normas compartidas.

La arquitectura cliente-servidor

Gracias a la profusión de dispositivos electrónicos que invaden nuestros hogares, actualmente es más fácil explicar, al menos a grandes rasgos, el funcionamiento de Internet. No sólo en las escuelas y en los puestos de trabajo los ordenadores están interconectados, sino que también en multitud de hogares nos encontramos con que alguien se ha entretenido, siguiendo los pasos de un sencillo asistente, en conectar su portátil a su ordenador de sobremesa, de manera que desde un dispositivo puede accederse directamente a los documentos, imágenes o cualquier tipo de ficheros contenidos en el disco duro del otro para efectuar cualquier tarea: visualizarlos, modificarlos, eliminarlos o copiarlos.

Multiplicando esos dos ordenadores interconectados por millones, no hacemos una primera idea aproximada de lo que es Internet. La salvedad más importante es la arquitectura cliente-servidor que posee la red. Significa que entre esos millones de ordenadores conectados hay una jerarquía superior, la de los servidores, y otra inferior, la de los clientes; en esta última se sitúan nuestros ordenadores, portátiles, tabletas, teléfonos móviles y demás dispositivos que empleamos para conectarnos a Internet.

Clientes

Suele señalarse que Internet no es de nadie, pero tal afirmación no debe llevarnos, ingenuamente, a suponer que sea de todos. La ilustración más clara de ello (y de nuestra pertenencia a la jerarquía inferior de los clientes) es que es imposible conectarse a Internet sin abonar previamente una cuota a alguno de los ISP (Proveedores de Servicios de Internet), que suelen ser las antiguas compañías de telefonía fija de cada país o las nuevas de telefonía móvil, constantemente reagrupadas en poderosos grupos de telecomunicaciones.

En el instante en que nos conectamos, la compañía nos proporciona por los menos dos cosas imprescindibles. En primer lugar, nos asigna una dirección IP (fija o distinta en cada sesión), que viene a ser, para entendernos, algo así como el número de teléfono de nuestro ordenador. De hecho, es simplemente un número de cuatro cifras con el formato 172.69.226.58 (debiendo estar el valor de cada cifra entre 0 y 255) que identifica nuestro dispositivo; a cada uno de los millones de ordenadores conectados se le asigna un número distinto. En segundo lugar, nos autoriza el acceso a un conjunto de servidores denominados DNS (Domain Name System, Sistema de Nombres de Dominio). Un tercer elemento necesario, el protocolo TCP/IP (Transmission Control Protocol / Internet Protocol), ya viene instalado, junto con el sistema operativo, en todos los ordenadores, permitiendo la comunicación entre ellos.


Los dispositivos cotidianos actúan meramente como clientes de Internet

Supongamos que estamos preparando un informe sobre el mercado del aluminio, y que esperamos que el artículo correspondiente de Wikipedia contenga algunos datos que necesitamos. Abriremos el navegador, y en su barra de direcciones escribiremos http://www.wikipedia.org/Aluminio. Con ello indicamos al navegador que, sirviéndose del protocolo HTTP (HyperText Transfer Protocol, Protocolo de Transferencia de Hipertexto, es decir, el empleado para transferir páginas web), solicite al servidor en que se aloja la Wikipedia que nos envíe el artículo sobre el aluminio.

Ahora bien, el navegador no sabe en qué servidor se aloja la Wikipedia; para ser más exactos, desconoce la dirección IP (una IP como la nuestra) del servidor en que reside el dominio de la World Wide Web (www) llamado wikipedia.org. Por esta razón son precisos los servidores DNS: al modo de listines telefónicos, contienen algo así como inmensas tablas con dos columnas, una con nombres de dominio y otra con el número IP de los servidores en que se hospedan. El navegador solicita al servidor DNS la IP correspondiente al dominio, y de este modo la petición llega finalmente al servidor de Wikipedia, que hace llegar el artículo a la dirección IP que lo solicitó (la nuestra).

Huelga decir que esta exposición del proceso, que toma unas centésimas de segundo, no es más que una simplificación didáctica en multitud de aspectos. Cada servidor y por tanto cada IP puede alojar, de hecho, cientos de sitios web, mientras que los sitios de mucho tráfico como Wikipedia deben distribuirse por máquinas e IPs múltiples para soportar la carga. Tampoco los ficheros solicitados circulan enteros por la red: el protocolo TCP/IP los divide en trozos (paquetes) de tamaño estándar, añadiendo a cada uno de ellos el número de orden dentro del total y la dirección IP del remitente y el destinatario. Los paquetes suelen llegar a su destino en diferente orden y por distintos caminos, después de rebotar por diversas máquinas encargadas de su enrutamiento; las unidades que se pierden por fallos de transmisión son solicitadas de nuevo; finalmente, cuando se completa la recepción, el fichero es reconstruido.

Servidores

Contra lo que pudiera parecer, la mayoría de los servidores de la World Wide Web no son máquinas más potentes, grandes o modernas que las que manejamos diariamente. En esencia, son cajas horizontales que, al igual que nuestros ordenadores, poseen una placa base, un disco duro, un procesador, una memoria RAM y una tarjeta de red; como los nuestros, tienen instalado un sistema operativo y diversos programas. De hecho, en los inicios no era infrecuente que algún apasionado del tema con buenos conocimientos montara en su casa un servidor a partir de su PC.

Lo más habitual y sensato, sin embargo, es confiar a las compañías de hosting, dedicadas al alquiler de servidores, la administración y mantenimiento de los mismos. Muchas veces tampoco en las sedes de las empresas de hosting hay servidores; físicamente suelen encontrarse en «hoteles de servidores» gestionados por empresas de housing. En estos hoteles, edificios con un suministro eléctrico a prueba de catástrofes, los servidores se apilan en columnas a lo largo de inmensos pasillos y salas climatizadas.


Hotel de servidores

En tales salas se aprecia que lo único que distingue a simple vista los servidores de los ordenadores comunes es la ausencia de periféricos como teclados, pantallas y ratones; no los necesitan, porque los empleados de las empresas de hosting que se ocupan de su mantenimiento y monitorización realizan todas las tareas a distancia, mientras que los de la empresa de housing se ocupan de las reparaciones físicas (por ejemplo, la substitución de un disco duro averiado). También llama la atención la profusión del cableado en su parte posterior, y ciertamente, una manifestación de su estatus superior en la arquitectura es que los servidores se conectan entre sí con anchos de banda y velocidades muy superiores a las que nos ofrece nuestra operadora para acceder a ellos; su mundo es, prácticamente, un olimpo de instantaneidad. En el sentido original y estricto del término, sólo ese olimpo es Internet.

Otra diferencia importante se da al nivel del software. Si pudiera observarse su labor a través de una pantalla, veríamos que los programas que ejecutan los servidores nos son desconocidos. Los programas que manejamos en nuestro uso de Internet, como el navegador, caen en la categoría de los llamados programas cliente, cuya principal función es enviar solicitudes; tales solicitudes son atendidas en el servidor por un tipo complementario pero completamente distinto de programas, los programas de servidor. Así, la mayoría de los servidores web mantienen en perpetua ejecución un programa de servidor llamado Apache, que atiende las peticiones enviadas por nuestros navegadores.

Por lo demás, el estatus inferior del cliente queda reflejado en el proceso de peticiones antes descrito. En este sentido, expresiones como «estar en Internet» o «entrar al servidor del aeropuerto» no son demasiado precisas. Lo único que hacemos al navegar es suplicar a un servidor que nos conceda la gracia de enviarnos una copia de la página solicitada, la cual se guarda en la caché del navegador (o sea, en nuestro disco duro) y es mostrada en la pantalla; en ningún momento estamos más allá de nuestro dispositivo. Sólo los administradores de los servidores (y los hackers) pueden efectuar en ellos las operaciones que llevamos a cabo en nuestros propios ordenadores, como curiosear por el disco duro, borrar archivos o ejecutar programas.

La polivalencia de servicios

Aunque su diseño físico es fácil de comprender, Internet escapa a una definición simple porque es un medio polivalente que sólo puede ser aproximadamente caracterizado por la suma de explicaciones parciales de los servicios que lo integran. El programa imprescindible para acceder a tales servicios es actualmente el navegador (en inglés, browser, que significa literalmente "hojeador" de páginas). La historia de los navegadores es la de una guerra comercial en la que la hegemonía ha cambiado varias veces de mano; actualmente lidera la batalla Google Chrome (Google), seguido a distancia de Internet Explorer (Microsoft), Safari (Apple) y Mozilla Firefox, de código abierto y sin fines lucrativos.

World Wide Web

El «servicio rey» que ofrece Internet es sin duda la navegación por la infinidad de recursos contenidos en la World Wide Web (abreviada WWW o W3), que literalmente significa la "vasta telaraña mundial". No cabe duda que la World Wide Web es en gran medida responsable de la arrolladora popularización de la red y de que ésta abandonase los circuitos científicos y técnicos en los que nació y para los que estaba destinada para convertirse en el fenómeno cotidiano que es en la actualidad.

Desarrollada en el seno del CERN (Laboratorio Europeo de Física de Altas Energías) por el británico Tim Berners-Lee y el belga Robert Cailliau, para facilitar la comunicación informática entre los físicos que trabajaban en el área especializadísima de las partículas elementales, la WWW desbordó muy pronto su cometido original y fue adoptada por las más diversas instituciones. Baste con decir que en 1991 aparecieron el primer servidor web y el primer navegador para interfaces de tipo texto; pero ya en 1992, apenas un año más tarde, había en todo el mundo unos cincuenta servidores web, y al año siguiente se creó el primer "navegador gráfico", que permitía visualizar documentos que combinaban texto e imágenes, y disparó el inicio de la popularidad de Internet. En 2014 se estimaba que el número de sitios web que podían visitarse había rebasado los mil millones.


Tim Berners-Lee

El éxito de la World Wide Web se debe sin duda a que reúne características muy agradables para el usuario: atractiva presentación de la información (páginas Web); integración junto al texto y las imágenes de elementos multimedia como vídeos, música y hasta representaciones de realidad virtual; facilidad de uso de los programas navegadores y abundancia de los "hiperenlaces" o simplemente enlaces (palabras resaltadas, imágenes o iconos que conducen en un clic a otro de los millones de recursos publicados en Internet), que dan acceso muy fácilmente a todos los materiales disponibles en relación a un tema determinado y permiten navegar intuitivamente a través de la red.

Definida como un gran bazar donde se encuentra de todo, desde las últimas primicias científicas de alto nivel a la pornografía, la World Wide Web ha dejado en su evolución de ser el mero conjunto de textos informativos entrelazados que fue en sus orígenes. Con la excepción de Wikipedia o las versiones digitales de los medios, los sitios web más visitados son más bien plataformas a las que no se va a leer sino a interactuar o ejecutar acciones: consultar los saldos del banco, reservar un hotel, comprar todo lo imaginable en tiendas virtuales, realizar búsquedas, opinar en foros, relacionarse con las amistades en las redes sociales, ver videoclips, compartir imágenes...

De este modo, servicios tan frecuentados como Facebook, Youtube, Booking, Amazon, Google o Pinterest no son más que páginas web corriendo sobre el protocolo HTTP (HyperText Transfer Protocol). Desde hace ya bastante años, el enriquecimiento del lenguaje de codificación original (el HTML, HyperText Markup Language) con módulos adicionales, el desarrollo de las tecnologías de servidor y la evolución de los navegadores permite desarrollar sitios web de posibilidades ilimitadas.

Otros servicios

Ésta es la razón por la que la World Wide Web ha acabado por absorber o limitar a los profesionales el uso de otros servicios «históricos» que corrían sobre otros protocolos y precisaban por ello de programas específicos: los navegadores actuales permiten que, aunque los protocolos de cada servicio que opera sobre Internet sean en realidad muy distintos entre sí, en la práctica el usuario pueda trabajar casi siempre con una herramienta única.

Para ilustrar lo anterior basta con recordar el protocolo FTP (File Transfer Protocol, Protocolo de Transferencia de Ficheros). Los primeros navegadores permitían únicamente solicitar páginas web a los servidores a través del protocolo HTTP, representarlas en la pantalla y pasar de un sitio a otro haciendo clic en los enlaces. Para descargar algún fichero alojado en un servidor, era preciso utilizar un programa especial (un cliente FTP) y realizar una "transferencia de ficheros" que podía ser "identificada" o "anónima"; en el primer caso es necesaria la autorización del ordenador anfitrión o una contraseña convenida; en el segundo, como ocurre en los ficheros de acceso público de determinadas bibliotecas, la comunicación era directa. Este protocolo era de gran utilidad para los equipos de investigadores que se encontraban físicamente separados y debían manejar no obstante una voluminosa documentación conjunta o intercambiar sus respectivos progresos.


Cableado submarino

Todo lo anterior resulta críptico para los usuarios de hoy. Si necesitan por ejemplo descargar un documento en formato PDF, simplemente hacen clic en el enlace del sitio web que lo ofrece; los navegadores actuales descargan en el acto el documento en nuestro disco duro, e incluso permiten visualizarlo sin descargarlo, y lo mismo ocurre con todos los contenidos digitalizados en los más variados formatos, desde música hasta libros.

Lo mismo ocurrió con el protocolo IRC (Internet Relay Chat), que permitía, a través de un programa específico (un cliente de chat), unirse a multitud de tertulias electrónicas por escrito (los canales), en la que podían participar varias personas a la vez. Pronto fue posible chatear con el navegador a través de chats instalados en páginas web que no requerían configuración alguna. Pero esta aparente extinción de protocolos en beneficio la World Wide Web no conlleva la de las ideas a que daban sustento, que reaparecen y mueren bajo nuevas formas (como el Messenger de Microsoft); de hecho, el chat conoce actualmente el mejor momento de su historia gracias a su último avatar, la mensajería instantánea para teléfonos móviles: WhatsApp en occidente y LINE en oriente suman mil quinientos millones de usuarios.

En forma análoga, el protocolo Gopher y sus arcaicos mecanismos de búsqueda (Archie, Veronica) quedaron pronto obsoletos ante la alternativa de navegar cómodamente por directorios que clasificaban en temas y subtemas centenares de páginas web, ofreciendo un enlace a las mismas y una pequeña descripción de su contenido. En eso consistía esencialmente el primer Yahoo!, el más exitoso sitio de los años 90. En vista de que la vertiginosa proliferación de nuevos sitios web hacía inviable un directorio mantenido por humanos, empezaron a desarrollarse las soluciones automatizadas y escalables que llevaron a la creación de los buscadores propiamente dichos.


Los directorios como Yahoo! fueron pronto substituidos por motores de búsqueda automatizados

El primero y más popular de ellos fue AltaVista (1995); sus spiders o arañas seguían todos los enlaces de la WWW y guardaban copias de millones de páginas en una inmensa bases de datos (en la misma forma en que procede el actual Google) que podía consultarse introduciendo los términos de búsqueda en su página principal. La intervención humana en el proceso es casi nula: se reduce a establecer algoritmos que ordenen los resultados por relevancia y calidad, algo en lo que AltaVista nunca llegó a brillar.

La hidra policéfala que hoy es Google, cuya hegemonía se extiende por los navegadores, los sistemas operativos para móviles y multitud de servicios, nació en la forma del buscador que desbancó a AltaVista al mejorar sensiblemente la calidad de los resultados. Google basaba la ordenación de los mismos en una idea simplísima, la de las «citaciones»: del mismo modo que un trabajo científico acredita su condición de estudio de referencia cuando es citado por muchos investigadores, los sitios web que reciben muchos enlaces de otros sitios son mejores y merecen ocupar las primeras posiciones.

Por el camino de este proceso se perdieron los hábitos de navegación y descubrimiento de los primeros internautas, que saltaban de unos sitios a otros siguiendo su curiosidad e intereses; en nuestros días, el desmesurado crecimiento de la WWW y la «solución» aportada por los buscadores ha reducido la navegación a ir de Google al primer resultado, para volver otra vez a Google y ver el segundo resultado, y poco más. Por esta conjunción de fenómenos es hora ya de desmitificar cierta visión idílica de Internet como espacio de libertad en el que todos podemos ser emisores y receptores. Es cierto que cualquiera puede crear gratuitamente un blog en tres minutos, y publicar en él un artículo con opiniones primorosamente documentadas y argumentadas; pero, a causa de los hábitos de navegación y el funcionamiento de los buscadores, las posibilidades de que un mil millonésimo blog reciba alguna visita son irrisorias.

Fuera del ámbito especializado, el otro superviviente de los antiguos servicios es el correo electrónico, no sin haber sufrido una reconversión similar que ha reducido a cero las dificultades de uso. El correo electrónico (la Academia sigue sin aceptar los anglicismos e-mail o email) se hizo de inmediato inmensamente popular; en Estados Unidos su volumen superaba ya en 1995 al del tradicional correo postal. Los usuarios actuales ya saben que no es necesario que ambos ordenadores (el emisor y el receptor) estén conectados en el momento del envío, ya que el mensaje que enviamos va a parar al «buzón electrónico» del destinatario, es decir, a una pequeña porción del disco duro de un servidor donde se van almacenando los correos recibidos; si el receptor no está examinando el correo en ese momento, lo verá la próxima que acceda a su buzón.

En los inicios, el correo electrónico requería también el uso de un programa especial (un cliente de correo), que debía instalarse y configurase conforme a los protocolos específicos del servicio, es decir, el POP3 o de correo entrante y el SMTP o de saliente; tenía la ventaja de que sólo se requería conexión a Internet en el instante de la recepción y el envío, lo cual era un ahorro cuando, en la época del módem, se pagaba la conexión por minuto o por hora, en lugar de las actuales cuotas fijas con tiempo ilimitado.

No obstante, en una manifestación más del poder de absorción de la World Wide Web y los navegadores, pronto los clientes de correo fueron substituidos por el llamado correo web: numerosos portales ofrecían gratuitamente la creación de una cuenta de correo y su gestión a través del navegador. Actualmente dominan el mercado Gmail (Google), Outlook (antes Hotmail, de Microsoft) y Yahoo! Mail; todos ellos ofrecen potentes gestores de correo que suman a su facilidad de uso la impagable ventaja de poder consultar el correo en cualquier navegador de cualquier ordenador del mundo.