Curso de Periodismo Digital

Contenido: Internet, herramienta de futuro Características de los periódicos digitales, Herramientas de trabajo del periodista electrónico, Diseño del periódico electrónico, El periodista electrónico, Derechos de autor, Tratamiento de contenidos, Publicidad on line, Gestión de la empresa digital, El móvil como transmisor de contenidos, Marketing Digital, Agencias de comunicación virtuales, Periodista especializado en comercio electrónico, Periodista experto en información bursátil, La gestión del conocimiento, Artículos de interés. Visitar

Extracto

Hace unos treinta años, la RAND Corporation, la primera fábrica de ideas de la América de la guerra fría, se enfrentó a un extraño problema estratégico. ¿Cómo se podrían comunicar con éxito las autoridades norteamericanas tras una guerra nuclear? La América postnuclear necesitaría una red de comando y control enlazada de ciudad a ciudad, estado a estado, base a base. Pero sin importar cómo esa red estuviera de protegida, sus líneas y equipos siempre serían vulnerables al impacto de bombas atómicas. Un ataque nuclear reduciría cualquier red imaginable a pedazos. ¿Cómo sería controlada esa red? Cualquier autoridad central, cualquier núcleo de red centralizado sería un objetivo obvio e inmediato para un misil enemigo. El centro de la red sería el primer lugar a derribar. La RAND le dio muchas vueltas a este difícil asunto en secreto militar y llegó a una solución atrevida. La propuesta de la RAND se hizo pública en 1964. En primer lugar, la red *no tendría autoridad central*. Además, sería *diseñada desde el principio para operar incluso hecha pedazos.* Los principios eran simples. Se asumiría que una red era poco fiable en cualquier momento. Se diseñaría para trascender su propia falta de eficacia. Todos los nodos en la red serían iguales entre sí, cada nodo con autoridad para crear, pasar y recibir mensajes. Los mensajes se dividirían en paquetes, cada paquete dirigido por separado. Cada paquete saldría de un nodo fuente específico y terminaría en un nodo destino.

Cada paquete recorrería la red según unos principios particulares. La ruta que tome cada paquete no tendría importancia. Solo contarían los resultados finales. Básicamente, el paquete sería lanzado como una patata de un nodo a otro, más o menos en dirección a su destino, hasta acabar en el lugar adecuado. Si grandes porciones de la red fueran destruidas eso simplemente no importaría; los paquetes permanecerían en la red en los nodos que hubieran sobrevivido.

Este sistema de envío tan arbitrario podría parecer “ineficiente” en el sentido usual del término (especialmente comparado con, por ejemplo, el sistema telefónico). Durante los 60, este intrigante concepto de red de conmutación de paquetes descentralizada y a prueba de bombas caminó sin rumbo entre el RAND, el MIT (Masachussets Institute of Technology) y UCLA (University of California in Los Angeles).

El Laboratorio Nacional de Física (National Physical Laboratory) de Gran Bretaña preparó la primera red de prueba basada en estos principios en 1968. Poco después, la Agencia de Proyectos de Investigación Avanzada del Pentágono (ARPA) decidió financiar un proyecto más ambicioso y de mayor embergadura en los Estados Unidos. Los nodos de la red iban a ser superordenadores de alta velocidad (o lo que se llamara así en aquel momento). Eran máquinas poco usuales y de mucho valor y que estaban necesitadas de un buen entramado de red para proyectos nacionales de investigación y desarrollo.

En el otoño de 1969 el primero de esos nodos fue instalado en UCLA. En Diciembre de ese año había cuatro nodos en la pequeña red, que se llamó ARPANET después de que fuera promocionada por el Pentágono. Los cuatro ordenadores podían transferir información sobre líneas dedicadas de alta velocidad. Incluso podían ser programados remotamente desde otros nodos. Gracias a ARPANET, científicos e investigadores podían compartir las facilidades de otros ordenadores en la distancia.