Todo lo que quiera saber acerca de la historia de Internet...
- Historia.
- Desarrollo.
- Perspectivas de futuro.
Aunque se puede pensar que Internet es algo que ha surgido en estos últimos tiempos, no es así: Internet ya lleva con nosotros unas cuantas décadas.
Los inicios de Internet nos remontan a los años 60. En plena guerra fría, Estados Unidos crea una red exclusivamente militar, con el objetivo de que, en el hipotético caso de un ataque ruso, se pudiera tener acceso a la información militar desde cualquier punto del país. Esta red se creó en 1969 y se llamó ARPANET. En principio, la red contaba con 4 ordenadores distribuidos entre distintas universidades del país. Dos años después, ya contaba con unos 40 ordenadores conectado a la red. Tanto fue el crecimiento de la red que su sistema de comunicación se quedo obsoleto. Entonces dos investigadores crearon el Protocolo TCP/IP, que se convirtió en el estándar de comunicaciones dentro de las redes informáticas (actualmente seguimos utilizando dicho protocolo). ARPANET siguió creciendo y abriéndose al mundo, y cualquier persona con fines académicos o de investigación podía tener acceso a la red. Las funciones militares se desligaron de ARPANET y fueron a parar a MILNET, una nueva red creada por los Estados Unidos. La NSF (National Science Fundation) crea su propia red informática llamada NSFNET, que más tarde absorbe a ARPANET, creando así una gran red con propósitos científicos y académicos. El desarrollo de las redes fue abismal, y se crean nuevas redes de libre acceso que más tarde se unen a NSFNET, formando el embrión de lo que hoy conocemos como Internet. El CERN (Centro Europeo de Investigación de Partículas) crea las páginas web, con el objetivo de comunicarse con otros científicos europeos. En 1993 un estudiante norteamericano escribió el código del primer explorador web, el Mosaic, que se distribuía de forma gratuita por la red, y permitía tener acceso a gráficos y documentos de texto dentro de Internet.
Los inicios de Internet nos remontan a los años 60. En plena guerra fría, Estados Unidos crea una red exclusivamente militar, con el objetivo de que, en el hipotético caso de un ataque ruso, se pudiera tener acceso a la información militar desde cualquier punto del país. Esta red se creó en 1969 y se llamó ARPANET. En principio, la red contaba con 4 ordenadores distribuidos entre distintas universidades del país. Dos años después, ya contaba con unos 40 ordenadores conectado a la red. Tanto fue el crecimiento de la red que su sistema de comunicación se quedo obsoleto. Entonces dos investigadores crearon el Protocolo TCP/IP, que se convirtió en el estándar de comunicaciones dentro de las redes informáticas (actualmente seguimos utilizando dicho protocolo). ARPANET siguió creciendo y abriéndose al mundo, y cualquier persona con fines académicos o de investigación podía tener acceso a la red. Las funciones militares se desligaron de ARPANET y fueron a parar a MILNET, una nueva red creada por los Estados Unidos. La NSF (National Science Fundation) crea su propia red informática llamada NSFNET, que más tarde absorbe a ARPANET, creando así una gran red con propósitos científicos y académicos. El desarrollo de las redes fue abismal, y se crean nuevas redes de libre acceso que más tarde se unen a NSFNET, formando el embrión de lo que hoy conocemos como Internet. El CERN (Centro Europeo de Investigación de Partículas) crea las páginas web, con el objetivo de comunicarse con otros científicos europeos. En 1993 un estudiante norteamericano escribió el código del primer explorador web, el Mosaic, que se distribuía de forma gratuita por la red, y permitía tener acceso a gráficos y documentos de texto dentro de Internet.
Esto supuso una auténtica revolución, y a partir de ese momento, Internet no ha parado de crecer. En el año 1996 existían cerca de 90.000 sitios web.
Internet es, básicamente, millones de ordenadores conectados entre sí independientes unos de otros. Para que todos estos ordenadores puedan coexistir y comunicarse entre ellos, deben ponerse de acuerdo. Con este motivo fueron creados los Protocolos, que son reglas de comunicación que han de adoptarse para ser entendido por los otros ordenadores de la red. Los dos protocolos más importantes son Protocolo de Control de Transmisión (Transfer Control Protocol) y el Protocolo de Internet (Internet Protocol). Usualmente se trata a estos dos protocolos como si fueran uno solo TCP/IP.
- LOS SERVICIOS DE INTERNET:
Las posibilidades que ofrece Internet se denominan servicios. Cada servicio es una manera de sacarle provecho a la Red independiente de las demás. Una persona podría especializarse en el manejo de sólo uno de estos servicios sin necesidad de saber nada de los otros. Sin embargo, es conveniente conocer todo lo que puede ofrecer Internet, para poder trabajar con lo que más nos interese.
Hoy en día, los servicios más usados en Internet son: Correo Electrónico, la world wide wed, FTP, Grupos de Noticias, IRC y Servicios de Telefonía.
-El Correo Electrónico nos permite enviar cartas escritas con el ordenador a otras personas que tengan acceso a internet. Las cartas quedan acumuladas en Internet hasta el momento en que las piden la personas a las que se le a mandado. Es entonces cuando son enviadas al ordenador del destinatario para que pueda leerlas. El correo electrónico es casi instantáneo, a diferencia del correo normal, y además muy barato. Podemos cartearnos con cualquier persona del Mundo que disponga de conexión a Internet.
-La World Wide Web, o WWW como se suele abreviar, se inventó a finales de los 80 en el CERN, el Laboratorio de Física de Partículas más importante del Mundo. Se trata de un sistema de distribución de información tipo revista. En la Red quedan almacenadas lo que se llaman Páginas Web, que no son más que páginas de texto con gráficos o fotos. Aquellos que se conecten a Internet pueden pedir acceder a dichas páginas y acto seguido éstas aparecen en la pantalla de su ordenador. Este sistema de visualización de la información revolucionó el desarrollo de Internet. A partir de la invención de la WWW, muchas personas empezaron a conectarse a la Red desde sus domicilios, como entretenimiento. Internet recibió un gran impulso, hasta el punto de que hoy en día casi siempre que hablamos de Internet, nos referimos a la WWW.
-El FTP (File Transfer Protocol) nos permite enviar ficheros de datos por Internet. Ya no es necesario guardar la información en disquetes para usarla en otro ordenador. Con este servicio, muchas empresas informáticas han podido enviar sus productos a personas de todo el mundo sin necesidad de gastar dinero en miles de disquetes ni envíos. Muchos particulares hacen uso de este servicio para, por ejemplo, dar a conocer sus creaciones informáticas a nivel mundial.
-Los Grupos de Noticias son el servicio más apropiado para entablar debate sobre temas técnicos. Se basa en el servicio de Correo Electrónico. Los mensajes que enviamos a los Grupos de Noticias se hacen públicos y cualquier persona puede enviarnos una contestación. Este servicio es de gran utilidad para resolver dudas difíciles, cuya respuesta sólo la sepan unas pocas personas en el mundo.
-El servicio IRC (Internet Relay Chat) nos permite realizar una conversación en tiempo real con una o varias personas por medio de texto. Todo lo que escribimos en el teclado aparece en las pantallas de los que participan de la charla. También permite el envío de imágenes u otro tipo de ficheros mientras se dialoga.
Los Servicios de Telefonía son las últimas aplicaciones que han aparecido para Internet. Nos permiten establecer una conexión con voz entre dos personas conectadas a Internet desde cualquier parte del mundo sin tener que pagar el coste de una llamada internacional. Algunos de estos servicios incorporan no sólo voz, sino también imagen. A esto se le llama Videoconferencia.
- LA ESTRUCTURA DE LA RED DE INTERNET:
En los últimos años se han desarrollado grandes redes que unían ordenadores de empresas o de particulares. Estas redes, eran de tipo LAN o WAN. Internet es otra Red que está por encima de éstas y que las une a todas.
Tenemos como ejemplo los conocidos "Servicios On-Line" en EE.UU. Son redes de ordenadores a los que se podían conectar particulares con el fin de conseguir programas o contactar con otros usuarios por correo. A estas redes se subscribían los usuarios pagando una cuota. "America On-Line", "Compuserver" ó "The Microsoft Network" son algunas de éstas redes. Con la llegada de Internet, los usuarios de estas redes disponen de más alcance puesto que se les permite contactar con ordenadores que están fuera de su Red, o sea en Internet.
La conocida "InfoVía" viene a ser uno de estos servicios en España. Su aparición, sin embargo, fue posterior a la de Internet. InfoVía da dos servicios que es importante diferenciar. Por un lado está InfoVía como red de ordenadores a nivel nacional, y por otro lado está el servicio de conexión entre ordenadores de proveedores y usuarios a través de InfoVía a precio de llamada local.
- LOS TPC/IP DE INTERNET:
Existe una gran variedad de "lenguajes" que usan los ordenadores para comunicarse por Internet. Estos "lenguajes" se llaman Protocolos. Se ha establecido que en Internet, toda la información ha de ser transmitida mediante el Protocolo TCP/IP.
Protocolo TCP/IP
TCP/IP son las siglas de "Transfer Control Protocol / Internet Protocol". Éste es el lenguaje establecido para la Red Internet.
-Direcciones IP
Cada ordenador que se conecta a Internet se identifica por medio de una dirección IP. Ésta se compone de 4 números comprendidos entre el 0 y el 255 ambos inclusive y separados por puntos. Así, por ejemplo, una dirección IP podría ser: 155.210.13.45.
No está permitido que coexistan en la Red dos ordenadores distintos con la misma dirección, puesto que de ser así, la información solicitada por uno de los ordenadores no sabría a cual de ellos dirigirse.
Cada número de la dirección IP indica una sub-red de Internet. Hay 4 números en la dirección, lo que quiere decir que hay 4 niveles de profundidad en la distribución jerárquica de la Red Internet.
Resumiendo, los tres primeros números indican la red a la que pertenece nuestro ordenador, y el último sirve para diferenciar nuestro ordenador de los otros que "cuelguen" de la misma red.
Esta distribución jerárquica de la Red Internet, permite enviar y recibir rápidamente paquetes de información entre dos ordenadores conectados en cualquier parte del Mundo a Internet, y desde cualquier sub-red a la que pertenezcan.
Un usuario de Internet, no necesita conocer ninguna de estas direcciones IP. Las manejan los ordenadores en sus comunicaciones por medio del Protocolo TCP/IP de manera invisible para el usuario. Sin embargo, necesitamos nombrar de alguna manera los ordenadores de Internet, para poder elegir a cual pedir información. Esto se logra por medio de los Nombres de Dominio.
- CONEXIÓN A LA RED:
Los ordenadores domésticos acceden a Internet a través de la línea telefónica. Podemos aprovechar la línea que casi todos tenemos en casa. Normalmente, esta línea telefónica tiene un conector en la pared, al que se suele enchufar el teléfono. Para poder enchufar nuestro ordenador a este conector debemos disponer de un módem, que viene con un cable de teléfono. Este aparato sirve para que el ordenador pueda comunicarse a través del teléfono con otros ordenadores.
Con el fin de evitar enchufar y desenchufar el módem y el teléfono cada vez que conectamos con Internet, casi todos los módems tienen dos conectores: "Phone" y "Line-In". Tenemos que conectar el cable que viene con el módem al conector "Line-In" (entrada de la línea), y por el otro extremo, lo conectamos a la clavija de la línea telefónica, o sea, donde antes teníamos enchufado el teléfono. (1ª Configuración)
Así ya tenemos el módem conectado directamente a la línea telefónica. Para poder enchufar también el teléfono a la línea telefónica, tenemos el otro conector del módem, el que pone "Phone". Aquí enchufamos el cable del teléfono. De este modo, los dos estarán conectados a la misma línea telefónica. No es necesario que esté encendido el ordenador para que nos funcione el teléfono. El único inconveniente de esta configuración es que cuando llamamos por teléfono no podemos conectarnos a Internet, y cuando nos conectamos a la Red, no podemos llamar por teléfono.
Puede que no nos interese conectar el teléfono al ordenador, por ejemplo en el caso en que tengamos el ordenador en una habitación y el teléfono en otra. Para estos casos, se venden unos duplicadores de la línea telefónica, que funcionan como un enchufe múltiple. Se conectan en la salida de la línea telefónica. El ordenador se enchufa en uno de los conectores y el teléfono en el otro. (2ª Configuración)
En cualquiera de estas dos configuraciones, podemos usar el teléfono o el módem del ordenador sin necesidad de enchufar o desenchufar ningún cable. Ahora bien, lo que no podemos hacer en ninguna de las configuraciones es efectuar o recibir una llamada telefónica mientras estamos conectados a Internet, puesto que es nuestro ordenador el que está usando la línea de teléfono.
Para poder conectarnos a Internet necesitamos cuatro cosas: un ordenador, un módem, un programa que efectúe la llamada telefónica, y otro programa para navegar por la Red.
- BUSCADORES WEB:
Existen dos modos de búsqueda por la WWW, que se explican a continuación.
-Por Temas
Yahoo, es el principal representante de este modo de búsqueda
Este tipo de búsqueda es ideal para cuando estamos buscando información
El buscador de temas Yahoo dispone de muchísimas más direcciones en su base de datos que el buscador Ole. Este último es un buscador que sólo tiene en cuenta páginas Web en Castellano, por lo que su número es muy inferior. Por lo tanto para saber qué buscador debemos usar, tenemos que tener una idea de si lo que buscamos puede estar o no en Castellano. Si sospechamos que no, lo mejor es ir directamente al Yahoo, y buscar allí.
-Por Palabras Clave
Hay ocasiones en que buscamos temas demasiado concretos como para que se puedan categorizar en un buscador por temas.
Como prueba de la potencia de estos buscadores de palabras clave, podemos hacer el siguiente experimento: Buscamos nuestro nombre en Internet. Se introduce en la celda reservada para meter la palabra clave nuestro nombre. Si especificamos demasiado, puede que no encontremos nada, pero si sólo ponemos un nombre y un apellido, puede que encontremos páginas Web donde aparezcan estos nombres, refiriéndose a personas que se llaman igual que nosotros, de las cuales puede haber varias en el Mundo.
Este tipo de buscadores, nos permiten concretar el tipo de búsqueda a realizar. Cuando buscamos algo con varias palabras clave, el buscador puede pensar que queremos la páginas Web en las que aparezca alguna de esas palabras, o todas ellas en la misma página, o todas ellas en el mismo orden en que las hemos escrito, y seguidas una detrás de otra. Todo esto se puede especificar antes de realizar la búsqueda.
Es muy normal, que cuando realizamos una búsqueda por palabras encontremos un resultado de 50.000 o 100.000 páginas Web que contiene dicha palabra clave. Cuando esto ocurre podemos concretar más nuestra búsqueda, añadiendo más palabras clave en la celda de búsqueda, de modo que podamos reducir el número de resultados a 50 o 100 como mucho para posteriormente poder mirarlos uno por uno.
Perspectivas: ¿Cómo cambiará Internet en 10 años?
Imagine que no hay spam o phishing. Imagine que todo el mundo puede acceder a Internet y mediante conexiones de banda ancha. Esto, que suena a utopía, es con lo que sueñan (y trabajan) los ingenieros encargados de construir la arquitectura de red. Lancemos nuestra mirada 10 años adelante e imaginemos cómo será la Internet del futuro. Puede que no la reconozcamos.
Según la visión de los expertos sobre cómo será Internet en 2020, habrá que replantearse prácticamente todo a como lo conocemos hoy en día: desde las direcciones IP hasta los DNS o la seguridad en general de Internet. Hasta se plantean cómo podría funcionar la Red de Redes sin algunas de las prestaciones más básicas (y fundamentales) con las que cuenta actualmente de los ISP (Internet Service Provider) y redes empresariales.
El objetivo es, cuando menos, ambicioso. Para crear una súper carretera de la información sin demasiadas brechas de seguridad, con más confianza y con una mejor administración de las identidades. Los investigadores están intentando construir una Internet más fiable, con mayor rendimiento y fácil de manejar los exa-bytes de contenido. Y esperan construir una Internet que amplíe la conectividad a las regiones más remotas del mundo. Quizá incluso a otros planetas.
El objetivo es, cuando menos, ambicioso. Para crear una súper carretera de la información sin demasiadas brechas de seguridad, con más confianza y con una mejor administración de las identidades. Los investigadores están intentando construir una Internet más fiable, con mayor rendimiento y fácil de manejar los exa-bytes de contenido. Y esperan construir una Internet que amplíe la conectividad a las regiones más remotas del mundo. Quizá incluso a otros planetas.
- Investigación a largo plazo:Esta investigación a largo plazo, y no exenta de grandes riesgos, tiene su mirada puesta precisamente en 2010, dado que el gobierno de los Estados Unidos aumentará los presupuestos para permitir a un puñado de investigadores salir del laboratorio y llevar sus investigaciones hacia la construcción de prototipos. Es más, en este país se está desarrollando la mayor red virtual del mundo en 14 campus universitarios, que cuenta con dos backbone de alcance nacional, lo que puede garantizar el soporte a miles (y puede que millones) de usuarios en estos experimentos.
“Estamos continuamente intentando adelantar la investigación 20 años”, explicó Darleen Fisher, director de Programa Network Technology and Systems (NeTS) de la organización National Science Foundation (NSF). “Mi trabajo es que la gente desarrolle su imaginación con grandes riesgos, pero con grandes recompensas. Necesitan pensar que sus ideas se puedan implantar y, si se hace, cómo afectarán al mercado de ideas y economías”.
Las apuestas son elevadas. Algunos expertos temen que Internet se colapse por el cada vez mayor número de ataques, la creciente demanda de contenidos multimedia y la necesidad de nuevas aplicaciones móviles. Por eso, la solución puede ser, precisamente, el desarrollo de una nueva arquitectura. - La investigación llega en un momento crítico para Internet:
Cuanta más infraestructura crítica (como los sistemas bancarios o las comunicaciones de los gobiernos con sus ciudadanos) migra a Internet, existe el consenso de que la red necesita un rediseño. Y en el centro de todas estas investigaciones está el deseo de que sea un lugar más seguro.
“La seguridad es totalmente rompible, por lo que es momento de levantarnos y hacer las cosas mejor”, sentenció Van Jacobson, investigador del PARC (Palo Alto Research Center). “El modelo que nosotros estamos utilizando es el equivocado. No se pudo desarrollar para que funcionase. Requerimos una visión de la seguridad más orientada a la información, donde el contexto de ésta y su garantía de autenticidad sea más relevante”.
La investigación de la Internet del futuro alcanzará un hito importante desde el momento en que abandona el estadio de teoría para ser un prototipo en este 2010.
La NSF planea seleccionar dos proyectos para seguir trabajando en la Internet del futuro. “Nos gustaría ver arquitecturas completas. Las propuestas pueden ser simples, pero con cambios profundos de lo que es al día de hoy, o suponer cambios radicales”, explicó Fisher.
Esta organización está retando a los investigadores a aportar estas ideas para crear una Red de Redes más segura y fiable que la actual. Por eso, les han pedido que desarrollen maneras eficientes de diseminar la información y administrar las identidades de los usuarios, al tiempo que no se dejan de lado las tecnologías inalámbricas y ópticas, que emergen con fuerza. También los investigadores deben tener en cuenta los impactos sociales de cambiar la arquitectura de Internet.
Al mismo tiempo, la NSF quiere que los patrocinadores consideren la “viabilidad económica y el conocimiento profundo de los valores sociales que son preservados o que se permiten por la propuesta, no que lo miren sólo desde una perspectiva técnica”.
Por eso, un punto clave de las iniciativas será la respuesta que los científicos den a los problemas de seguridad. “Una de las cuestiones que más nos preocupan es la confianza, porque toda nuestra infraestructura crítica está en Internet”, dijo Fisher.
“Los sistemas de telefonía se están moviendo de los circuitos a IP. Los sistemas bancarios dependen de IP. E Internet es vulnerable”. Por eso, esta organización defiende que no se quiere cometer el mismo error que cuando se inventó Internet. Tanto que no se va a escoger ningún proyecto en el que no haya una experiencia en seguridad demostrable. “Normalmente, los arquitectos diseñan la red y después los expertos en seguridad dicen cómo asegurarla. Queremos combinar lo mejor de estas dos áreas y que trabajen juntas”.
- El campo de pruebas:
Los proyectos de investigación de Internet elegidos se llevarán a cabo en una nueva red de investigación virtual construida por BBN Technologies. Un laboratorio que se conoce como GENI (Global Environment for Network Innovations; www.geni.net).
Este centro de estudios ha llevado a cabo otros experimentos en infraestructura de red que han sido instalados en las universidades de los Estados Unidos, que permitirá a los investigadores llevar a cabo estudios de más alcance de la nueva arquitectura de Internet de manera paralela (aunque separada) del tráfico diario que circula actualmente por la Red.
El proyecto GENI implica permitir tres tipos de infraestructura de red para administrar experimentos de gran escala. Uno de ellos utiliza el protocolo OpenFlow desarrollado por la Universidad de Stand-ford para permitir programación de switches Ethernet de fabricantes como HP, Juniper o Cisco. Otro tipo es el Internet 2 backbone, que brinda una gran programación en los routers Juniper. El tercero es una red WiMAX para las pruebas de servicios móviles e inalámbricos.
Una vez que las infraestructuras de GENI estén establecidas y en funcionamiento, los investigadores podrán llevar a cabo sobre ellas sus experimentos. Cada uno de éstos, eso sí, puede prolongarse durante 10 ó 15 años, según explicaron los responsables de GENI.
Otro punto clave de este proyecto es que se empleará también para probar los nuevos paradigmas de seguridad. Tanto que los implicados en la materia no dudan en asegurar que, de todas las investigaciones que se van a llevar a cabo, ésta será sin duda la más importante.
- Una Internet al estilo Facebook:
Otro de los campos de investigación es el conocido como Davis Social Links, una arquitectura basada en redes sociales que ha sido desarrollada por la Universidad Davis de California. Ésta emplea el formato de Facebook (que se basa en la conectividad entre amigos) para propagar conexiones en Internet. Es la manera en que crea conexiones basándose en la confianza y en identidades reales, según S. Felix Wu, profesor del Departamento de Informática de esta universidad.
“Si alguien te envía un mensaje de correo electrónico, la única información que posee sobre si tiene valor o no es mirar la dirección del remitente, que puede ser falseada, y después revisar el contenido. Si puedes añadir al receptor del mensaje la relación social que mantiene con el emisor, le ayudaría a establecer ciertas políticas sobre si un mensaje debería tener más o menos prioridad”, explicó Wu.
Davis Social Links crea una capa adicional en la arquitectura de Internet, el denominado Control social y que establece la relación social que existe entre el emisor y el receptor de un mensaje. “Nuestra red social representa nuestra confianza e interés con otras partes”. Dicha plataforma trabaja en estos momentos en Facebook, pero los investigadores la están migrando a la plataforma GENI. Pese a todo, representa también un cambio radical sobre la Internet actual. La que conocemos al día de hoy está construida sobre la idea de que los usuarios pueden ser accesibles desde cualquier lugar del mundo. “Uno de los principios fundamentales de Internet es que ofrece conectividad global. Si tienes una dirección IP, te puedes conectar a cualquier otra dirección IP. En nuestra arquitectura abandonamos este concepto, porque es innecesario. Creemos que los ataques de denegación de servicio y parte del spam están provocados por esta conectividad global”.
Por eso, Davis Social Links también supone un cambio en el planteamiento del DNS. Aunque lo sigue empleando para la resolución de nombres, en Davis Social Links no se necesita el resultado de esta decisión para ser una dirección IP o una única dirección. “La capa de control social bajo Davis Social Links es como una versión social de Google. Tecleas unas palabras clave… y el Google social te ofrecerá una lista de algunos de los posibles contenidos sociales que coinciden con esas palabras y la conexión social con ellos”, indicó Wu.
Este mismo experto consideró que es mejor y más seguro tener la conectividad en la capa de aplicaciones que en la de red.
- Redes centradas en contenido:
Otra propuesta radical de cambio de la infraestructura de Internet son las redes centradas en contenido, que empieza a ser desarrollada en PARC, que intenta dar respuesta al problema de la cantidad de contenido (cada vez más multimedia) que existe en Internet.
En lugar de utilizar una dirección IP para identificar las máquinas que guardan contenidos, estas redes utilizan nombres de archivos y URL para identificar al contenido en sí mismo. La idea subyacente es conocer el contenido al que los usuarios quieren acceder, algo más importante que saber dónde están las máquinas que guardan esta información.
Según los responsables de este proyecto, “existen miles de exabytes de contenido flotando por Internet… pero la IP no fue diseñada para el contenido. Estamos intentado trabajar alrededor del hecho de que las máquinas hablen entre sí ya no es transcendente. Mover el contenido es lo realmente importante. Las redes peer-to-peer, las de distribución de contenidos, servidores virtuales y almacenamiento están intentando dar respuesta a esta necesidad”.
Por eso, se propone que el contenido (ya sea una película, un documento o un mensaje de correo electrónico) recibiría un nombre que los usuarios podrían buscar y recuperar. Los datos tienen un nombre, no una localización, de manera que los usuarios finales puedan encontrar la copia más próxima.
Según este modelo, la confianza proviene de los datos en sí mismos, no de la máquina en la que están alojados. Este acercamiento es, según sus promotores, más seguro porque los usuarios deciden qué contenido quieren recibir en lugar de tener un montón de archivos no solicitados y obtener multitud de mensajes de correo electrónico no deseados. Con esto también se evitarían algunos ataques, como los del tipo “man-in-the-middle”.
Las redes centradas en contenido también encajan mejor, según estas mismas voces, en el actual modelo de aplicaciones, que exigen capas de middleware para ejecutarse en un modelo host. Otra de sus ventajas es que escala mejor cuando son millones las personas que están viendo contenido multimedia porque emplean comunicaciones multipunto y broadcast en lugar de comunicaciones extremo a extremo en las que se basa Internet al día de hoy.
No obstante, la seguridad sigue siendo la principal ventaja que resaltan los investigadores que están tras este proyecto.
PARC tienen una primera implementación de estas redes centradas en contenido que, además, están siendo ya utilizadas. De hecho, también ha facilitado un código primario a la comunidad de ingenieros de Internet. Van Jacobson, investigador del PARC, se muestra confiado en que las redes centradas en contenido serán precisamente uno de los proyectos seleccionados por la NFS para el experimento a gran escala de la plataforma GENI.
Pero, ¿acabará Internet en 2020 incluyendo las redes centradas en contenido? Jacobson no está seguro, pero cree que Internet necesita una arquitectura radicalmente diferente para esa fecha, aunque no sea más que por la necesidad imperante de mejorar la seguridad. “Dado que utilizamos la Web para obtener información, deberíamos usarla para aumentar nuestra confianza”, sentenció este experto.
"FIN."


