Análisis:DÍA DE INTERNET
Análisis
Exposición didáctica de ideas, conjeturas o hipótesis, a partir de unos hechos de actualidad comprobados —no necesariamente del día— que se reflejan en el propio texto. Excluye los juicios de valor y se aproxima más al género de opinión, pero se diferencia de él en que no juzga ni pronostica, sino que sólo formula hipótesis, ofrece explicaciones argumentadas y pone en relación datos dispersos

¿Se rompe Internet?

CON ESTA FRASE, en forma afirmativa, la prestigiosa Technology Review abría su primer número del año. Toda una paradoja cuando la humanidad ya la reconoce, junto a las viriasis, como el epifenómeno de la globalización.

Una aclaración, no por académica, menos necesaria: Internet y Web no son sinónimos. La primera es la familia de redes de computadoras conectadas entre sí (por medio de cables de cobre, fibra óptica, conexiones inalámbricas, satélites, etcétera) que soporta múltiples servicios: correo electrónico, transferencia de archivos... y, entre ellos, está la Web. Ésta sólo es una colección de documentos (texto, imágenes, voz, vídeo, etcétera) localizables por referencias aceptadas universalmente, y sólo cuenta con 15 años de vida. El buen funcionamiento de Internet es un requisito para el desarrollo de la Web; inversamente, la evolución y el impacto de la genuinamente estadounidense Internet, no sería tal sin la mucho más europea Web (gestada en Ginebra por un inglés, ahora ya Sir Berners-Lee, aunque afincado en Boston, desde donde dirige su desarrollo en el W3 Consortium).

La Nacional Science Foundation ya ha puesto los millones de dólares necesarios para buscar ideas que sustituyan gradualmente los actuales principios de la Red y así evitar su crisis a medio plazo
El tendón de Aquiles de Internet reside en que se diseñó en el sobreentendido de la confianza entre sus usuarios. Desafortunadamente, 50 años después, viaja por ella tanto información legítima, como verdaderas cartas bomba
Más información
Internautas.es, una historia de resistencia
El día de la cibercandidez

El impacto de las aplicaciones que la Web facilita y la versatilidad de las comunicaciones inalámbricas, explica la tremenda evolución de esta infraestructura. Ante la magnitud de su uso futuro, es obligado avisar que un sistema iniciado hace medio siglo, a pesar de las mejoras y cambios incorporados, presenta dudas sobre si responderá a las demandas que la Web del futuro le exigirá.

Las debilidades de Internet no residen en carencias estrictamente tecnológicas, ya que a pesar que queda mucho por mejorar, todo indica que la ingeniería hará su trabajo. Curiosamente, al repasar los grandes problemas (seguridad ante ataques premeditados, sobreutilización, redefinición de la propiedad intelectual, control de la calidad de la información, etcétera) se observa que éstos tienen más que ver con el factor humano que con la tecnología. Aunque cada uno tenga naturaleza y diagnóstico distinto y pueda verse desde diferentes ópticas, estos problemas coinciden en que todos eran imprevisibles para los padres de Internet.

Aquellos pioneros definieron protocolos que, muy eficientemente, descomponen datos en unidades, llamadas paquetes, para llevarlos a su destino a través de la malla de ordenadores que obedecen a una única dirección. El tendón de Aquiles reside en que se diseñó en el sobreentendido de la confianza entre sus usuarios. Desafortunadamente, 50 años después, viaja por ella tanto información legítima, como verdaderas cartas bomba. En su desarrollo y adaptación, Internet ha tenido que enfrentarse a una secuela de gusanos, virus y errores involuntarios que hoy encadenan problemas y pérdidas sin cuento.

Los primeros usuarios (unos cientos de funcionarios y académicos americanos) trabajaban en plena confianza mutua, con intercambios de información supuestamente veraz y todos tenían una ubicación fija (los actuales sistemas móviles, capaces de conectarse no importa dónde, tampoco podían estar en la cabeza de estos pioneros). Entonces, poco importaba el contenido de los datos, la única pretensión era que los paquetes llegarán a su destino. No se podía prever que los mensajes incluyeran virus que dañan al receptor, ni que la lectura de un correo (y luego el acceso a una página web) pudiera esconder un ataque que dejara el sistema bajo el control de extraños. Al concebir Internet, la seguridad era un requisito que no se intuía, el sobreuso una cuestión sin razón de ser, hablar de propiedad intelectual, poco menos que una extravagancia y la calidad de la información, un atributo obvio.

Frente a la creciente eficacia de la Red, la naturaleza humana explotó su lado oscuro. Se ha llegado al extremo caso de Jeremy Janes, encarcelado después de haber vehiculado más de 10 millones de correos al día. Para afrontar la nueva situación se ha recurrido a elementos no previstos inicialmente: cortafuegos, antivirus, filtros y múltiples parches. Por otro lado se debate el principio de propiedad intelectual (para bien o para mal en entredicho) y una confiabilidad en la calidad de la información, sobre la que esperemos actúe una especie de selección natural.

La evolución de Internet implica reducir el papel del humano en los procesos. Las máquinas son muy eficaces para determinadas cosas, pero fáciles de engañar en otras funciones si existe la intencionalidad de hacerlo. En consecuencia, la propia estructura del ordenador exige tomar medidas exageradamente sólidas para salvaguardar el funcionamiento de la red como un todo.

Aunque, ahora ya sea real el principio de "el ordenador es la Red", hay que reseñar que esta máquina no nació como nodo de red alguna, y que los sistemas operativos que las soportan fueron pensados para ordenadores mucho más aislados que los que ahora manejamos. Ni UNIX (antecesor de LINUX), ni mucho menos MS (ideado por Microsoft para el primer PC de IBM, origen de los actuales Windows) tenían Internet como requisito. Eso hace que, en el fondo, estemos trabajando con meras adaptaciones a las nuevas demandas de la Red.

Vinton Cerf, uno de estos padres de Internet es claro: "No me gusta la actual situación..., el spam, la vulnerabilidad a los distintos ataques, etcétera; los agujeros surgen por las carencias que arrastran los sistemas operativos y no es posible, con los protocolos actuales, que sea Internet el que autentifique una identidad o busque virus y gusanos. Eso supondría usar tal cantidad de recursos que podría inutilizarla y, por tanto, ha llegado el momento de abrirse a nuevas ideas".

Para dar una estimación de lo que está en juego (a veces, en el pecado está la penitencia) sirvan dos apuntes: de los 6.000 millones de dólares que Microsoft gastó en el último año en I+D, un tercio se fue a temas de seguridad, una parte para parches que acallasen a clientes descontentos y otra a productos que no llegan al mercado, porque no se está seguro de que cumplan los estándares de seguridad; Intel, ve los gastos en seguridad como un impuesto revolucionario, que estima en el 30% del funcionamiento de un equipo, y es consciente de que, ante este coste, se pueden dejar de explotar algunas de las potencialidades de Internet y con ello lentificarse la demanda de nuevos procesadores.

Universidades y empresas apuntan tecnologías prometedoras: autentificar el remitente de la conexión, identificar quien invade la privacidad de otro sistema, añadir nuevos sensores y periféricos para trabajar en entornos móviles, etcétera. Esto en su conjunto dibuja un proceso de evolución/ruptura de Internet, que pasa por:

a) Incorporar, desde el principio, la seguridad en la arquitectura.

b) Nuevos protocolos para mejorar el enrutamiento del tráfico y así colaborar entre todos a ofrecer nuevos servicios, sin afectar a sus actuales actividades.

c) Diseñar periféricos (de cualquier tamaño, fijo o móvil, etcétera) empotrados en equipos autónomos para conectarse a través Internet.

Un precio que pagar

El debate inicial fue: ¿seguimos generando parches que resuelvan problemas a medida que aparezcan, o borramos la pizarra y rediseñamos Internet? Un tema caliente en Estados Unidos, donde saben que el futuro de su Internet tiene mucho que ver con su permanencia como líderes mundiales. Y ya se sabe que en estos casos el pragmatismo anglosajón suele superar, con cierta facilidad, ideologías tales como la libertad absoluta.

Con su actual extensión y uso, la simple posibilidad de cambiar la arquitectura de Internet pone los pelos de punta, pero quizá sea uno de los problemas más importantes que la comunidad internacional deba resolver más pronto que tarde (reconociendo que seguramente la solución será made in USA).

Cada vez aparecen más problemas y para taparlos hay que poner más recursos, y éstos ya son ingentes. "Ha llegado el momento de pensar en cambiar las reglas". La estadounidense Nacional Science Foundation ya ha puesto los millones de dólares necesarios para buscar ideas que sustituyan gradualmente los actuales principios de la Red y así evitar su crisis a medio plazo.

Este esfuerzo para evolucionar a partir de la Internet actual, tiene un precio que no sólo se mide en dinero, sino también por el choque cultural asociado al posible final de la atractiva cultura libertaria de que disfrutan los actuales usuarios. Por si fuera poco, en Estados Unidos, tras el 11-S, con una Administración entregada al e-government, el temor al llamado "digital Pearl Harbor" es una espada de Damocles que orienta las soluciones. Agrade o no, el precio adicional se resume en una frase: "Una Internet más segura, aunque menos interesante". Definitivamente la Red necesita adaptarse para que pueda digerir su propio éxito, y por tanto su futuro. La única duda reside en cómo ir a una arquitectura nueva, con una serie escalonada de cambios profundos, desde lo actualmente existente.

Sería bueno que, por esta vez, hubiera alguna aportación sustantiva desde esta parte del Atlántico.

GREGORIO MARTÍN QUETGLAS. Catedrático de Ciencias de la Computación. Universidad de Valencia.

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS